Mehr

Wie kann ich ein hochauflösendes Rendering des Globus erstellen?

Wie kann ich ein hochauflösendes Rendering des Globus erstellen?


Ich baue eine ANSI E-Kartensammlung in Postergröße auf und möchte den Karten eine schöne Darstellung des Globus hinzufügen, die die ungefähre Position der Region auf dem Globus anzeigt.

Das Problem ist, dass das Globe-Rendering ein qualitativ hochwertiges, hochauflösendes Bild sein muss. Ich denke, mindestens 300 oder 400 DPI bei etwa 12" x 12" Zoll, damit ich damit in CorelDRAW arbeiten kann, wo ich das Endprodukt erstellen werde.

Ich habe Google Earth (kostenlos), NASA World Wind und ArcGLobe, aber keine Software kann ein zufriedenstellendes Ergebnis liefern. Alles sieht OK aus, aber die Auflösung des Bildes entspricht nicht der Druckqualität.

Bisher scheint Google Earth am besten zu sein (obwohl das Geländerelief besser wäre als die fleckigen Bilder), gefolgt von NASA World Wind und ArcGlobe. (Angesichts des Preises würde man erwarten, dass ArcGlobe liefert, aber ich bin mir der Probleme des ArcScene-Exporters voll bewusst, daher bin ich nicht sehr überrascht.)

Wenn jemand ein (kostenloses) Programm für einen virtuellen Globus empfehlen könnte, mit dem ich dies tun kann, wäre das großartig. Andere Optionen sind ebenfalls willkommen; Der Globus muss nicht dynamisch sein, aber er muss sich auf Kanada konzentrieren, in dessen Mittelpunkt Ontario steht.

Hier sind die Ausgaben der oben genannten Programme:

Google Earth NASA World Wind ESRI ArcGlobe 10


Rendern Sie Ihre eigenen Bilder mit POV-Ray, einer Raycasting-Engine, die Bilder beliebiger Größe erstellen kann. Hier ist ein Beispiel für die Erde mit Schwerpunkt Südkalifornien: http://geohack.net/earth/sb-2048.png">ausgezeichneter Leitfaden für Details zum Ansatz.


Die hochauflösenden, nahtlosen und wolkenlosen Bilder, die Sie finden werden, stammen von Sichtbare Erde der NASA.


Ich bin mir nicht sicher, ob das das ist, was du suchst, aber schau mal:

  • WebGL Globe von Google
  • WebGL Earth
  • DynViz

Alles über Informationsästhetik-Weblog


Wären Sie in der Lage, dies mit Daten von Natural Earth zu tun? Ich bin mir nicht sicher, ob es funktionieren würde, aber Sie könnten das Gelände basierend auf der Höhe und die Bathymetrie basierend auf der Tiefe schattieren.


Verbessert die Erhöhung der DPI die Druckqualität?

Ich bin dabei, ein Buch zu veröffentlichen, und nachdem ich den Inhalt hochgeladen hatte, wurden mir verschiedene Fehler angezeigt, insbesondere bei Bildern mit weniger als 300 DPI (115 dpi, 150 dpi, 200 dpi). Mir wurde gesagt, dass sie nur 300 DPI-Bilder akzeptieren können, da dies das Beste für den Druck ist.

Zuerst waren meine Bilder nicht wirklich von dieser Qualität, da es sich einfach um Bilder von Scandokumenten handelte, aber ich habe versucht, dem zu entsprechen und die Bildgrößenfunktion in Photoshop verwendet, um die dpi auf 300 zu erhöhen, aber das machte die Größe der Bilder zu groß (wie 40 MB ein Bild). Soll ich die Dimension ändern als nach dem Ändern von DPI?

Meine Frage ist, wenn ich DPI auf 300 ändere und alles andere gleich lasse, wird die Dateigröße riesig sein. Was ist die empfohlene Einstellung der Bildgröße für den Ausdruck auf A4-Papier und wird durch eine Erhöhung der DPI die Druckqualität beeinträchtigt? Weil ich den gleichen Inhalt auf meinem Heimdrucker ausdrucke und sie absolut in Ordnung sind.


3D-Web-Mapping

Während Google Earth der bekannteste 3D-Web-Mapping-Viewer ist, der derzeit gemeinfrei ist, gibt es alternative virtuelle Globe-Viewer. Dieser Artikel konzentriert sich insbesondere auf den NASA World Wind Viewer, der OGC-Datenverbreitungsstandards und Mehrstrahl-Sonardaten des Irish National Seabed Survey verwendet, um sein Potenzial zu veranschaulichen.

Die Entwicklung einer Reihe innovativer GIS-Tools und -Systeme ermöglicht die Harmonisierung und den elektronischen Austausch von Geodaten und -diensten über verteilte Netzwerke. 3D-Web-Mapping-Viewer wie NASA World Wind sind vielleicht einige der sichtbarsten dieser Produkte.

OGC-Standards
Solche Entwicklungen setzen einige der wichtigsten Bausteine, die der Entwicklung von Geodateninfrastrukturen (GDI) zugrunde liegen. Das Open Geospatial Consortium (򖈱) hat eine Reihe von Interoperabilitätsstandards ('OpenGIS'-Spezifikationen) veröffentlicht, die Hauptkomponenten von SDI sind. Wichtige OGC-Standards sind Web Map Service (WMS), Web Feature Service (WFS) und Web Coverage Service (WCS). Der WMS-Standard erleichtert die webbasierte Verbreitung von Kartenbildern, während die WFS- und WCS-Standards die Verbreitung von Feature- bzw. Abdeckungs-/Rasterdaten erleichtern.

MarineGrid-Forschung
In der September-Ausgabe 2006 von Hydro International (Band 10, Ausgabe 7) haben wir den Einsatz des WMS-Standards im Rahmen des Forschungsprojekts MarineGrid demonstriert. Dieses Projekt wird von der Irish Higher Education Authority finanziert und umfasst Forscher der National University of Ireland, Galway (NUIG) und des Coastal and Marine Resources Centre am University College Cork (UCC). Ein interner WMS-Server wurde entwickelt, um schattierte, bathymetrische Reliefbilder der Dublin Bay aus der Irish National Seabed Survey zu verbreiten. Der Artikel veranschaulichte, wie es möglich ist, große Bilddatensätze mithilfe von WMS und KML (Keyhole Markup Language) in Google Earth zu integrieren. Es ist jedoch auch möglich, WMS-Bilder in andere 3D-Viewer zu integrieren.

NASA World Wind
NASA World Wind ist ein interaktiver, webfähiger 3D-Globe-Viewer. Es wurde erstmals im August 2004 vom Learning Technologies-Projekt der NASA veröffentlicht und ähnelt dem Google Earth-Viewer, mit dem Sie an jeden Ort der Erde heranzoomen können. Die Zuschauer richten sich jedoch an unterschiedliche Zielgruppen. World Wind wurde ursprünglich als wissenschaftliches Bildungsinstrument entwickelt, während Google Earth als geografisch standortbasiertes Suchwerkzeug konzipiert wurde. Beide Viewer haben ihre eigenen einzigartigen Fähigkeiten. Google Earth verwendet hauptsächlich kommerzielle hochauflösende Satelliten-/Luftbilder, während World Wind gemeinfreie Satelliten-/Luftbilder verwendet. World Wind unterstützt auch die 3D-Globus-Visualisierung anderer Planeten wie Venus und Mars und des Mondes. World Wind ist Open Source und ermöglicht es Entwicklern, den Quellcode zu ändern oder Plug-in- oder Add-on-Tools zu entwickeln. Beispielsweise wurden kostenlose Plug-Ins entwickelt, die auf Bilder und Karten aus dem französischen Geoportail und Microsofts Virtual Earth zugreifen können, obwohl in diesen Fällen die Datenlizenzierung eingeschränkter sein kann.

WMS-Streaming
Ähnlich wie bei Google Earth lädt World Wind mithilfe einer hierarchischen Kacheltechnik kleine Bildausschnitte herunter, die der virtuellen Ansicht eines Benutzers entsprechen. Für jeden gegebenen Bereich werden zuerst regionale Kacheln mit niedriger Auflösung heruntergeladen, gefolgt von Kacheln mit mittlerer Auflösung und schließlich lokalen Kacheln mit hoher Auflösung. Hierarchische Kacheln ermöglichen die Visualisierung von Multi-Terabyte-Datensätzen. Nach dem Herunterladen werden die Daten auf der lokalen Festplatte zwischengespeichert. Aufgrund des offenen und öffentlichen Charakters von World Wind ist dieser Cache nicht verschlüsselt. World Wind unterstützt direkt die WMS-Lieferung von Daten. Somit ist es möglich, den Viewer mit jedem WMS-konformen Dienst zu verbinden. Dies wird durch die Konfiguration einer einzigen Konfigurationsdatei erreicht, d. h. basierend auf der Datei @Images.xml. Dies wurde für das MarineGrid-Projekt durchgeführt, bei dem der neu konfigurierte World Wind-Viewer direkt auf schattierte Reliefbilder vom Dublin Bay WMS-Server zugreifen kann.

Höhenstreaming
World Wind unterstützt die 3D-Visualisierung von Land und Meer. So ist es möglich, die Berge der Erde oder die Kontinentalhänge der Ozeane in 3D zu erkunden. Diese Geländedaten werden nach Bedarf von einem NASA-Server gestreamt, ebenfalls unter Verwendung einer hierarchischen Kacheltechnik. Die Daten stammen aus dem SRTM+-Datensatz, einem Datensatz mit relativ niedriger Auflösung. Während der WMS-Standard das Streaming von Kartenbildern unterstützt, kann der WCS-Standard das Streaming von Höhendaten unterstützen. World Wind verwendet diesen Standard jedoch nicht. Stattdessen werden Geländekacheln vorgefertigt, auf einem NASA-Server platziert und über einen nicht WCS-kompatiblen Webdienst aufgerufen. Da World Wind Open Source ist, ist die API zu diesem Terrain-Webservice bekannt.

Hohe Auflösung
Eine nützliche Funktion von World Wind ist die Möglichkeit, Höhenmodelle mit höherer räumlicher Auflösung mit einer vertikalen Auflösung von bis zu einem Meter mithilfe der Terrain-API zu streamen. Ein 'Posting'-Tool zum Generieren von Geländekacheln ist online verfügbar. Im Rahmen des MarineGrid-Projekts wurde dieses Tool verwendet, um hochauflösende Bathymetriekacheln für die Dublin Bay zu generieren. Diese Kacheln wurden auf einem hauseigenen Server platziert, der der Terrain-API entspricht. Nach der Neukonfiguration (d. h. der Datei Earth.xml) streamt der Viewer automatisch höher aufgelöstes Terrain vom hauseigenen Server. Abbildung 2 veranschaulicht das importierte Meeresbodengelände für eine Region der Dublin Bay. Beachten Sie den Cursor in der Mitte des Bildschirms, der den darunter liegenden Meeresboden mit einer Tiefe von dreißig Metern angibt.

Zeitreihen WMS
World Wind unterstützt Zeitreihen-WMS-Bilder durch die Funktion „WMS-Browser“, bei der Zeitreihen-Bilder als Animationssequenz visualisiert werden. Dieses Feature verwendet jedoch keine hierarchische Kacheltechnik. Daher wird die Visualisierung großer Zeitreihen-Bilddatensätze nicht unterstützt. Es ist möglich, den 'WMS-Browser' mit einem WMS-kompatiblen Dienst zu verbinden, der Zeitreihendaten speichert, d. h. die Konfigurationsdatei wms_server_list.xml. Der Browser erstellt automatisch eine Liste der verfügbaren Daten
Schichten vom Remote-Server über eine WMS GetCapabilities-Anfrage. Diese Funktion wurde auch von MarineGrid verwendet, um Zeitreihenbilder zu visualisieren, die aus einem hydrodynamischen 4D-Modell des Nordostatlantiks generiert wurden. Abbildung 3 zeigt die Animation der Meerestemperatur in tausend Metern Tiefe. Unterstützung für Legenden, z.B. Temperaturskala, wird ebenfalls unterstützt, aber hier nicht dargestellt.

Vektorunterstützung
Die Unterstützung für den Import von Vektordaten in World Wind ist derzeit eingeschränkt. Beispielsweise werden Vektorobjekte wie Polygone nicht direkt gerendert, sondern gerastert und als Textur gerendert. Basic ESRI Shapefile und KML werden unterstützt, aber diese Funktionen befinden sich noch in der Entwicklung. Ein besseres Vektorobjekt-Rendering ist erforderlich und für zukünftige Veröffentlichungen geplant. Auch eine WFS-Unterstützung ist geplant.

Andere 3D-Viewer
ArcGIS Explorer ist ein kommender 3D-Web-Mapping-Viewer, der von ESRI entwickelt wurde. Es befindet sich noch in der Beta-Produktion, wird aber mit der kommenden Version von ESRI ArcGIS 9.2 verfügbar sein. Der Viewer streamt Daten von proprietären ESRI-Servern: ArcGIS Server, ArcIMS und ArcWeb-Services. Es unterstützt jedoch auch einige offene Standards: den WMS-Standard und den De-facto-KML-Standard. Schließlich wird nächstes Jahr eine offizielle 3D-Version des französischen Géoportail erwartet. Die Liste der webfähigen virtuellen Globus-Viewer wächst.

Abschließende Bemerkungen
Dreidimensionale Web-Mapping-Betrachter, die einen virtuellen Globus zur Darstellung der Welt verwenden, haben dazu beigetragen, GIS populär zu machen und eine flache 2D-Welt in ein anregenderes Erlebnis für die breite Öffentlichkeit zu verwandeln. Zusammen mit schnelleren Computern wurde ihr Erfolg durch die zunehmende Verfügbarkeit von Breitband, die zu einem schnelleren Datenstreaming beiträgt, erheblich unterstützt. Zuschauer wie NASA World Wind haben dazu beigetragen, die Bedeutung von OGC-Standards beim Aufbau von SDIs hervorzuheben und zu demonstrieren. Die Zuschauer müssen diese Standards jedoch vollständig unterstützen. Da die bestehenden Funktionen der aktuellen Welle von 3D-Web-Mapping-Produkten gestärkt werden, ist es wichtig, ihre zukünftige Entwicklung zu betrachten. Die Unterstützung von Metadaten ist sehr wichtig. Wie oft fragt ein Nutzer, wie alt dieses Satellitenbild meiner Stadt ist? Echte 3D-Unterstützung ist ebenfalls erforderlich. Der Ozean ist keine Oberfläche, sondern ein volumetrischer Raum. Um beispielsweise ein volumetrisches hydrodynamisches Modell besser zu visualisieren und zu interpretieren, werden Slicing- und Profiling-Tools benötigt. Die Wunschliste für neue Features ist wohl endlos. Es ist jedoch der Marktplatz, der die zusätzliche Funktionalität bestimmt, die tatsächlich realisiert wird.

Danksagung
Vielen Dank an das Irish National Seabed Survey-Team für die Bereitstellung der Dublin Bay Multi-Beam-Daten. Diese Untersuchung wird in Zusammenarbeit mit dem Geological Survey of Ireland (GSI) und dem Marine Institute durchgeführt und von der irischen Regierung finanziert. Vielen Dank an Ahed Al-Sarraj, Department of Civil Engineering, National University of Ireland, Galway, für die Entwicklung und Bereitstellung der hydrodynamischen 4D-Modelldaten des Nordostatlantiks. Vielen Dank an ESRI Ireland für die Erstellung des ArcGIS Explorer-Images aus ihrer Testumgebung.


Kollimation

Das Konzept der Kollimation ist bei der Einzeldetektorzeilen-CT relativ einfach. Bei der Einzeldetektorreihentechnik bezieht sich Kollimation auf die Steuerung der Strahlgröße mit einer metallischen Öffnung in der Nähe des Tubus, wodurch die Gewebemenge bestimmt wird, die dem Röntgenstrahl ausgesetzt ist, wenn sich der Tubus um den Patienten dreht ( , 1, , 2). Somit besteht bei der Einzeldetektorreihen-CT eine direkte Beziehung zwischen Kollimation und Schnittdicke. Da der Begriff Kollimation in der Multi-Detektor-Reihen-CT auf verschiedene Weise verwendet werden kann, ist es wichtig, zwischen Strahlkollimation und Schnittkollimation zu unterscheiden.

Strahlkollimation

Die Strahlkollimation ist die Anwendung des gleichen Kollimationskonzepts von der Einzeldetektorzeilen-CT auf die Mehrfachdetektorzeilen-CT. Ein Kollimator in der Nähe der Röntgenröhre wird eingestellt, um die Größe des durch den Patienten gerichteten Strahls zu bestimmen. Da mehrere Datenkanäle gleichzeitig erfasst werden, ist die Strahlkollimation normalerweise größer als die rekonstruierte Schnittdicke ( , 3).

Bei Verwendung eines 16-Kanal-Scanners wird beispielsweise für die meisten Anwendungen eine von zwei Einstellungen gewählt ( , Bild 1 , ). Eine enge Kollimation belichtet nur die zentralen kleinen Detektorelemente. Das Datenerfassungssystem steuert die Schaltkreise, die Daten vom Detektor übertragen und sammelt Daten nur von den vorgesehenen Elementen ( , 4, , 5). Eine breitere Kollimation kann das gesamte Detektorarray belichten. Anders als bei der schmalen Kollimation, bei der die zentralen Elemente einzeln abgetastet werden, werden bei der breiten Kollimation die 16 zentralen Elemente gepaart oder gebündelt, wodurch Daten geliefert werden, als wären sie acht größere Elemente ( , 6). Die vier zusätzlichen größeren Elemente an jedem Ende des Detektorarrays vervollständigen dann die insgesamt 16 Datenkanäle. In diesem Beispiel würde die Strahlkollimation in der schmalen Einstellung 10 mm oder in der breiten Einstellung 20 mm betragen.

Da die Strahlkollimation in Kombination mit der Tischtranslokation den Umfang der z-Achsen-Abdeckung pro Drehung bestimmt, hilft sie auch dabei, die Gewebelänge oder „Volumenabdeckung“ zu bestimmen, die innerhalb eines bestimmten Zeitraums gescannt werden kann ( , 3). Eine größere Strahlkollimation ermöglicht eine größere Volumenabdeckung innerhalb der Zeitbeschränkungen einer gegebenen Atemanhalte- oder Kontrastmittelinjektion. Ein wichtiger Punkt ist, dass die schmale Kollimation in der Vier- und 16-Kanal-Multi-Detektor-Reihen-CT wie bei der Ein-Detektor-Reihen-CT typischerweise zu einer höheren Strahlendosis für den Patienten führt als bei der breiten Kollimation ( , 7, , 8).

Schnittkollimation

Das Konzept der Schnittkollimation ist komplexer, aber entscheidend für das Verständnis des Potenzials der Multi-Detektor-Reihen-CT. Eine der Schlüsselkomponenten der Multi-Detektorzeilen-CT ist ein Detektorarray, das eine Aufteilung des einfallenden Röntgenstrahls in mehrere unterteilte Datenkanäle ermöglicht ( , 3). Schnittkollimation definiert die Erfassung gemäß den kleinen axialen Schnitten, die aus den Daten rekonstruiert werden können, wie durch die Verwendung der einzelnen Detektorelemente zum Kanalisieren von Daten bestimmt wird. Im Gegensatz zur Strahlkollimation, die die Volumenabdeckung bestimmt, bestimmt die Schnittkollimation die minimale Schnittdicke, die aus einer gegebenen Datenaufnahme rekonstruiert werden kann.

Nehmen wir am früheren Beispiel eines 16-Kanal-Scanners an, dass die kleinen zentralen Detektorelemente 0,625 mm und die großen peripheren Elemente 1,25 mm betragen. Die Größe der belichteten Elemente und die Art und Weise, wie Daten von ihnen durch das Datenerfassungssystem abgetastet werden, bestimmen die physikalischen Eigenschaften der Projektionsdaten, die verwendet werden, um axiale Bilder zu erzeugen ( , 4, , 6, , 8). Bei einer schmalen Kollimation (in diesem Beispiel eine Einfallsstrahlbreite von 10 mm) werden die zentralen kleinen Detektorelemente einzeln vom Datenerfassungssystem behandelt ( , Abb. 2 , ). Diese Erfassungsform erlaubt die Rekonstruktion von axialen Schnitten so klein wie die zentralen Detektorelemente oder eine Schnittkollimation von 0,625 mm.

Bei der Breitstrahlkollimation (in diesem Beispiel 20 mm) werden die zentralen Elemente so gekoppelt, dass zwei 0,625-mm-Elemente als ein einzelnes 1,25-mm-Element abgetastet werden und die peripheren 1,25-mm-Elemente einzeln abgetastet werden, was zu einem Schnitt führt Kollimation von 1,25 mm. Dadurch können axiale Schnitte nicht kleiner als 1,25 mm rekonstruiert werden. Somit wird die Schnittkollimation durch die effektive Größe der vom Datenerfassungssystem (die einzelnen oder gekoppelten Detektorelemente) abgetasteten Datenkanäle definiert und bestimmt die minimale Schnittdicke, die in einem gegebenen Erfassungsmodus rekonstruiert werden kann. "Effektive Detektorzeilendicke" ist ein anderer Begriff, der verwendet wurde, um die Schnittkollimation zu beschreiben ( , 8).

Wenn eine Routineuntersuchung des Abdomens, die bei einer Schnittdicke von 5 mm interpretiert wird, einen Befund ergibt und der Radiologe oder Chirurg detaillierte koronale Bilder wünscht, bestimmt die Schnittkollimation, ob die Daten auf 0,625 mm oder 1,25 mm Schnittdicke rekonstruiert werden können, um eine neue Datensatz für die neu formatierten Bilder. Obwohl es verlockend sein mag, routinemäßig die kleinste Schnittkollimation zu verwenden, kann dies die Strahlendosis für den Patienten erhöhen (insbesondere bei 4- bis 16-Kanal-Scannern) ( , 7, , 8). Daher ist die Schnittkollimation eine wichtige Überlegung beim Entwurf von Protokollen mit Multi-Detektor-Reihen-CT, da der erwartete Bedarf an isotropen Daten mit Überlegungen zur Strahlendosis abgewogen werden muss.

Die Streckenkollimation und die Anzahl der verwendeten Datenkanäle bei der Datenerfassung werden mit dem Begriff „Detektorkonfiguration“ beschrieben. Beispielsweise wird die Detektorkonfiguration für einen 16-Kanal-Scanner, der 16 Datenkanäle von jeweils 0,625 mm Dicke erfasst, als 16 × 0,625 mm beschrieben. Derselbe Scanner könnte auch Daten erfassen, indem unterschiedliche Detektorkonfigurationen verwendet werden, darunter 16 × 1,25 mm und 8 × 2,5 mm. Die Detektorkonfiguration beschreibt auch den Zusammenhang zwischen Schnitt- und Strahlkollimation, da die Strahlkollimation als Produkt aus Schnittkollimation und Anzahl der verwendeten Datenkanäle berechnet werden kann ( , 5, , 8).

Obwohl die Schnittprofile für die Dünn- und Dickkollimation von Anbieter zu Anbieter variieren, gelten die allgemeinen Grundsätze für alle Scanner. Die Korrelation zwischen Strahlkollimation und Schnittkollimation bei verschiedenen Typen von 16-Kanal-Scannern ist in der Tabelle dargestellt.


3. Ergebnisse

3.1 Orthophoto-Vergleich

Die SfM-Kameraszenarien 1–3 erzeugten visuell ähnliche Orthofotos sowohl untereinander als auch mit dem aus der Luft aufgenommenen Orthofoto (Abbildungen 1a und 1b). Während die spektralen Eigenschaften (d. h. das Farbschema) und die Umweltbedingungen im Zusammenhang mit der Sammlung des SfM und des Luftorthofotos unterschiedlich waren, war das zugrunde liegende topografische Muster (z. B. Vegetationsverteilung und Bachposition) im Wesentlichen gleich. Das heißt, Abweichungen zwischen den beiden Techniken könnten auf Unterschiede im Maßstab und den zugrunde liegenden Höheninformationen zurückgeführt werden, die verwendet werden, um das Luftorthofoto geometrisch zu korrigieren. Die native Auflösung der SfM-Orthophotos betrug weniger als 0,02 m, im Vergleich zu 0,30 m des Luftbildes.

3.2 GPS- und SfM-MVS-Vermessungen

Die mit dem GPS gemessene mittlere Höhe beträgt 2362,37 m (Bereich: 2360,42–2366,09 m) und der MAD beträgt 0,730 m. Ein aus der GPS-Vermessung abgeleitetes DEM mit einer Auflösung von 1,00 m (Abbildung 3a) veranschaulicht die Mikroform des Standorts. SfM-MVS-Daten wurden verarbeitet in

24 h pro Kameraszenario mit 12 GPUs. Die horizontalen und vertikalen mittleren quadratischen Fehler (RMSE) betragen 2,06 bzw. 0,052 m für Kameraszenario 1, 0,03 bzw. 0,084 m für Kameraszenario 2 bzw. 0,03 bzw. 0,082 m für Szenario 3. Nach der Vorfilterung waren die Punktwolkendichten jedes Szenarios, obwohl variabel,

3.3 Vergleich von SfM-MVS- und RTK-GPS-Höhendaten

Der Wilcoxon-Test zeigte, dass 114 (35%) der 324 generierten SfM-MVS-Szenarien sich nicht signifikant von den GPS-Höhendaten unterschieden, was bedeutet, dass sie ähnliche Höhen erzeugten. Von den Szenarien, die mit den GPS-Daten ähnlich waren, war keines der Szenarien, die mit Kameraszenario 1 (nur Kameraposition) oder aggressiven Vorfilterszenarien verbunden waren, signifikant. Die Kameraszenarien mit GCPs unterschieden sich statistisch vom Nicht-GCP-Szenario, unterschieden sich jedoch nicht signifikant voneinander. Ähnliche Befunde traten beim aggressiven Vorfilter auf. Darüber hinaus wurde festgestellt, dass Szenarien, die die minimale Höhe einer bestimmten Auflösung verwenden, weniger wahrscheinlich Daten erzeugen, die denen des GPS ähnlich sind, während die Mittel- und Maximalwerte mit gleicher Wahrscheinlichkeit ähnliche Höhenwerte wie die GPS-Daten erzeugen. Andere Verarbeitungsschritte erzeugten mit gleicher Wahrscheinlichkeit SfM-MVS-Daten, die den GPS-Daten ähnlich oder unähnlich waren.

Für solche Szenarien, die den GPS-Daten ähnlich sind, wurden punktweise individuelle Unterschiede berechnet, um die verzerrungskorrigierten Fehler zwischen den GPS- und SfM-MVS-Werten zu untersuchen. Eine visuelle Untersuchung der SfM-MVS-Fehler (d. h. Quantil-Quantil-Diagramme und Histogramme) zeigte, dass sie sich einer Normalverteilung angenähert hatten. Um den Fehler nicht künstlich durch die Annahme der Normalität einzuschränken, wurden jedoch nichtparametrische Varianzmaße und Vergleichstechniken anstelle ihrer parametrischen Gegenstücke verwendet (z. T Test und Standardabweichung). Abbildung 5 zeigt eine Darstellung der beobachteten Fehler, die unter Verwendung von MAD für die Fehlerbalken charakterisiert wurden, sowie den Median-Offset, der vor dem Vergleich mit den GPS-Daten erforderlich ist. Die beobachteten minimalen und maximalen MAD-Werte betrugen 0,09 bzw. 0,13 m. Die minimalen und maximalen Median-Offsets betrugen 0,23 bzw. 0,54 m.

Beim Vergleich von MAD- und Median-Offset-Werten zwischen den verschiedenen Verarbeitungsszenarien wurden signifikante Unterschiede festgestellt (Tabelle 1). Die Lösungsszenarien unterscheiden sich um

0,02 m, wobei die 2,00 m-Daten deutlich weniger genau sind als alle außer dem 1,00 m-Szenario. Die Auflösungsdaten von 0,05 und 0,10 m waren die genauesten und ergaben MAD-Werte von 0,09 m. Ebenso unterschied sich das 2,00-m-Szenario am stärksten von den Daten mit feinerer Auflösung und unterstützte den größten Versatz von 0,41 m. Der kleinste Versatz wurde mit den 0,10 m-Daten bei 0,34 m assoziiert. Die genauesten Höhenszenarien waren diejenigen, die Mittelwerte verwendeten, während die am wenigsten genauen Maximalwerte verwendeten. Es gab einen zunehmenden Median-Offset vom minimalen zum maximalen Höhenszenario, wobei das minimale Szenario den kleinsten Offset erforderte.

Szenario Unterszenario n Mittlere absolute Abweichung (m) Median-Offset (m)
Auflösung
ein 0,05 m 22 0.091*** *** P < < 0,01
(e,f)
0.342* * P < 0,05
(e), *** *** P < < 0,01
(F)
B 0,10m 22 0.091*** *** P < < 0,01
(e,f)
0.341* * P < 0,05
(e), ** ** P < 0,01
(F)
C 0,25 m 20 0.094*** *** P < < 0,01
(F)
0.342*** *** P < < 0,01
(F)
D 0,50m 18 0.097*** *** P < < 0,01
(F)
0.346
e 1,00 m² 16 0.100 0.402
F 2,00 m² 16 0.111 0.436
Elevation
g Minimum 18 0.096 0.314*** *** P < < 0,01
(Hallo)
h Bedeuten 48 0.091*** *** P < < 0,01
(ich)
0.342*** *** P < < 0,01
(ich)
ich Maximal 18 0.097 0.408
  • ein Sternchen/Buchstaben werden verwendet, um zu veranschaulichen, welche Unterszenarien sich unterscheiden. Es wird nur das erste Paar angezeigt, das sich unterscheidet (d. h. das Unterszenario mit 5 cm Auflösung unterscheidet sich statistisch von den Unterszenarien von 1 und 2 m, aber nur das Unterszenario von 5 cm ist markiert). Der mediane MAD und der mediane Offset für alle Szenarien betrugen 0,093 bzw. 0,347 m.
  • * P < 0,05
  • ** P < 0,01
  • *** P < < 0,01

Da es eine Reihe von SfM-MVS-Szenarien gab, die ähnliche Höhendaten wie die GPS-Vermessung lieferten (Abbildung 4), wird die Nützlichkeit dieser Methode zur Quantifizierung der Mikroform-Höhe durch einen Vergleich der Histogramme zwischen den GPS-Daten und einem der SfM-MVS-Szenarien bei mehreren Auflösungen (Abbildung 5). Das hervorgehobene Szenario verwendete sowohl GCP- als auch Kamerapositionen (d. h. Kameraszenario 2), einen milden Vorfilter, unseren Nachfilter und die mittlere Punktwolkenhöhe, im Folgenden als „Vegetationsszenario“ bezeichnet. Daten aus den verschiedenen Auflösungen wurden zusammen mit den GPS-Daten lokalisiert, um vergleichbare räumliche Maßstäbe zu gewährleisten (d. h. die SfM-MVS-Daten wurden räumlich mit den GPS-Daten gemäß ihrem nächsten Nachbarn verbunden). Die SfM-MVS-Daten waren in allen Auflösungen den GPS-Daten ähnlich.

3.4 Räumliche Fehleranalyse

Um räumliche Fehler zu verstehen, wurden SfM-Daten aus dem Vegetationsszenario mit der GPS-Vermessung verglichen, jedoch mit begrenzten Verarbeitungsschritten (dh keine Medianverschiebung, keine Nachfilterung), um die Fehlerarten besser zu vermitteln, die man von Punktwolken erwarten könnte (Abbildung 6) direkt von der SfM-MVS-Software verwendet (Abbildung 7). Die Ergebnisse zeigen klare Muster räumlicher Fehlerabweichungen, was auf das Auftreten systematischer Fehler hindeutet (Abbildung 7). Die Fehler waren im nordöstlichen Teil der Alpenmoore höher und im Südwesten geringer (und oft negativ). Die unterschiedlichen Bereiche mit hohem und niedrigem Fehler wurden oft, aber nicht immer, mit Vegetationstypen in Verbindung gebracht (siehe Abbildung 1c). Zum Beispiel halbierten zwei verrauschte „Streifen“ mit hohem Fehler das Moor vertikal (Mitte nach links) und diagonal (untere Mitte nach oben rechts). Auch dort, wo abrupte Gefälleänderungen auftreten, wie zum Beispiel am Rand von Mooren, waren die Fehler manchmal hoch.

3.5 Vegetationseinflüsse auf Fehler

Um den Mischeffekt von Vegetation und Fehlerauflösung zu untersuchen, wurde wiederum das Vegetationsszenario verwendet, jedoch mit Nachbearbeitung. Es wurde festgestellt, dass sowohl die Vegetation als auch die Auflösung den Fehler der SfM-MVS-Daten signifikant beeinflussen, wie durch eine deutliche Häufung von Fehlern gezeigt wird (Abbildung 8). Generell waren die kurzen Vegetationsklassen mit den niedrigsten MAD-Werten verbunden. Dies wird am besten durch die kurze krautige Vegetationsklasse repräsentiert, die den niedrigsten Median MAD (0,061 m) über alle Auflösungen hinweg unterstützte. Der niedrigste MAD über alle Vegetationen und Auflösungen lag jedoch bei 0,058 m, was mit der geschlossenen hohen Gehölzvegetationsklasse bei einer Auflösung von 0,10 m verbunden war. Der maximale MAD (0,143) wurde der geschlossenen kurzholzigen Vegetationsklasse bei einer Auflösung von 2,00 m zugeordnet. Die Daten mit einer Auflösung von 2,00 m erzeugten in fast allen Fällen auch den größten Medianfehler und wichen tendenziell statistisch von Daten mit einer feineren Auflösung ab. Andere Auflösungen unterschieden sich tendenziell nicht wesentlich voneinander.

Im Median-Offset wurde eine gewisse Clusterbildung beobachtet. Am auffälligsten ist die Aufteilung der Offsets oben und unten

0,35 m. Diese Versätze können grob zwischen den geschlossenen oder kurzen Vegetationsklassen im Vergleich zu den hohen oder offenen Vegetationsklassen organisiert werden. Diese Aufteilung in Höhe und Offenheit spiegelt sich in den beobachteten maximalen (0,469 m) und minimalen (0,277 m) Medianversätzen wider. Der Maximalwert wurde mit der Vegetationsklasse offene krautige Depression und einer Auflösung von 2,00 m assoziiert. Der minimale Median-Offset wurde dagegen in der offenen Vegetationsklasse mit kurzen krautigen Pflanzen sowohl bei der Auflösung von 0,05 als auch bei 0,10 m beobachtet. Die offene Vegetationsklasse der kurzen krautigen Vegetation erzeugte auch einen mittleren Median-Offset von 0,280 m über die Auflösungen, was die niedrigste aller Vegetationsklassen war.


PHYSIKALISCHE PROZESSMODELLE

Das physische System dient als Umgebung, in der sich das soziale System entwickelt. Physikalische Prozessmodelle sind ausführbare Beschreibungen unseres Verständnisses von atmosphärischen, ozeanischen, hydrologischen, geologischen und anderen physikalischen Systemen. Viele dieser Prozesse eignen sich für die Geoanalyse. Zu den physikalischen Prozessmodellen, die von NGA entwickelt oder verwendet werden, gehören diejenigen, die verwendet werden, um hochauflösende Darstellungen des magnetischen und gravitativen Potenzials der Erde zu erzeugen (Pavlis et al., 2012, siehe Abbildung 1.2). Während physikalische Prozessmodelle auf der Simulation spezifischer Naturphänomene basieren, liefern sie oft auch Informationen über die Auswirkungen der Umweltdynamik auf menschliche Infrastruktur, Aktivitäten und Demografie. Zum Beispiel würde die Geheimdienstfrage der Megastädte (siehe Kasten 1.2)

1 Siehe Symposiumsprogramme des NGA Academic Research Program für 2005&ndash2015.

KASTEN 4.1 NGA-Partnerschaften mit Universitäten

NGA hat Beziehungen zu Dutzenden von Colleges und Universitäten, einschließlich historisch schwarzer Colleges und Universitäten, zu Rekrutierungs- und Weiterbildungszwecken aufgebaut (NRC, 2013). Darüber hinaus hat NGA eine große Anzahl von Universitäten als Center of Academic Excellence in Geospatial Science ausgewählt, um Beziehungen und Partnerschaften zu pflegen. ein Dazu gehören die folgenden:

Alabama A&M University Roane State Community College
Universität von Arizona Universität von Alabama
Delta State University Universität Maine
Fayetteville State University Universität von Südflorida
George Mason Universität Universität von Texas, Dallas
Mississippi State University Universität von Utah
Nordöstliche Universität Akademie der US-Luftwaffe
Ohio State Universität US-Militärakademie
Pennsylvania Staatsuniversität

ein Siehe Symposiumsprogramme des NGA Academic Research Program für 2005&ndash2015.

erfordern wahrscheinlich Modelle von Umweltveränderungen, die die städtische Bevölkerung belasten könnten, wie etwa der Anstieg des Meeresspiegels und der Anstieg der Sommertemperaturen. Die Fragen des chinesischen Wassertransfers würden wahrscheinlich ein großmaßstäbliches Modell des hydrologischen Systems in China erfordern, um Oberflächenströmungen, unterirdische Strömungen und Wassermengen unter verschiedenen Wasserumleitungsszenarien vorherzusagen.

Viele physikalische Prozessmodelle beinhalten die Simulation von Fluiden, die durch Navier-Stokes- und Kontinuitätsgleichungen bestimmt werden, die Impuls- und Masseerhaltung darstellen, und sie werden numerisch durch endliche oder spektrale Diskretisierungsansätze gelöst. Genaue und repräsentative Beobachtungen des natürlichen Systems sind sowohl für die Erstellung der physikalischen Prozessmodelle selbst als auch für die Einstellung der richtigen Anfangs- und Randbedingungen, die die physikalischen Prozesse in einer modellbasierten Untersuchung einschränken, entscheidend.

Physikalische Prozessmodelle können groß und hochgradig nichtlinear sein und mehrere Prozesse über einen weiten Bereich von Raum- und Zeitskalen koppeln (z. B. Abbildung 4.1). Große, komplexe physikalische Prozessmodelle sind oft teuer in Entwicklung und Betrieb. In einigen Fällen kann es ausreichend sein, Modelle mit reduzierter Ordnung auszuführen, die theoretische Ansätze verwenden, um eine vereinfachte Version des vollständigen Prozessmodells zu entwickeln (Berkooz et al., 1993 Mignolet und Soize, 2008 Moore, 1981). Modelle mit reduzierter Ordnung sollen adäquate Näherungen an High-Fidelity-Modelle zu deutlich geringeren Kosten und Zeit bis zur Lösung liefern.

Ein Modell reduzierter Ordnung braucht nicht der vollen raumzeitlichen Dynamik des High-Fidelity-Modells treu zu sein, es muss nur die wesentliche Struktur der simulierten Struktur von den Eingabeparametern bis zu den interessierenden Ausgaben erfassen. Der beliebteste Ansatz zur Modellreduktion besteht darin, die Zustandsdimension und die Zustandsgleichungen mit projektionsbasierten Methoden zu reduzieren (Benner et al., 2015 Chinesta et al., 2016). Solche Verfahren sind am erfolgreichsten für lineare oder schwach nichtlineare Modelle in niedrigen Parameterdimensionen. Es bleibt jedoch eine Herausforderung, effiziente und leistungsfähige Modelle reduzierter Ordnung zu konstruieren, die komplexe nichtlineare dynamische Modelle handhaben können und die über den hochdimensionalen Parameterraum treu sind.

Modelle reduzierter Ordnung oder Emulatoren, die das Rechenprozessmodell durch ein Antwortflächenmodell ersetzen, werden auch verwendet, um inverse oder Sensitivitätsanalysen zu beschleunigen, die viele Modellläufe erfordern. Der Emulator wird aus einem Ensemble physikalischer Prozessmodellläufe trainiert und erstellt eine Antwortflächenabbildung der Modelleingaben in das Modell

Ausgabe (Marzouk und Najm, 2009 O&rsquoHagan, 2006). Emulatoren können verwendet werden, um Modellergebnisse bei unerprobten Eingabeeinstellungen vorherzusagen, sodass gründlichere inverse oder Sensitivitätsanalysen durchgeführt werden können.

ABBILDUNG 4.1 Charakteristische räumliche und zeitliche Skalen von Erdsystemprozessen. QUELLE: NAC (1986).

Der letzte Stand der Technik

Einige physikalische Prozesse, wie Turbulenz und Wärme- und Flüssigkeitsströmung, sind aufgrund einer Fülle von Beobachtungen und Theorien relativ gut verstanden und modelliert. Andere physikalische Prozesse, wie die Dynamik des Untergrunds, Wolken und die Biogeochemie der Ozeane, bleiben aufgrund fehlender Beobachtungen eine Herausforderung für die Modellierung. Dies ist ein besonderes Problem für hochdetaillierte Simulationen von Strömungen oder anderen Prozessen, die auf feinen räumlichen oder zeitlichen Skalen variieren (z. B. Grundwasserströmungen und Niederschläge). Darüber hinaus bestehen Unsicherheiten darüber, wie ein natürliches System auf Antriebe und Rückkopplungen reagiert.

Klimamodelle sind für die Fragestellungen und Skalen, für die sie entwickelt wurden, ausgereift und ein gutes Beispiel für den Stand der Technik bei physikalischen Prozessmodellen. Die Modelle sind komplex und umfassen mehrere Prozesse (siehe Abbildung 3.4) und mehrere Arten und Skalen von Beobachtungen und sind rechenintensiv und erfordern in der Regel ein spezielles Forschungszentrum oder eine große Gemeinschaft von Forschern, um zu entwickeln, zu validieren und zu betreiben. Eine globale Forschungsgemeinschaft ist entstanden, um konsistente vergangene, gegenwärtige und zukünftige klimabasierte Szenarien von Klimatreibern wie Treibhausgaskonzentrationen, vulkanische und vom Menschen verursachte Aerosole und Sonnenstärke zu simulieren. Obwohl die Reaktion einzelner Modelle auf Klimaantriebe unterschiedlich ist, wird die Unsicherheit typischerweise durch die Verwendung von Multimodell-Ensembles minimiert, die dasselbe Szenario durchlaufen haben (z. B. Abbildung 3.5). Eine der größten Unsicherheiten bei Klimamodellen betrifft die Frage, welches Emissionsszenario zu zukünftigen gesellschaftlichen Entscheidungen in Bezug auf Energie, Verkehr, Landwirtschaft und andere Faktoren passt (IPCC, 2013).

Es wurden erhebliche Anstrengungen unternommen, um die Ergebnisse der Klimasimulation im großen Maßstab auf die regionale oder lokale Ebene herunterzuskalieren

Skalen, die für die Entscheidungsfindung relevanter sind (Kotamarthi et al., 2016). Das Ziel der Verkleinerung besteht darin, die realistische hochfrequente räumliche und zeitliche Varianz der realen Welt zu erreichen, die den gröberen Informationen fehlt. Es gibt drei primäre Herunterskalierungsansätze:

  1. Einfach, das Trends in den grobskaligen Daten zu bestehenden Beobachtungen mit höherer Auflösung hinzufügt (Giorgi und Mearns, 1991)
  2. Statistisch, das großräumige Merkmale der groben Daten mit lokalen Phänomenen unter Verwendung von Regressionsmethoden, Typologie-Klassifizierungsschemata oder Varianzgeneratoren in Beziehung setzt, die den groben Daten realistische Hochfrequenzen hinzufügen (Wilby et al., 2004) und
  3. Dynamisch, das die groben Informationen als Eingabe für hochauflösende Computermodelle verwendet, um Phänomene auf viel feineren zeitlichen und räumlichen Skalen dynamisch zu simulieren.

Jeder Herunterskalierungsansatz hat seine eigenen Vor- und Nachteile. Die weniger komplexen Methoden sind einfach, schnell und kostengünstig zu berechnen, können jedoch zu ungenauen Ergebnissen führen, insbesondere für zukünftige Szenarien, die von historischen Beobachtungen abweichen können (Gutmann et al., 2014). Dynamisches Downscaling ist komplexer und teurer, hat aber das Potenzial, hochauflösende Informationen über ein breiteres Spektrum extrapolativer Szenarien zu generieren. Ein Beispiel für eine Downscaling-Anwendung ist in Abbildung 4.2 dargestellt.

ABBILDUNG 4.2 Der mittlere jährliche Niederschlag (oben) aus der NCEP-NCAR-Reanalyse (unten) herunterskaliert hilft, die regionalen Einflüsse von Gelände mit hoher Variabilität wie den Rocky Mountains zu erfassen. ANMERKUNG: BCSDm = Bias-korrigierte räumliche Disaggregation, angewendet in einem monatlichen Zeitschritt, die statistische Methode, die für die Verkleinerung verwendet wird. NCAR = Nationales Zentrum für Atmosphärenforschung NCEP = Nationale Zentren für Umweltvorhersage. QUELLE: Gutmann et al. (2014).

Der Stand der Technik bei physikalischen Prozessmodellen, insbesondere Wetter- und Klimamodellen, ist in Kasten 4.2 zusammengefasst.

KASTEN 4.2 Stand der Technik bei physikalischen Prozessmodellen
  • Raum- und Zeitskalen: Die durch die Familie der physikalischen Prozessmodelle simulierten Skalen decken subatomare bis galaktische Raumskalen und nahezu augenblickliche bis geologische Zeitskalen ab. Spezifische physikalische Prozessmodelle und -methoden sind im Allgemeinen darauf ausgelegt, spezifische Prozesse und Merkmale innerhalb einer begrenzten Raum- und Zeitskala zu simulieren (siehe Abbildung 4.1) und sind außerhalb dieser Skalen selten gültig.
  • Treue: Physikalische Prozessmodelle sind so konzipiert, dass sie die Genauigkeit der verfügbaren Rechenleistung, der verfügbaren Zeit für die Simulation und der Komplexität des zu modellierenden Systems in Einklang bringen. Die Modelle reichen von einfachen Low-Fidelity-Modellen, die in Sekunden auf einem Low-End-Tablet-Computer ausgeführt werden können, bis hin zu sehr komplexen High-Fidelity-Simulationen, deren Ausführung auf den schnellsten Supercomputern Monate dauert.
  • Genauigkeit und Präzision: In physikalischen Prozessmodellen bezieht sich die Genauigkeit darauf, wie genau die Simulation dem durchschnittlichen Verhalten des beobachteten Systems entspricht, während die Präzision ein Maß für die Varianz ist. Eine Vorhersage, dass die Temperatur morgen unter 200 °F liegen wird, ist sicherlich genau, aber ungenau, während eine Vorhersage, dass sie 23,456789 °F betragen wird, präzise, ​​aber wahrscheinlich ungenau ist. Die Genauigkeit vieler Arten physikalischer Prozessmodelle, wie beispielsweise numerischer Wettermodelle, hat sich im Laufe der Zeit aufgrund ständiger Fortschritte in wissenschaftlichen Erkenntnissen und Technologien verbessert (Bauer et al., 2015). Sowohl Genauigkeit als auch Präzision werden bei den Maßen der Modellvorhersagefähigkeit berücksichtigt.
  • Vorhersagen und Szenarien: Die Vorhersagbarkeitsgrenze für eine individuelle Vorhersage des stark nichtlinearen Wettersystems beträgt etwa 2 Wochen. Das Ziel der Vorhersagbarkeit für Klimamodelle ist derzeit eine Saison bis zu einem Jahrzehnt (a) durch bessere Kenntnisse und Beobachtungen der Ozeanthermodynamik, die der Hauptantrieb des Systems auf diesen Skalen ist, und (b) durch Vorhersagen von Aussichten auf Merkmale mit geringerer Genauigkeit , wie etwa nasse oder trockene Trends über weite Gebiete, anstatt genaue Temperaturen oder Niederschlagsmengen an bestimmten Orten (Slingo und Palmer, 2011).
  • Unterstützung bei der Unsicherheitsanalyse: In physikalischen Prozessmodellen ist die Unsicherheitscharakterisierung eine Methode, um die Unsicherheiten zu vermitteln, die bei der Simulation kontinuierlicher Umgebungen mit diskreten Gitterpunkten und Zeitschritten unter Verwendung unvollkommener Beobachtungen und Modelle inhärent sind. Da physikalische Prozessmodelle zunehmend in Entscheidungskontexten verwendet werden, wird mehr Wert darauf gelegt, die Modellunsicherheit so zu quantifizieren, dass die Daten nutzbarer und umsetzbarer werden.
  • Validierungs- und Bewertungsunterstützung: Prozessmodelle werden durch detaillierte Vergleiche der Genauigkeit und Präzision der Simulationen relativ zu den Beobachtungen des simulierten physikalischen Systems validiert.
  • Rechnerische Voraussetzungen: Modernste physikalische Prozessmodelle haben ihre Rechenanforderungen an die rasante Zunahme der Rechenleistung in den letzten zwei Jahrzehnten angepasst. Petascale (1015 Gleitkommaoperationen pro Sekunde [FLOPS]) Computer haben sich 2014 fest etabliert, und Exascale (1018 FLOPS) Architekturen werden derzeit entwickelt.
  • Datenanforderungen: Die Datenausgabe des physischen Modells reicht von unbedeutend bis überwältigend groß, selbst in Installationen mit dedizierten automatisierten Hochleistungs-Massenspeichersystemen. Wesentliche Modellausgaben sind öffentlich verfügbar, und ein Großteil davon verwendet standardisierte Daten- und Metadatenformate, um die Interoperabilität zu verbessern.
  • Schwierigkeit zu entwickeln: Die Entwicklung von Low-Fidelity-Modellen einfacher physikalischer Systeme kann trivial sein, während High-Fidelity-Modelle komplexer Systeme jahrelange Anstrengungen großer Forscherteams erfordern.
  • Wiederverwendung: Physikalische Prozessmodelle sind in der Regel so konzipiert, dass sie umfassend wiederverwendet werden können.
  • Software-/Code-Verfügbarkeit: Obwohl Software und Codes für physikalische Prozessmodelle, die im akademischen Bereich entwickelt wurden, häufig Open Source sind, erfordern die meisten physikalischen Prozessmodelle, die für kommerzielle, klassifizierte oder neu entstehende Forschungsanwendungen entwickelt wurden, vertragliche Beziehungen, um sie zu erwerben oder zu nutzen.
  • Trainingsunterstützung: Sehr variabel. Während viele physikalische Prozessmodelle eine ausreichende Dokumentation ihrer Verwendung und Anwendung enthalten, ist dies bei anderen nicht der Fall.

Wie man für NGA nützlich macht

Anstatt zu versuchen, internes Know-how in allen relevanten physikalischen Prozessen aufzubauen, könnte NGA vorhandenes Know-how in anderen Organisationen nutzen, indem sie entweder Benutzer von Modellergebnissen oder Partner in Teams mit Erfahrung in der Entwicklung, Durchführung und Analyse von physikalischen Prozessen wird Simulationen. Große Mengen an Prozessmodell-Ausgabedaten sind leicht verfügbar, obwohl ein Großteil davon zusätzlichen Kontext erfordern würde, um für NGA-Anwendungen nützlich zu sein, und vieles müsste auf die für NGA-Fragen am relevantesten regionalen und lokalen Skalen herunterskaliert werden. Darüber hinaus können einige Funktionen von Prozessmodellsimulationen in neuen Anwendungen zuverlässig und nützlich sein. Zum Beispiel kann die Rahmung der Analyse in Bezug auf das Risiko (eine Funktion von Verwundbarkeit, Exposition und Gefährdung) nützlich sein, um die Auswirkungen physikalischer Prozesse auf menschliche Systeme zu untersuchen. Schließlich entwickeln einige Prozessmodellierungsteams Benchmark-Szenarien (z. B. zukünftige Emissionsverläufe für Klimamodelle) und sind möglicherweise bereit, mit NGA zusammenzuarbeiten, um Szenarien zu entwickeln, durchzuführen und zu interpretieren, die auf die spezifischen Interessen der NGA zugeschnitten sind. In all diesen Situationen muss die NGA Zeit investieren, um Domänenexperten zu identifizieren und mit ihnen zusammenzuarbeiten, um neue Simulationen oder Szenarien zu entwerfen, vorhandene Modellausgaben auszuwählen, die für die betrachtete NGA-Frage geeignet sind, um Unsicherheiten im Zusammenhang mit der Verkleinerung zu minimieren oder die Stärken und Schwächen der Modelle in NGA-Szenarien.

Die Ergebnisse physikalischer Prozessmodelle werden zunehmend für den Einsatz in Geodatenwerkzeugen wie Geoinformationssystemen (GIS) adaptiert, die ihren Einsatz in der Geointelligenz erleichtern könnten. Die Fähigkeiten und die Ausgereiftheit der Geodatentechnologien sowie die große Größe der GIS-Gemeinschaft haben viele physikalische Prozessmodellierungsgruppen dazu veranlasst, sicherzustellen, dass ihre Modellergebnisse in die schnell wachsende Suite von offenen und kommerziellen GIS-Werkzeugen integriert werden können. Physische Prozessmodelldaten können GIS-kompatibel gemacht werden, indem kontrollierte Vokabulare, standardisierte Konventionen für Zeit und Geolokalisierung sowie Metadaten verwendet werden. Sobald die georeferenzierten physikalischen Prozessmodelldaten in GIS-fähigen Formaten vorliegen, können sie leicht in menschliche Systeme wie Bevölkerungen, Städte, Infrastrukturen, Landformen oder soziale Einheiten abgebildet werden. Diese Fähigkeit ermöglicht eine interaktive Datenexploration, -analyse, -visualisierung und -verteilung, die alle die Bereitstellung nutzbarer Modellinformationen für ein breites Spektrum von Benutzern und Anwendungen verbessern würden (Wilhelmi et al., 2016). Ein Beispiel für eine GIS-Analyse von Klimamodellergebnissen ist in Abbildung 4.3 dargestellt.

ABBILDUNG 4.3 &bdquoBeat the Heat in Houston&rdquo, ein webbasiertes Tool, das Temperaturdaten mit Informationen über Kühlzentren und Centers for Disease Control and Prevention&ndash basierende Empfehlungen für Risikogruppen integriert. QUELLE: Mit freundlicher Genehmigung von Jennifer Boehnert, National Center for Atmospheric Research.

NGA-finanzierte Forschungs- und Entwicklungsbereiche

Geointelligenz basiert auf der Analyse des Umweltkontexts, relevanter natürlicher und menschlicher Faktoren sowie potenzieller Bedrohungen und Gefahren. 2 Da so viele physikalische Prozesse relevant sind und weil die Verbindungen zwischen physikalischen Prozessmodellen und nachgelagerten Auswirkungen oft stark nichtlinear sind, wird die NGA herausgefordert zu bestimmen, welche physikalischen Prozessmodelle für die Entwicklung und Pflege von Geodatenanwendungen ausreichend wichtig sind. Darüber hinaus hängen die wichtigen physikalischen Prozessmodelle von der Intelligenzanwendung ab und ihre Bedeutung kann erst nach dem Aufbau eines vollständigen End-to-End-Systems eindeutig beurteilt werden. Einige Bereiche eignen sich jedoch für die NGA-Forschung und -Entwicklung, wie zum Beispiel die folgenden:

  • Präzise Echtzeit-Wettervorhersagen zur Unterstützung von Anwendungen wie (a) Boden- und Lufteinführung, Missionsversorgung und Katastrophenhilfe in komplexen natürlichen Umgebungen oder (b) Quellenstandort, Ausbreitungsrate und Schadensschätzungen durch die Freisetzung gefährlicher Stoffe in dicht besiedelten urbanen Umgebungen
  • Verbesserte Simulationen zur Vorhersage regionaler Extremereignisse und Umweltbedrohungen&mdash wie Dürren, unerbittliche Hitzeereignisse (anhaltende hohe Hitze und Luftfeuchtigkeit), Krankheitsvektorvorläufer oder schneller Anstieg des Meeresspiegels&mdash, die zu groß angelegten sozialen Unruhen, Störungen oder Migration führen könnten
  • Systememulatoren und Modelle reduzierter Ordnung großer komplexer physikalischer Systeme&mdash wie Klima, Wasser oder chemische Prozesse&mdash, um eine schnelle Untersuchung von Szenarien zu ermöglichen, die für NGA von Interesse sind
  • Methoden zur schnellen und kostengünstigen Vorhersage der Bedeutung physikalischer Prozesse für nachrichtendienstliche Anwendungen
  • Entwurf robuster Frameworks, Koppler und Anwendungsprogrammschnittstellen, um physikalische Prozessmodelle in Intelligenzanwendungen einzubeziehen und
  • Verfeinerung von physikalischen Modellen, um ihre Kombination mit sozialen Systemmodellen zu erleichtern, um zusätzliches Verständnis und potenzielle Vorhersagefähigkeit von relevanten gekoppelten physischen und sozialen Systembelastungen und Verhaltensweisen zu erlangen.

Um zu bestimmen, welche physischen Prozessmodelle benötigt werden, könnte NGA seine Analysten und Kunden zu Daten-, Informations-, Wissens- und Leistungslücken befragen. NGA könnte dann das interne disziplinäre Wissen und die Expertise aufbauen, um Modelle zu entwickeln oder verfügbare physikalische Prozessdaten zu verwenden, die benötigt werden, um die Lücken zu schließen. Eine Partnerschaft mit anderen Agenturen, die über einschlägige Erfahrung oder Missionsaufgaben verfügen, würde wahrscheinlich die Entwicklung der internen Fähigkeiten von NGA beschleunigen.


Automatische 3D-Stadtmodellierung mit einer digitalen Karte und Panoramabildern von einem mobilen Kartierungssystem

Dreidimensionale Stadtmodelle werden aufgrund ihrer engen räumlichen, geometrischen und visuellen Beziehung zur physischen Welt zu einer wertvollen Ressource. Bodenorientierte Anwendungen in der virtuellen Realität, 3D-Navigation und Bauingenieurwesen erfordern jedoch einen neuen Modellierungsansatz, da die bestehenden großräumigen 3D-Stadtmodellierungsmethoden keine reichhaltigen visuellen Informationen auf Bodenniveau liefern. Dieses Papier schlägt einen neuen Rahmen für die Generierung von 3D-Stadtmodellen vor, die sowohl die visuellen als auch die physikalischen Anforderungen für bodenorientierte Virtual-Reality-Anwendungen erfüllen. Um seine Nutzbarkeit zu gewährleisten, muss das Framework kostengünstig sein und eine automatisierte Erstellung ermöglichen. Um diese Ziele zu erreichen, nutzen wir ein mobiles Kartierungssystem, das automatisch hochauflösende Bilder sammelt und Sensorinformationen wie Position und Richtung der aufgenommenen Bilder ergänzt. Um Probleme aufgrund von Sensorrauschen und Okklusionen zu lösen, entwickeln wir eine Fusionstechnik zur Einbindung digitaler Kartendaten. Dieses Papier beschreibt die wichtigsten Prozesse des Gesamtrahmens und die vorgeschlagenen Techniken für jeden Schritt und präsentiert experimentelle Ergebnisse aus einem Vergleich mit einem bestehenden 3D-Stadtmodell.

1. Einleitung

Dreidimensionale Stadtmodelle werden häufig in Anwendungen in verschiedenen Bereichen verwendet. Solche Modelle repräsentieren entweder reale oder virtuelle Städte. Virtuelle 3D-Stadtmodelle werden häufig in Filmen oder Videospielen verwendet, bei denen kein räumlicher Kontext erforderlich ist. Reale 3D-Stadtmodelle können in der virtuellen Realität, in Navigationssystemen oder im Bauwesen verwendet werden, da sie eng mit unserer physischen Welt verwandt sind. Google Earth [1] ist eine bekannte 3D-Darstellung realer Städte. Es zeigt die gesamte Erde anhand von Satelliten-/Luftbildern und Karten, die auf einem Ellipsoid überlagert sind und liefert hochauflösende 3D-Stadtmodelle.

Bei der 3D-Stadtmodellierung müssen sowohl die Kosten als auch die Qualitätsanforderungen berücksichtigt werden. Die Kosten können als Zeit- und Ressourcenverbrauch für die Modellierung des Zielgebiets geschätzt werden. Der Qualitätsfaktor berücksichtigt sowohl die visuelle Qualität als auch die physische Zuverlässigkeit. Die visuelle Qualität ist proportional zum Grad der visuellen Zufriedenheit, der sich auf das Maß an Präsenz und Realität auswirkt. Die physikalische Zuverlässigkeit ist die räumliche und geometrische Ähnlichkeit zwischen den Objekten – in unserem Fall hauptsächlich Gebäuden – in der modellierten und der physikalischen Welt. Im Allgemeinen ist es schwierig, ein zufriedenstellendes Niveau für beide Anforderungen zu erreichen.

Für die 3D-Stadtmodellierung können zahlreiche Techniken verwendet werden. Farb- und Geometriedaten aus LiDAR werden beispielsweise hauptsächlich verwendet, wenn die Anwendung detaillierte Gebäudemodelle für eine kleine Fläche erfordert. Wenn das Stadtmodell ein großes Gebiet abdeckt und keine detaillierten Merkmale benötigt, ist die Rekonstruktion aus Satelliten-/Luftbildern effizienter [2]. Das bedeutet, dass die effektive Vorgehensweise je nach Zielanwendung anhand des 3D-Stadtmodells unterschiedlich sein kann. Das Ziel unserer Forschung ist es, eine 3D-Stadtmodellierungsmethode vorzuschlagen, die in bodenorientierten und interaktiven Virtual-Reality-Anwendungen angewendet werden kann, einschließlich Fahrsimulatoren und 3D-Navigationssystemen, die effektive 3D-Stadtmodellierungsmethoden für verschiedene Bereiche erfordern.

2. Verwandte Arbeiten

Bestehende 3D-Stadtmodellierungsmethoden lassen sich in manuelle Modellierungsmethoden, BIM (Building Information Model)-datenbasierte Methoden, LiDAR-datenbasierte Methoden und bildbasierte Methoden unterteilen.

Die manuelle Modellierungsmethode ist stark von den Modellierungsexperten abhängig. Ältere Versionen von Google Earth und Terra Vista verwendeten diese Methode in ihren Modellierungssystemen. Obwohl aktuelle Anwendungen aufgrund ihrer hohen Qualität manuelle Modellierung verwenden, ist die Methode auch ein kostenintensiver und arbeitsintensiver Prozess. Daher ist es für städtische Umgebungen mit zahlreichen Gebäuden nicht effizient. Die auf BIM-Daten basierende Methode erleichtert die Nutzung von Gebäudeplanungsdaten aus der Bauphase und wird in der Stadtplanung [3] und im Brand- und Rettungsszenario [4] angewendet. Diese Methode ist jedoch nur für Anwendungen effizient, bei denen die Aktivitätsbereiche stark eingeschränkt sind, da die Erfassung von BIM-Daten aufgrund der Größe der städtischen Umgebungen problematisch oder sogar unmöglich ist. Darüber hinaus sollten die BIM-Daten für den Einsatz von Virtual-Reality-Anwendungen nachbearbeitet werden. Dies liegt daran, dass die Informationen in BIM nicht das Bestands-3D-Modell enthalten, sodass die Eigenschaften für die visuellen Variablen abgebildet werden sollten.

Um diese Probleme anzugehen, werden Fernerkundungstechniken energisch übernommen und Studien von LiDAR-datenbasierten Methoden und bildbasierten Methoden werden immer häufiger [5]. LiDAR ist ein Gerät, das mithilfe von Laserscanning-Technologie präzise Daten aus der Umgebung abtastet. In mehreren Studien (z. B. [6, 7]) wurden hochwertige 3D-Stadtmodelle mit LiDAR-Daten rekonstruiert. Wie in anderen Arbeiten erwähnt [6], hat das bodennahe Scannen jedoch einen begrenzten Erfassungsbereich, was bedeutet, dass eine redundante Datenerfassung bei der Modellierung verschiedener Bereiche unvermeidlich ist, während luftgestütztes LiDAR [8] hinsichtlich seiner Kosten und . begrenzt ist Methoden zur Farbdatenerfassung.

Bildbasierte Verfahren umfassen solche, die auf Stereoanpassungs- und inversen prozeduralen Modellierungsansätzen basieren. In früheren Forschungen [7, 9] wurde ein auf Stereo-Matching basierendes Verfahren verwendet, um 3D-Daten aus dem Feature-Point-Matching zwischen einer Reihe von Bildern wiederherzustellen. Dieser Ansatz erfordert normalerweise zahlreiche Bilder, um die Genauigkeits- und Robustheitsanforderungen des Merkmalspunktabgleichs zu erfüllen. Mehrere neuere Ansätze zur inversen prozeduralen Modellierung [10–12] haben Gebäude mit relativ wenigen (hauptsächlich einem) Bildern modelliert. Dies kann die Schwierigkeiten der Datensammlung bei der Stereoanpassung überwinden. Dieser Ansatz verwendet eine plausible Annahme, dass die Form eines Gebäudes aus einem Satz von Ebenen in drei Dimensionen besteht, um einzelne 3D-Gebäude ohne pixelweise 3D-Informationen zu rekonstruieren. Da bildbasierte Verfahren jedoch nicht robust gegenüber Okklusionsfällen sind, sind häufig Benutzereingaben oder starke Einschränkungen erforderlich. Dies verringert ihre Wirtschaftlichkeit und/oder physikalische Zuverlässigkeit.

In unserer Forschung wird der Ansatz vorgeschlagen, der die Kosteneffizienz durch Nutzung der vorhandenen Bilddatenbank bei gleichzeitiger Erhöhung der physikalischen Zuverlässigkeit bewahrt. Die Bilddatenbank ist relativ einfach zugänglich als die LiDAR-Datenbank, sodass die Kosten für die Datenerfassung gesenkt werden können. Andererseits erfordert das auf dem Stereo-Matching basierende Verfahren zahlreiche Bilder auf der großflächigen Modellierung, was die universelle Anwendbarkeit des Verfahrens verringert. Daher wird für unser Ziel der inverse prozedurale Modellierungsansatz bevorzugt, während die physikalische Zuverlässigkeit durch die Kombination genauer Referenzdaten erhöht werden kann [13].

3. Vorgeschlagene Methode

3.1. Mobiles Kartierungssystem und digitale Karte

In dieser Studie schlagen wir ein Framework vor, das eine große Anzahl von Bildern verwendet, die von einem mobilen Mapping-System (MMS) gesammelt wurden. Dies adressiert viele Probleme bei bestehenden Verfahren, die nicht gleichzeitig praktikable Niveaus an Kosteneffektivität, visueller Qualität oder physikalischer Zuverlässigkeit bereitstellen können. Ein MMS sammelt und verarbeitet Daten von Sensorgeräten, die an einem Fahrzeug angebracht sind. Dienste wie Google Street View [14], Naver Maps [15] und Baidu Maps [16] präsentieren Informationen in Form von hochauflösenden Panoramabildern, die die geografische Position und Richtung jedes aufgenommenen Bildes enthalten. Der Schwerpunkt dieser Dienste liegt darin, visuelle Informationen über die Umgebung an einem bestimmten Ort bereitzustellen. Die Vorteile der von MMS gesammelten Daten sind wie folgt. (1) Bundesweite oder sogar weltweite Abdeckung nach der Entwicklung von Fernerkundungstechnologien und Kartendiensten. (2) Reichhaltige, visuelle und omnidirektionale Informationen. (3) Sensorinformationen, die eine räumliche Koordination mit der physischen Welt ermöglichen.

Mit diesen Vorteilen können wir mit der vorhandenen Bilddatenbank kostengünstig ein vielfältiges Stadtgebiet für bodenorientierte interaktive Systeme modellieren. Darüber hinaus kann eine hohe visuelle Qualität am Boden durch hochauflösende Panoramabilder bereitgestellt werden [17]. Allerdings weisen die von MMS erhobenen Daten derzeit mehrere Nachteile auf. (1) Sensordaten enthalten Rauschen, das seine physikalische Zuverlässigkeit verringert. (2) Die Anzahl der Bilder in einem gegebenen Bereich ist begrenzt und reicht für eine auf Stereoanpassung basierende Rekonstruktion nicht aus. (3) Aufnahme einer enormen Menge unnötiger visueller Informationen, einschließlich Verdeckungen, Autos und Fußgänger.

Rauschen ist beim Abtastvorgang unvermeidbar. Der dadurch verursachte Fehler ist je nach Umgebung unterschiedlich. Ein Positionsfehler von ±5 m und ein Richtungsfehler von ±6° wurden in Google Street View-Daten berichtet [18]. Solche Fehlerstufen können bei der für die 3D-Modellierung erforderlichen Analyse problematisch sein. Darüber hinaus hat der aktuelle Service ein Intervall von

10 m zwischen den Bildern, was die Wahrscheinlichkeit einer erfolgreichen Rekonstruktion mit Stereo-Matching verringert. Außerdem führt die unkontrollierte Sammelumgebung zu einem schwerwiegenden Nachteil für die inverse prozedurale Modellierung. MMS-Daten erfordern im Gegensatz zu den inversen prozeduralen Modellierungsansätzen auch einen zusätzlichen Prozess, um einzelne Gebäude zu klassifizieren.

Um diese Probleme mit MMS-Daten anzugehen, schlagen wir eine Methode vor, die digitale 2D-Kartendaten einbezieht. Digitale Karten enthalten genaue Geoinformationen zu verschiedenen Merkmalen der physischen Welt. Beispielsweise haben die in unserem Framework verwendeten 1 : 5000 digitalen Karten eine horizontale Genauigkeit von 1 m, was fünfmal besser ist als die der MMS-Positionsdaten. Daher können durch Kombinieren von Daten die Probleme von Sensorfehlern überwunden werden und die selektive Verwendung von visuellen Informationen ist möglich. Andererseits beschränkt sich die geometrische Charakteristik des Gebäudes auf ein quasi-manhattanisches Weltmodell. Das Quasi-Manhattan-Weltmodell geht davon aus, dass Strukturen aus vertikalen und horizontalen Ebenen bestehen, und ist eine Erweiterung des Manhattan-Weltmodells, das davon ausgeht, dass Strukturen aus vertikalen und horizontalen Ebenen bestehen, die orthogonal zueinander sind.

3.2. Prozessübersicht

Der vorgeschlagene Rahmen ist in Abbildung 1 dargestellt. Die Eingabedaten sind die oben erwähnten digitalen Karten, die Gebäudegrundrissinformationen und Panoramabilder aus dem MMS-System mit Sensordaten enthalten. Das Basis-3D-Modell wird aus den Footprint-Informationen der Gebäude generiert, die einzelnen Gebäuderegionen werden segmentiert und gemäß den kombinierten GPS/INS-Informationen (Inertial Navigation System) neu projiziert. Der neu projizierte Bereich wird weiter segmentiert und entzerrt, um das Texturbild zu erzeugen. Eine Höhenschätzung ist durch Kombinieren der Gebäudekonturinformationen aus dem Texturbild und dem neu projizierten Bild möglich. Wir können dann das texturierte 3D-Modell erhalten, indem wir die Höheninformationen anwenden, um die Höhe der 3D-Basismodelle zu ändern.


Mühelose Datenpräsentation

Navigieren Sie zu einem beliebigen Punkt entlang eines Transportnetzes und sehen Sie sich Ihre Pipeline über Geländebildern aus Satellitenbildern, Luftaufnahmen oder Karten an. Auch Objekte wie Defekte, Gehäuse und Ventile sowie die Ergebnisse von PiMSlider-Analysen können auf der Karte angezeigt werden.

Die schnelle und genaue dreidimensionale Rekonstruktion von Pipeline und Bodenoberfläche von PiMSGlobe hilft Ihnen, die Topographie eines Gebiets zu visualisieren und Geländemerkmale zu identifizieren, um Pipelinesegmente im Feld zu lokalisieren.

PiMSGlobe 2-dimensionale Karte mit Pipeline

PiMSGlobe 3-dimensionale Karte mit Pipeline

PiMSGlobe Offshore Meeresbodenanzeige

Weitere Informationen

Basierend auf den Standards dynamischer Online-Karten und umfassender Geodatentechnologie verbindet sich PiMSGlobe mit fast jeder Quelle von Kartendaten und bietet in Kombination mit den Details der Pipeline ein interaktives Erlebnis, das Ihnen bei der Visualisierung und Verwaltung Ihres Transportnetzes hilft.

PiMSGlobe ist eng mit allen Kern- und Expertenmodulen von PiMSlider integriert. Jedes in PiMSlider erstellte Objekt mit bekannten linearen Referenzinformationen, räumlicher Position oder einfach nur mit GIS-Formdaten kann auf der Karte angezeigt werden. Die Kartenebenen können lokal in PiMSlider-Datenstrukturen gespeichert oder von verschiedenen GIS-Systemen und MapServern angebunden werden – die wichtigsten Kartenfreigabeschnittstellen sind integriert.

Pipeline- und Mittelliniendaten können von PODS/APDM/ESRI GIS-Systemen mit nahtloser Integration in PiMSlider gelesen werden.

Wichtige Fakten

  • Interaktive dreidimensionale Karte mit umfangreichen Navigationssteuerungen
  • Intuitive Benutzeroberfläche
  • Tiefe Integration mit den Kern- und Expertenmodulen von PiMSlider
  • Lieferung mit Datenmanagement- und Schnittstellenverbindungstools
  • Unterstützt Kunden- und öffentliche Kartenquellen
  • Offshore-Daten kompatibel mit DEM/DTM-Rendering
  • Präzise Visualisierung von Rohrleitungen und Ergebnissen von PiMSlider-Berechnungen
  • Unterstützt linear referenzierte, räumliche und formgebende Objekte
  • Erstellen Sie hochauflösende Berichte mit Analyseergebnissen.

Datenblatt herunterladen

Bitte füllen Sie das untenstehende Formular aus, um das Datenblatt für das PiMSlider & Informationssystem herunterzuladen.


Ergebnisse

Das Emissionsspektrum des ONH ist durch mehrere deutliche Emissionspeaks gekennzeichnet (Abbildung 2). Der stärkste Gipfel ist bei λSHG = λe/2, wobei λe ist die Anregungswellenlänge. Dieser erste Peak (Pfeil) markiert die Emission von erzeugtem Licht der zweiten Harmonischen. Die SHG-Emission aus biologischen Geweben weist auf das Vorhandensein von Kollagen hin, da seine fibrilläre Struktur die Phasenanpassungsbedingung erfüllt, die für die Emission von erzeugten Signalen der zweiten Harmonischen erforderlich ist. Nebenpeaks mit λ < λe weisen auf die Anwesenheit von Zweiphotonen-angeregter Fluoreszenz verschiedener Komponenten des ONH hin. In der Sklera sind die relativen Intensitäten der TPEF-Peaks deutlich niedriger als die der SHG-Peaks. Dies ist wahrscheinlich auf eine vergleichsweise höhere Kollagendichte und/oder eine Verringerung der fluoreszierenden Komponenten in der Sklera im Vergleich zum ONH zurückzuführen.

Emissionsspektren der Sklera und eines Plastikschnitts von humanem ONH-Gewebe. Die durchgezogene Linie zeigt die vom ONH erzeugten Emissionen bei einer Anregungsfrequenz von 800 nm. Der Pfeil markiert den Peak der zweiten Harmonischen bei 400 nm. Sekundäre Peaks bei höheren Wellenlängen zeigen das Vorhandensein von Zwei-Photonen-angeregter Fluoreszenz von anderen ONH-Komponenten an.

Zwei-Photonen-Emissionen aus der Lederhaut sind durch die gestrichelte Linie gekennzeichnet. Beachten Sie die höhere relative Intensität des SHG-Peaks im Vergleich zu den TPEF-Peaks. Sekundäre Peaks stimmen mit denen des ONH-Spektrums überein, was auf eine ähnliche Zusammensetzung hindeutet.

Wie in 3 gezeigt, stimmte die Immunfärbung des ONH-Gewebes unter Verwendung eines monoklonalen Antikörpers gegen Typ-I-Kollagen eng mit den Ergebnissen überein, die aus der Abbildung des SHG-Signals erhalten wurden. Dieselben Gewebemerkmale sind sowohl im SHG-Kanal ( 3A ) als auch im immungefärbten Kanal ( 3B ) sichtbar. Die Überlagerung ( 3C ) bestätigt den hohen Korrelationsgrad zwischen den beiden Signalen und bestätigt die Korrelation zwischen Kollagen und der Emission von erzeugten Signalen der zweiten Harmonischen.

Korrelation von SHG und Kollagen-Immunfärbung. Linkes Feld: SHG-Bild von menschlichem ONH-Gewebe (A). Der gleiche Bereich wurde mit einem Anti-Kollagen-IgG-Antikörper gefärbt, gefolgt von einem sekundären Antikörper (B). Das Overlay (C) bestätigt die Kolokalisation. Rechtes Feld: SHG-Bild von menschlichem ONH-Gewebe (D), der gleiche Bereich, der nur mit sekundärem Antikörper gefärbt wurde (E) und die resultierende Überlagerung (F). Balken: 100 μm.

Um das ONH in drei Dimensionen vollständig zu rekonstruieren, wurde ein Gewebeblock in Kunstharz eingebettet und seriell geschnitten. Jeder Mikrotomschnitt wurde einzeln mit einem Raster von 7 × 7 Einzelbildern gescannt. Ein Korrelationsalgorithmus, der Teil der Zeiss LSM-Software ist, korrigierte während des automatisierten Verkettungsprozesses automatisch kleinere Fehlausrichtungen. Das resultierende Bild ( 4A ) stellt eine Auflösung von 0,91 Mikrometer / Pixel dar und bietet gleichzeitig ein Sichtfeld, das groß genug ist, um die gesamte Breite des ONH zu umfassen. Dieses Bild zeigt einen einzelnen 2 Mikrometer Schnitt aus dem laminaren Bereich. Die Skleralkanalwand mit ihrem hohen Kollagengehalt ist als ringförmige Struktur sichtbar, die das laminare Geflecht umgibt. Aufgrund der hohen Auflösung dieser Bilder sind einzelne Kollagenstrahlen klar unterscheidbar, wie in Abbildung (4B) zu sehen ist, die eine vergrößerte Ansicht des Bereichs um die zentrale Arterie zeigt, der in Abbildung 4A durch einen Pfeil markiert ist. Diese Strahlen inserieren peripher in die Sklerakanalwand und zentral in die zentrale Arterie. Die untere Schläfenregion schien bei den meisten Objektträgern an Kollagenstrahlen (Sternchen) mangelhaft zu sein, was auf eine niedrige Kollagendichte in dieser Region hindeutet.

Orthogonaler Querschnitt der Lamina cribrosa mit SHG-Bildgebung. (A) Ein Bildmosaik mit einer einzigen Ebene, das aus 49 einzelnen Bildkacheln besteht, die nacheinander mit einer Anregungswellenlänge von 800 nm gescannt werden und einen physikalischen Schnitt mit einer Dicke von 2 μm darstellen. Die native Auflösung für dieses Bild beträgt 3584 x 3584 Pixel. Der Pfeil markiert die Lage der zentralen Arterie. Das laminare Geflecht ist deutlich sichtbar. (B) Vergrößerte Ansicht des Bereichs um die zentrale Arterie. Dank der hohen Auflösung sind Details wie das Einbringen einzelner Kollagenstrahlen in die Zentralarterie gut sichtbar.

Der in Abbildung 4 gezeigte Objektträger zeigt eine Variation des lokalen Kollagengehalts, stellt jedoch nur eine einzelne 2-Mikrometer-Ebene des vollständigen Datensatzes dar. Um die Gesamtkollagenverteilung über das gesamte gescannte Volumen zu visualisieren, wurde der Bildstapel mit Schwellenwerten versehen und durch Durchführen einer 𠇊verage z”-Projektion auf eine einzige Ebene kollabiert. Die resultierenden durchschnittlichen Grauwerte wurden einer Vollfarb-Nachschlagetabelle zugeordnet, um die Dichtevariabilität innerhalb des Datensatzes besser zu visualisieren. Abbildung 5 zeigt das resultierende Bild, das eine Dichtekarte mit voller Auflösung der Kollagenverteilung im gesamten ONH darstellt. In diesem Bild entsprechen kühlere Farben einem niedrigeren durchschnittlichen Kollagengehalt, wie durch den Skalierungsbalken angezeigt. Schwarze Pixel zeigen das Fehlen von Kollagen im gesamten Stapel an dieser bestimmten Stelle an. Kühlere Farben stehen für eine niedrige Kollagendichte, während heiße Farben einen hohen Kollagengehalt im gesamten Stapel anzeigen. In diesem Bild zeigen der Skleraring und die zentrale Arterie den höchsten Kollagengehalt, da sie im gesamten Stapel vorhanden sind. Das im prälaminaren Bereich kaum sichtbare laminare Geflecht führt zu einem deutlich geringeren durchschnittlichen Kollagengehalt. Innerhalb der Lamina finden sich im nasalen und oberen Bereich höhere Kollagendichten, während der inferior-temporale Bereich durch einen deutlich geringeren durchschnittlichen Kollagengehalt gekennzeichnet ist.

Kollagendichtekarte des ONH. Um dieses Bild zu erzeugen, wurde eine durchschnittliche z-Projektion auf dem Bildstapel durchgeführt, der auf Kollagen getestet wurde. Eine Dichte von 100 % zeigt das Vorhandensein von Kollagen in jeder Ebene des Stapels an, während eine Dichte von 0 % einem vollständigen Fehlen von Kollagen an dieser bestimmten Stelle entspricht.

Dies lässt sich besser erkennen, wenn man eine dreidimensionale Darstellung des gesamten Datensatzes untersucht. Mit Amira wurde der gesamte Stack in 3D als Voltex-Objekt rekonstruiert. Durch die Verwendung von OrthoSlice-Modulen zum Scrollen durch den Datensatz entlang aller drei Achsen kann der LC aus zahlreichen Blickwinkeln betrachtet werden. Das Drehen des rekonstruierten Stapels in die geeignete Position ermöglicht eine Längsschnittansicht, die die Erweiterung des Sklerakanals und die posteriore Krümmung des LC zeigt ( 7D ).

Analyse der ONH-Fläche und der Kollagendichte. (A) Kanalbereich, Kollagenbereich und Gesamtporenbereich im gesamten ONH. Der verfügbare Porenraum wird innerhalb des LC reduziert. (B) Kollagengehalt pro anatomischer Region, aufgetragen als Funktion der Tiefe. Jedes Flugzeug wurde einzeln analysiert. Die Dichte nimmt innerhalb des LC deutlich zu.

Die Quantifizierung der Dimensionen des ONH wurde mit den Messwerkzeugen von MetaMorph erreicht. Der Durchmesser der ellipsenförmigen Sklerakanalöffnung an der anterioren (retinalen) Seite wurde bestimmt. Für dieses Auge maß die Ellipse entlang der großen Achse 1845 μm und entlang der kleinen Achse 1765 μm. Der Kanalbereich erweiterte sich von 2,41 mm 2 an der am weitesten anterior gelegenen Seite der Bruch’-Membran auf 5,01 mm 2 an der posterioren Seite des Datensatzes.

Um eine quantitative Analyse des Kollagengehalts und der Kollagenverteilung im gesamten ONH zu erhalten, wurden 294 Ebenen mit dem vollständigen Datensatz einzeln auf Kollagendichte und Sklerakanalfläche analysiert. Wenn die Axone der retinalen Ganglienzellen durch die von den Kollagenstrahlen gebildeten Poren passieren, steht die den Axonen zur Verfügung stehende Raummenge in direktem Zusammenhang mit der Porengröße. Abbildung 7A zeigt eine Analyse des prälaminaren und laminaren Bereichs. Hier erweitert sich der Sklerakanal nach hinten. Darüber hinaus dominierten größere Porengrößen im vorderen Teil der Lamina, aber die Gesamtporenfläche war innerhalb des LC eingeschränkt. Da das laminare Maschenwerk nach hinten gebogen war, enthielten die Querschnitte einzelner Ebenen auf der Vorderseite der Struktur nur Kollagen in der Nähe der Sklerakanalwand. Dies fiel mit einem insgesamt geringeren Kollagengehalt zusammen, der zunahm, wenn man sich den Kanal nach hinten hinabbewegte. Der maximale Kollagengehalt wurde in Bereichen gefunden, in denen der gesamte Querschnitt des Sklerakanals mit Kollagenstrahlen gefüllt war.

Um die Kollagenverteilung besser mit den klinischen Beobachtungen des ONH zu korrelieren, wurde der Datensatz in vier anatomische Regionen unterteilt, wie in Abbildung 1 dargestellt. Die Werte der Collagendichte wurden erhalten, indem eine Analyse von Ebene zu Ebene des gesamten LC durchgeführt wurde. Die Analyse des Kollagengehalts nach anatomischer Region (Abbildung 7B) zeigt einen steilen Anstieg des Gesamtkollagengehalts um etwa 140 μm in den Stapel hinein, was den Beginn der Lamina markiert. Innerhalb der Lamina steigt der Kollagengehalt in allen vier Sektoren an. Der untere Quadrant zeigte jedoch einen signifikant niedrigeren durchschnittlichen Kollagengehalt von 19,0 % ± 2,5 % im gesamten laminaren Bereich im Vergleich zu den anderen drei Quadranten mit Kollagendichten von 25,2 % ± 2,3 %. Diese Beobachtung stimmte mit den in den Abbildungen ​, Abbildungen 4, 4 und ​ und 5 5 dargestellten Analysen überein.

Basierend auf den Daten aus Abbildung 7 ist ein Plateau des relativen Kollagengehalts im laminaren Bereich innerhalb von 60 Ebenen oder 120 μm vorhanden, beginnend etwa 400 μm von der Oberfläche des Stapels. Diese Ebenen wurden zu einer einzigen Ebene zusammengelegt, indem nach der Schwellenwertbildung eine durchschnittliche z-Projektion durchgeführt wurde. Das resultierende Bild wurde dann auf den relativen Kollagengehalt analysiert, indem eine radiale Analyse von der Bildmitte bis zur Sklerakanalwand durch 360° durchgeführt wurde. Der Scan wurde an der 12-Uhr-Position (übergeordnet) gestartet und in Schritten von einem Grad im Uhrzeigersinn verschoben. Für jede Linie wurde der durchschnittliche Kollagengehalt berechnet. Die resultierenden Diagramme sind in 8 gezeigt und zeigen den Mangel an Gleichförmigkeit in der Winkelverteilung der Kollagendichte im laminaren Bereich.

Morphometrische Flächenanalyse für Kollagen mittels Linienscans. Der Scan wurde zweimal durchgeführt: (A) zeigt den Kollagengehalt des peripheren LC mit Ausnahme des zentralen Abschnitts, der die Arterie enthält, wie in 1 gezeigt. (B) zeigt den Kollagengehalt des gesamten LC. Ein laufender Durchschnitt über 5 Datenpunkte wurde durchgeführt, um die Graphen zu glätten, während Informationen über relative Positionen erhalten blieben. Die zentralen Arterienwände sind als lokale Zwillingsmaxima in (B) bei 260 und 285 Grad sichtbar.

Dieser Scan wurde zweimal durchgeführt, wobei der erste Scan den zentralen Teil der Lamina ausließ, um die zentrale Arterie auszuschließen ( 8A ). Der zweite Scan umfasst Daten sowohl von der zentralen als auch der peripheren LC ( 8B ). Der hohe Grad an Variabilität des Kollagengehalts, der in diesem Diagramm zu sehen ist, deutet auf eine heterogene Verteilung von Kollagen in der LC hin. Der Kollagengehalt variierte signifikant, sogar innerhalb jeder anatomischen Region.


Rendering von weichem Schatten in Echtzeit

Neuere fortschrittliche GPU-Systeme haben es offensichtlich gemacht, Schatten in Filmen, Spielen und Anwendungen hinzuzufügen.

Was ist Schatten? Warum ist es notwendig?

Schatten ist ein dunkler Bereich, der entsteht, wenn ein Körper zwischen Lichtquelle und Oberfläche kommt. Schatten wird benötigt, um Realismus in das Bild zu bringen. Auch Schatten hilft, die Objektplatzierung in der 3D-Szene zu verstehen.

Früher wurden aufgrund von Hardwarebeschränkungen harte Schatten verwendet. Harte Schatten hängen nur von einem binären Begriff ab, und zwar davon, ob der Punkt im Schatten liegt oder nicht. Harte Schatten sind relativ einfacher zu berechnen, liefern aber keine herausragenden Ergebnisse. Es gibt ein weiteres Problem, um harte Schatten zu berechnen, wird eine Punktlichtquelle verwendet, die im wirklichen Leben nicht existiert.

Es werden weiche Schatten eingeführt, die dem Betrachter realistischere Bilder erzeugen. Anstelle einer Punktlichtquelle wird eine Flächenlichtquelle verwendet. Die Objektplatzierung im 3D-Raum ist bei weichen Schatten genauer. Der Schatten wird in Umbra (dunkler Bereich auf der Oberfläche) und Penumbra (relativ weniger dunkler Bereich) unterteilt und kombiniert diese weichen Schatten werden erzeugt.

Es werden verschiedene Techniken zum Rendern von Schatten eingeführt, wie z

  • Raytracing
  • Radiosity
  • Phong-Schattierung
  • Varianz Soft Shadow Mapping
  • Faltungsschatten-Mapping
  • Prozentual engere Schattenzuordnung
  • Layered Variance Shadow Maps
  • Bildbasierte Methoden usw.

Nicht alle diese Methoden erzeugen weiche Schatten in Echtzeit. Raytracing und Radiosity rendern die meisten realistischen Bilder mit Schatten, erfordern jedoch eine sehr komplexe Berechnung, und das Ergebnis wird nicht in Echtzeit generiert. Daher untersuchen wir diese Techniken nicht. Aufgrund der Weiterentwicklung in den neuesten GPU-Systemen ist weiches Schatten-Rendering in Echtzeit üblicher geworden. So werden neue Techniken eingeführt.

Das Rendern weicher Schatten, die von einer erweiterten Lichtquelle in Echtzeit erzeugt werden, ist ein fortlaufendes Forschungsthema. Bis heute ist keine einzige Methode zum Rendern von Schatten eingeführt worden, daher laufen die Forschungen. Wir möchten unsere eigene Echtzeit-Schatten-Rendering-Methode entwickeln oder bestehende modifizieren.

Einige grundlegende Werkzeuge für das Schatten-Rendering

Schatten-Rendering ist eine heikle Sache, und es gibt eine Vielzahl von Faktoren, die beim Zeichnen von Schatten eine Rolle spielen, und die Idee zu diesen Faktoren ist die Voraussetzung für das Zeichnen von Schatten.

Lichtquellen spielen auch eine wichtige Rolle bei der Wiedergabe von Schatten. In CG (Computer Graphics) wird eine Punktlichtquelle verwendet, um harte Schatten zu zeichnen. Im wirklichen Leben gibt es keine Punktlichtquellen. Harte Schatten geben uns auch eine nicht so realistische Sicht auf die Szene.

Dann kommt die Schattenbestimmung mit mehreren Lichtquellen. Dies kann leicht erreicht werden, wenn wir das Zeichnen eines Schattens für eine einzelne Lichtquelle berechnen.

Umbra- und Penumbra-Region

Beim Rendern von Schatten gibt es einige komplizierte Faktoren. Eine davon ist, den Kernschatten und den Halbschatten zu kennen. 3

Im Umbra-Bereich wird die Lichtquelle vollständig vom Objekt verdeckt und ein harter Schatten wird durch die Größe dieses Bereichs auf die Oberfläche gezeichnet. Penumbra ist der Bereich, in dem die Lichtquelle nicht verdeckt wird und ein weicherer Schatten durch den Bereich gezeichnet wird. Durch die Kombination dieser beiden entsteht eine komplette Szene mit weichen Schatten.

Bei Schatten spielt auch der Abstand zwischen Objekten, Lichtquelle und Oberfläche eine entscheidende Rolle. Immer wenn sich der Abstand zwischen Okkluder und Lichtquelle ändert, ändert der Schatten seine Form und ergibt eine realistische Ansicht. Bei einem großen Abstand zwischen Lichtquelle und Objekt sollten kleinere Schattenbereiche gezeichnet werden, bei geringem Abstand zwischen Lichtquelle und Objekt sollte ein größerer Schattenbereich vorhanden sein.

Wir sind dabei, eine Anwendung zu entwickeln, die weiche Schatten in Echtzeit rendert. Wir werden uns nicht die Techniken ansehen, die eine hohe Rechenzeit erfordern, und wir werden auch die Schattenqualität übersehen.

Heutzutage sind High-End-GPU-Systeme verfügbar, die Schatten schnell berechnen und die Echtzeitbestimmung daher einige Berechnungen erfordert. Wir werden uns die FPS (Bilder pro Sekunde) ansehen, um eine tatsächliche Vorstellung von der Renderzeit zu erhalten.

Überblick über Schattenalgorithmen

Die erste vollständige Umfrage zu Soft-Shadow-Algorithmen wurde von Woo et al. durchgeführt [90]. Demnach hängt die Komplexität für das Rendern von Schatten von drei grundlegenden Dingen ab, nämlich der Speichernutzung, der Komplexität der Vorverarbeitung der Laufzeit und der Komplexität während des eigentlichen Renderns.

Harte Schatten sind leicht zu berechnen. Beim Rendern von harten Schatten ist nur eines zu beachten, und zwar zu wissen, ob die Punkte im Schattenbereich liegen oder nicht.

Um weiche Schatten zu rendern, werden einige Techniken besprochen. Frame-Buffer-Algorithmus, verteiltes Raytracing, Cone-Tracing, Flächenunterteilung, Radiosity sind einige der Techniken, die verwendet werden, um weiche Schatten zu rendern, obwohl nicht alle Schatten in Echtzeit rendern.

GPU-Systeme wurden hoch entwickelt und konzentrieren sich jetzt verstärkt auf Echtzeit-Rendering. Die Bildqualität wird auch verbessert, da Antialiasing, Bewegungsunschärfe und Schattenwurf allgemein werden. 4

Beim Rendern von Schatten sind einige Dinge zu beachten, wie Position und Größe des Okkluders, Geometrie des Okkluders, Geometrie des Empfängers usw.

Das jüngste Wachstum in der Computergrafiktechnologie hat es zur Realität gemacht, 3D-Grafiken in Echtzeit zu rendern. Daher müssen frühere Rendering-Techniken für bessere Ergebnisse aktualisiert werden.

Hasenfratz et al. [03] haben eine Umfrage zu Schattenalgorithmen in Echtzeit durchgeführt. Wir sollen diese Algorithmen studieren.

Im Allgemeinen gibt es zwei Arten von Schatten, harte Schatten und weiche Schatten. Harte Schatten sind vergleichsweise einfacher zu berechnen. Bei harten Schatten muss nur eines im Fokus stehen, egal ob der Punkt im Schatten liegt oder nicht. Harte Schatten werden durch eine Punktlichtquelle erzeugt. Im wirklichen Leben gibt es keine Punktlichtquelle. Es gibt Algorithmen, um harte Schatten zu implementieren.

Weiche Schatten sind komplizierter zu implementieren. Es bietet eine realistischere Ansicht als harte Schatten, erfordert jedoch eine hohe Komplexität.

Die Weichheit der Schatten hängt vom Abstand zwischen Quelle, Okkluder und Empfänger ab. Es ist nicht einfach, weiche Schatten zu berechnen. Es erfordert komplexe Techniken. Beim Rendern weicher Schatten sind einige Probleme zu lösen. Praktisch eine einzelne Lichtquelle gibt es nicht. Schatten, die von mehreren Lichtquellen erzeugt werden, sind zu berechnen. Dies kann leicht gehandhabt werden, wenn Schatten von einer einzelnen Lichtquelle erhalten werden. Dann addiert und der endgültige Schatten wird erreicht.

Es kann mehr als ein Okkluder geben. Um den Schatten zu erhalten, wird der Schattenbereich für jeden Okkluder hinzugefügt, um den endgültigen Schattenbereich zu erhalten. Es ist nicht einfach, die Beziehung zwischen Teilsichtbarkeitsfunktionen verschiedener Okkluder zu berechnen, daher werden Näherungswerte verwendet.

Die Berechnung von Schatten für eine erweiterte Lichtquelle ist komplex zu berechnen. In Echtzeit berechnen Schattenalgorithmen Sichtbarkeitsinformationen für einen Punkt und dann wird unter Verwendung der Sichtbarkeitsinformationen das Verhalten für die erweiterte Lichtquelle berechnet. Die Verwendung einer vollständigen erweiterten Lichtquelle für die Sichtbarkeitsberechnung ist algorithmisch zu komplex und kann nicht in Echtzeit verwendet werden. Das Aufteilen der Lichtquelle in kleinere Lichtquellen beseitigt die Komplexität in gewissem Maße.

Die Erzeugung von Penumbra-Regionen ist ein Prozess, um weiche Schatten aus harten und in Echtzeit zu erzeugen. Algorithmen sind dazu da, die Halbschattenregion zu berechnen, da

1. Erweitern Sie die Kernschattenregion nach außen, indem Sie die äußere Halbschattenregion berechnen.

2. Schrumpfen Sie den Kernschatten nach innen, berechnen Sie den inneren Halbschatten.

Wir konzentrieren uns darauf, weiche Schatten in Echtzeit zu rendern. Daher beschäftigen wir uns nicht mit Techniken wie Raytracing, Radiosity, Monte-Carlo-Raytracing oder Photon-Mip-Mapping, da diese komplex zu implementieren sind und keine Schatten in Echtzeit rendern.

Schatten von Punktlichtquellen, Schattenabbildung und Schattenvolumenalgorithmus sind der Fokuspunkt.

Um Schatten zu berechnen, ist eine Sache ein Muss, nämlich die Teile der Szene zu identifizieren, die vor der Lichtquelle verborgen sind, dies ist dasselbe wie bei der Bestimmung der sichtbaren Oberfläche. 5

Da kommt die Schattenkarte, Z-Puffer.

Zuerst wird die Ansicht der Szene aus der Sicht der Lichtquelle berechnet. Dann werden Z-Werte erreicht und im Z-Puffer gehalten. Z-Werte halten die geometrische Position jedes Pixels, wenn keine Änderungen auftreten, sind die Werte gleich oder werden entsprechend geändert.

Einige Techniken, um weiche Schatten zu zeichnen

Hasenfratz et al. [03] haben eine Umfrage zu Schattenalgorithmen in Echtzeit durchgeführt. Wir sollen diese Algorithmen studieren.

Im Allgemeinen gibt es zwei Arten von Schatten, harte Schatten und weiche Schatten. Harte Schatten sind vergleichsweise einfacher zu berechnen. Bei harten Schatten muss nur eines im Fokus stehen, egal ob der Punkt im Schatten liegt oder nicht. Harte Schatten werden durch eine Punktlichtquelle erzeugt. Im wirklichen Leben gibt es keine Punktlichtquelle. Es gibt Algorithmen, um harte Schatten zu implementieren.

Weiche Schatten sind komplizierter zu implementieren. Es bietet eine realistischere Ansicht als harte Schatten, erfordert jedoch eine hohe Komplexität.

Die Weichheit der Schatten hängt vom Abstand zwischen Quelle, Okkluder und Empfänger ab. Es ist nicht einfach, weiche Schatten zu berechnen. Es erfordert komplexe Techniken. Beim Rendern weicher Schatten sind einige Probleme zu lösen. Praktisch eine einzelne Lichtquelle gibt es nicht. Schatten, die von mehreren Lichtquellen erzeugt werden, sind zu berechnen. Dies kann leicht gehandhabt werden, wenn Schatten von einer einzelnen Lichtquelle erhalten werden. Dann addiert und der endgültige Schatten wird erreicht.

Es kann mehr als ein Okkluder geben. Um den Schatten zu erhalten, wird der Schattenbereich für jeden Okkluder hinzugefügt, um den endgültigen Schattenbereich zu erhalten. Es ist nicht einfach, die Beziehung zwischen Teilsichtbarkeitsfunktionen verschiedener Okkluder zu berechnen, daher werden Näherungswerte verwendet. 6

Die Berechnung von Schatten für eine erweiterte Lichtquelle ist komplex zu berechnen. In Echtzeit berechnen Schattenalgorithmen Sichtbarkeitsinformationen für einen Punkt und dann wird unter Verwendung der Sichtbarkeitsinformationen das Verhalten für die erweiterte Lichtquelle berechnet. Die Verwendung einer vollständigen erweiterten Lichtquelle für die Sichtbarkeitsberechnung ist algorithmisch zu komplex und kann nicht in Echtzeit verwendet werden. Das Aufteilen der Lichtquelle in kleinere Lichtquellen beseitigt die Komplexität in gewissem Maße.

Die Erzeugung von Penumbra-Regionen ist ein Prozess, um weiche Schatten aus harten und in Echtzeit zu erzeugen. Algorithmen sind dazu da, die Halbschattenregion zu berechnen, da

3. Erweitern Sie die Kernschattenregion nach außen, indem Sie die äußere Halbschattenregion berechnen.

4. Schrumpfen Sie den Kernschatten nach innen, berechnen Sie den inneren Halbschatten.

Wir konzentrieren uns darauf, weiche Schatten in Echtzeit zu rendern. Daher beschäftigen wir uns nicht mit Techniken wie Raytracing, Radiosity, Monte-Carlo-Raytracing oder Photon-Mip-Mapping, da diese komplex zu implementieren sind und keine Schatten in Echtzeit rendern.

Schatten von Punktlichtquellen, Schattenabbildung und Schattenvolumenalgorithmus sind der Fokuspunkt.

Um Schatten zu berechnen, ist eine Sache ein Muss, nämlich die Teile der Szene zu identifizieren, die vor der Lichtquelle verborgen sind, dies ist dasselbe wie bei der Bestimmung der sichtbaren Oberfläche.

Da kommt die Schattenkarte, Z-Puffer.

Zuerst wird die Ansicht der Szene aus der Sicht der Lichtquelle berechnet. Dann werden Z-Werte erreicht und im Z-Puffer gehalten. Z-Werte halten die geometrische Position jedes Pixels, wenn keine Änderungen auftreten, sind die Werte gleich oder werden entsprechend geändert.

Einige Techniken zum Rendern weicher Schatten in Echtzeit,

Bildbasierte Ansätze

  • Kombinieren Sie mehrere Schattentexturen, die aus Punktmustern auf der erweiterten Lichtquelle entnommen wurden
  • Verwendung einer geschichteten Schwächungskarte anstelle von Tiefenbildern
  • Mit ein paar Zahlenschattenkarten
  • Faltung einer Schattenkarte mit einem Bild der Lichtquelle

Objektbasierte Ansätze

  • Kombinieren Sie mehrere Schattenvolumina, die aus Punktproben auf der Lichtquelle entnommen wurden
  • Schattenvolumen wird erweitert
  • Penumbra-Volumen für jede Kante der Schattensilhouette
  • Nachdem alles erledigt ist, muss berücksichtigt werden, dass das Rendering in Echtzeit erfolgen muss.

Geometrie des Okkluders, physikalisch exakter Schatten, Methoden, die nur den inneren oder äußeren Halbschatten berechnen, sollten den ungefähren Wert verwenden, die Lichtquelle, die Anzahl der Unterteilungen der Lichtquelle, das Zeichnen der Silhouette von Objekten beeinflusst die Wiedergabe von Schatten in Echtzeit.

Bildbasierte Techniken erzeugen hochwertige weiche Schatten. Diese Technik funktioniert auch mit Flächenlichtquellen. Die Komplexität des bildbasierten Prozesses hängt eher von der Bildgröße und der Lichtquelle als von der Komplexität der Szene ab. Diese Technik basiert nicht auf der Geometrie, sodass das Ergebnis schneller erreicht wird.

In der Arbeit werden zwei Techniken besprochen

Weiche Schatten von Flächenlichtquellen verleihen den von Computern erzeugten Bildern Realismus. Die Bestimmung des Halbschattens bleibt immer noch ein Problem, das es zu lösen gilt. Um den Halbschatten zu bestimmen, wird die Sichtbarkeit zwischen jedem Oberflächenpunkt und jeder Lichtquelle benötigt.

William [78] hat einige Arbeiten zur Berechnung von harten Schatten aus Punktquellen durchgeführt. Er hat Sichtbarkeitsberechnungen im Bildraum durchgeführt. Dieses Verfahren liefert aufgrund von Unterabtastungs- und Aliasing-Artefakten keine guten Ergebnisse. Auch Punktlichtquellen gibt es im wirklichen Leben nicht.

Agarwala et al [2000] haben weiche Schatten erzeugt, die zwei Techniken verschmelzen. Beide Techniken berechnen Schatten im Bildraum. Zeit und Speicher für diese Technik hängen von der Bildgröße und der Anzahl der Lichter ab. Somit wird geometrische Komplexität beseitigt.

Layered Attenuation Map

Dieser Ansatz hat interaktive Rendering-Raten, aber die Abtastflexibilität ist begrenzt. (LDI) Das geschichtete Tiefenbild wird zuerst berechnet. Das LDI verfolgt die Tiefeninformationen und die geschichteten Dämpfungskarten. Dies hilft, projektive weiche Schattentexturen zu erzeugen. Die richtige Dämpfung wird für normales Rendering verwendet, jedoch für Schatten. 8

Kohärenzbasiertes Raytracing

Dieser Ansatz ist gut, um qualitativ hochwertige Bilder zu erzeugen. Keine interaktive Methode. Shadow Maps werden zuerst von wenigen Punkten der Lichtquelle berechnet, oft von Grenzscheitelpunkten. Der sichtbare Teil der Lichtquelle liegt nicht sehr nahe beieinander.

Objektbasierte Methoden wie verteiltes Raytracing, Radiosity, Diskontinuitätsvermaschung oder Rückprojektion erzeugen weiche Schatten. Diese Techniken liefern gute Ergebnisse in Bezug auf Schatten, sind aber nicht schnell.

Soler und Sillion [98] verwendeten die Faltung auf Blockerbildern, um ungefähre weiche Schatten zu erzeugen. Diese Technik vermeidet Abtastartefakte, aber die Clustergeometrie im Objektraum ist vorhanden. Cluster können sich nicht selbst beschatten. Pflanzen oder Bäume benötigen eine große Anzahl von Clustern, wodurch die Komplexität erhöht wird.

Die geschichtete Abschwächungskartenmethode liefert gute Ergebnisse, wenn es um eine schnelle Vorschau geht, hat eine schnelle Vorberechnungsphase und eine interaktive Anzeigephase, unabhängig von der Komplexität der Szenengeometrie. Endgültige Bilder für Anwendungen wie vorgerenderte Animationen erfordern geglättete, artefaktfreie Schatten. Dazu wird ein kohärenzbasierter Ray-Tracing-Algorithmus eingeführt.

Soft Shadow Mapping ist zu einem sehr faszinierenden Teil in Bezug auf Computeranwendungen und Spiele geworden. Shadow Mapping muss sehr effizient sein, wenn es in Echtzeit durchgeführt werden soll. Früher wurden bildbasierte Shadow-Mappings verwendet, um Schatten zu kartieren. Diese Technik wird verwendet, um harte Schatten abzubilden. Um weiche Schatten abzubilden, wurden viele Methoden eingeführt. VSM (Variance Soft Shadow Mapping), PCSS (Percentage Closer Soft Shadows) sind einige der Methoden, um weiche Schatten zuzuordnen. Wenn die Lichtquelle ziemlich klein ist, liefern diese Methoden bessere Ergebnisse, aber mit der Erweiterung der Lichtquelle funktionieren diese Methoden nicht richtig. Yang et al [2010] haben versucht, die PCSS-Methode zu verbessern, um eine verbesserte Leistung beim Thema der Abbildung von weichen Schatten zu erzielen. Das Variance Soft Shadow Mapping ist eine weit verbreitete Methode zum Mapping von Soft Shadows, die eine Vorfilterung erfordert und auch weniger Speicherplatz benötigt, um Texturen beizubehalten. Aber VSM bildet weiche Schatten nicht immer mit Genauigkeit ab. Es kann zu Fehlern bei der Berechnung der durchschnittlichen Blockertiefenwerte führen, als Folge davon, dass Brute Force angewendet wird. Auch bei weichen Schatten ist die VSM-Methode nicht so überlegen. Einige Pixel können ungenau beleuchtet sein, was dazu führt, dass weiche Schatten nicht richtig sind. Dieses Problem wird als Nichtplanaritätsproblem bezeichnet.

Yang et al [2010] zielten darauf ab, eine Formel zur Schätzung der durchschnittlichen Blockertiefe basierend auf der VSM-Theorie zu entwickeln. Sie beabsichtigen auch, ein praktisches Filterkern-Unterteilungsschema zu entwickeln, um das Problem der Nichtplanarität zu behandeln. Es gibt zwei Arten der Unterteilung, den einheitlichen Weg und den adaptiven Weg. Beide können für die Implementierung ausgewählt werden. Bestehende Schattenalgorithmen werden verwendet, um Schatten abzubilden, fortan haben Yang et al. [2010] dies getan. Früher wurde klassisches Diskontinuitätsmessing verwendet, um Schatten zu erzeugen. in neueren Arbeiten bevorzugen Forscher Shadow-Mapping-Techniken. Es gibt ein Verfahren namens Rückprojektion, das sehr aufwendig in Echtzeit zu implementieren ist und außerdem zu einer falschen Okklusion oder einem Lichtleck führt. Hard Shadow Mapping hat eigene Probleme. Vorfilterung und Kanten-Anti-Aliasing sind nur einige davon. Vorfilterung kann nicht mit 9 a durchgeführt werden

richtiger Schattentest. Einige Vorfiltermethoden werden implementiert, um Schattentests auszuführen. VSM unterstützt die Vorfilterung sehr gut. Es gibt eine andere Methode namens ESM (Exponential Shadow Maps), die Exponentialfunktionen verwendet, um Schattentestvorgänge auszuführen. Diese Funktionen sind abhängig von PCF (Percentage Closer Filtering) für Nichtplanarität, was bei weichen Schatten gut funktioniert. Aber beim Mapping von weichen Schatten ist PCF ein sehr teurer Prozess. Weiches Schatten-Mapping mit Vorfilterung kann Probleme mit der Nichtplanarität zeigen.

Das Varianz-Soft-Shadow-Mapping basiert auf der Chebyshev-Ungleichung und führt zu einer engen Näherung, die nicht immer genau ist. Das meistgesprochene Problem in PCSS und VSM ist die effiziente Berechnung der durchschnittlichen Blockertiefe? Es gibt auch das Problem der Nichtplanarität. Yang et al [2010] haben einige Ideen vorgeschlagen, um diese Probleme zu lösen. Sie teilten den Hauptkernel in gleich große Unterteilungskerne auf. Dann wählten sie PCF-Sampling statt auf Annahme basierenden beleuchteten Kernel. PCF beseitigt das Problem der Nichtplanarität bis zu einem gewissen Grad, wenn die Stichprobengröße klein ist. Bei der Schattenabbildung werden zwei Arten von Unterteilungen verwendet, eine einheitliche und eine adaptive. Wenn die Anzahl der Unterkernel groß ist (>= 64), führt die adaptive Unterteilung zu besseren Ergebnissen. Ein adaptiver Kernel könnte ein besseres Ergebnis liefern. Yang et al [2010] schlugen vor, diese beiden Unterteilungsschemata zusammenzuführen und erzielten ein besseres Ergebnis. Yang et al [2010] haben SAT (Summed Area Tables) zur Vorfilterung verwendet. Aber SAT hat einen numerischen Präzisionsverlust für große Filterkerne. Daher wird eine 32-Bit-Ganzzahl verwendet. Z-Durchschn. und d wird berechnet und die Differenz wird gespeichert, dann werden die Ergebnisse durch Vergleich mit einem bestimmten Wert erzielt.

Yang et al. [2010] haben alle gegenwärtigen Technologien zur Abbildung von weichen Schatten verwendet und uns den Unterschied zwischen all diesen gezeigt. Sie verwendeten Raytracing, VSSM, PCSS, Rückprojektion, um weiche Schatten abzubilden und verschiedene Ausgaben wurden erzielt und präsentiert.

Shadow Computing ist ein Problem in der Grafik. Mit ausgedehnter Lichtquelle wächst das Problem. Daher wird eine Faltungstechnik eingeführt, die auch Schatten schnell und genau berechnet.

Weiche Schatten werden durch Variation der Beleuchtung auf der Oberfläche erreicht. Wenn die Lichtquelle von anderen Objekten verdeckt wird, wird die Sichtbarkeit durch die Halbschattenregion bestimmt.

Die Berechnung, die erforderlich ist, um weiche Schatten zu rendern, ist kompliziert zu implementieren. Dann sollte auch die Sichtbarkeitsbestimmung behandelt werden. Es wurden viele Verfahren eingeführt, um harte Schatten von einer Punktlichtquelle zu rendern. Die Berechnung von Schatten aus einer Flächenlichtquelle ist in der Computergrafik immer noch ein Problem.

Soler und Sillion[1998] haben auf effiziente Weise weiches Schatten-Rendering mit artefaktfreien Bildern durchgeführt.

Sie berechneten die Schattenkarte. Texturen werden aus Bildern mit Lichtquelle und Okkludern erstellt. Dann werden diese Texturen verwendet, um weiche Schatten zu rendern. Die Faltungsmethode wird außerhalb des Bildschirmpuffers ausgeführt. Für parallele Objekte werden genaue Bilder benötigt, ansonsten wird Näherung verwendet. Die Gesamtapproximation wird durch Cluster gehandhabt. Das Hinzufügen von Schattenkarten aus Unterclustern wird hinzugefügt und das Ergebnis wird erzielt. 10

Es wird ein einzelnes gerendertes Bild verwendet, sodass Schatten schnell gerendert werden und eine interaktive Rate erreicht werden kann.

Alle Schattenalgorithmen funktionieren nicht in Echtzeit. Der Raytracing-Algorithmus wirft Schatten von einem Punkt in der Oberfläche zur Lichtquelle. Raytracing erzeugt realistische Bilder mit Schatten, aber ein teurer Prozess.

Tiefenbilder werden verwendet, um Informationen über das Bild in Bezug auf die Lichtquelle zu speichern, und später werden basierend auf den Informationen Schatten hinzugefügt. Dieser Prozess kann eine ausgedehnte Lichtquelle nicht verarbeiten, daher könnte die Halbschattenregion fehlerhaft sein. Das Aliasing-Problem wird nicht richtig gehandhabt.

Solar und Sillion haben erklärt, dass sie eine andere Datenstruktur verwenden, um die zum Rendern von Schatten erforderlichen Informationen zu verarbeiten. Schattenvolumen können mit Punktlichtquellen und Okkludern verwendet werden. Punktlichtquellen sind nicht sehr nützlich, wenn es darum geht, weiche Schatten zu rendern.

Um die Sichtbarkeitsinformationen aufgrund der erweiterten Lichtquellendiskontinuität aufzuzeichnen, kann ein Netz verwendet werden. Beide Strukturen sind für die Berechnung kompliziert.

Die Schattenerzeugung selbst ist ein komplizierter Prozess und um sie interaktiv zu gestalten, sind zusätzliche Vorsichtsmaßnahmen erforderlich. Bis zur Forschung von Woo et al. [90] wurde keine einzige Methode zur Schattenwiedergabe vorgeschlagen.

Die Schattenkonstruktion kann im Hintergrund erfolgen, während die Szene gerendert wird. Dies erfordert eine Hardwarebeschleunigung. Aufgrund neuer fortschrittlicher GPU-Systeme ist dies möglich.

Die interaktive Vorberechnung weicher Schatten wurde erstmals von Heckbert und Herf[98] durchgeführt. Sie erstellten eine Reihe von Schattenbildern für Punkte auf der Lichtquelle und kombinierten sie später. Dieser Prozess erfordert High-End-Grafikkarten und es werden harte Schatten anstelle von weichen erreicht.

Wir konzentrieren uns auf das Rendering von weichen Schatten in Echtzeit. Die Vermeidung aller Techniken, die eine hohe Rechenleistung erfordern, waren mehr Speicher und High-End-GPU-Systeme unser Hauptanliegen. Wir haben eine sehr einfache Methode implementiert, um weiche Schatten zu zeichnen. Wir haben einfache Geometrie verwendet, um die Szene und die gezeichneten Objekte zu kennen.

Wir haben ein Dreiecksobjekt und eine Fläche gezeichnet. Dann haben wir die Normalen für die Flächen anhand der Basisgeometrie berechnet.

Stehen zwei Geraden senkrecht aufeinander, so nennt man sie normal. Die Flächennormale, eine Tangente wird über die gekrümmte Fläche gezogen und die Linie oder der Vektor senkrecht zur Tangentenebene wird Flächennormale genannt.

Für eine durch die Gleichung ax + by + cz + d = 0 gegebene Ebene ist der Vektor (a, b, c) eine Normale. Für eine durch die Gleichung gegebene Ebene gilt r (α, β) = a + αb + βc.

Dadurch erhalten wir die Oberflächenposition, an der unser Schatten gezeichnet würde.

Wir verwenden dann die Matrixmultiplikation, um die tatsächlichen Punkte zum Zeichnen des Schattens auf die Oberfläche zu erhalten. Die Matrixmultiplikation nimmt zwei Matrizen und multipliziert ihre Elemente und gibt uns eine neue Matrix mit den Ergebnissen. Die Größe der beiden Matrizen muss gleich sein, sonst findet keine Multiplikation statt. Die resultierende Matrix hat auch die gleiche Größe wie die beiden Matrizen.

Wir verwenden auch eine andere grundlegende Geometriegleichung. Gleichung einer Geraden ist,

y = mx + c. Zuerst berechnen wir die Tangente zwischen allen Scheitelpunkten des Objekts und der Lichtquelle. Dann leiten wir mit der Gleichung y = mx + c die Projektionspunkte des Schattens auf die Oberfläche ab.

Abbildung 3(a) zeigt einen harten Schatten, der mit unserer Methode gezeichnet wurde.

Um den weichen Schatten zu zeichnen, zeichnen wir einfach zuerst den harten Schatten und machen ihn dann weicher. a) zeigt einen harten Schatten, der mit unserer Methode gezeichnet wurde.

Um den weichen Schatten zu zeichnen, zeichnen wir einfach zuerst den harten Schatten und machen ihn dann weicher.

Vorteile
Von Anfang an steht fest, dass wir weiche Schatten in Echtzeit entwerfen sollen. Unser Algorithmus ist sehr einfach und es sind andere hochrechenbasierte Techniken frei.
Neue fortschrittliche GPU-Systeme bieten viele Funktionen. Diese GPUs unterstützen alle grundlegenden Funktionen zum Rendern von Schatten mit verschiedenen Techniken. Es sind auch programmierbare GPUs entstanden und unterstützen einzelne Samples von Soft Shadows, Penumbra Maps, Smoothies und Soft Shadow Volumen.
Wir müssen die Silhouette des Objekts nicht berechnen. Die Berechnung der Silhouette erfordert eine hohe Vorberechnung. Die Silhouettenberechnung kann nicht in GPUs und in der Hauptprozessoreinheit durchgeführt werden. Die Vorberechnung ist also ziemlich langwierig.
Wir brauchen auch keinen sehr hohen Speicherplatz. Da wir die Z-Werte nicht verfolgen müssen und auch andere Puffer wie Schablonenpuffer nicht benötigt werden. Es wird also kein großer Speicherplatz benötigt.

Ergebnisse
Wir zeichnen die Tabellen mit fps-Werten für harte Schatten und weiche Schatten.

Wir konnten unseren weichen Schatten mit einem niedrigeren GPU-System rendern und hatten ein besseres Ergebnis als erwartet. Wir haben über einige existierende Echtzeit-Soft-Shadow-Algorithmen diskutiert. Wir haben einen sehr einfachen, aber effizienten Algorithmus für weiche Schatten entwickelt, der auf Geometrie basiert.