Mehr

Wie berechnet man Grad pro Pixel in einem bestimmten Bild? Oder .nter Grad?

Wie berechnet man Grad pro Pixel in einem bestimmten Bild? Oder .nter Grad?


Ich versuche, in einigen zufälligen Parkplatzbildern sehr grobe Schätzungen der Lat/Long-Koordinaten vorzunehmen. Wenn ich einen solchen zufälligen Parkplatz auf einer Google-Karte besuche, kann ich auf einen Fahrbereich klicken und Google gibt mir einen Standort an. Beispielsweise.

Hier ist ein Parkplatzbild aus Florida. (Gehostet auf Wikimedia Commons.)

Das Bild ist 1280 Pixel breit und ich kann einige ziemlich nahe Koordinaten für die Ecken des Gebäudes auf der Google-Karte finden. Hier ist die entsprechende Kartenansicht, die bei Google serviert wird.

Die linke Seite der Big Lots liegt ganz in der Nähe von 30.180806, -82.670137. Und die rechte Seite des Ladens ist ganz in der Nähe von 30.180752, -82.669594

Es gibt also eine LAT-Differenz von 0,00054 und eine LONG-Differenz von 0,000543.

Nehmen wir an, ich messe die Pixel des Big Lots CarPark im Bild und finde heraus, dass 800 Pixel verwendet werden. Damit kann ich die Breite jedes Pixels annähern.

0,000543 / 800 = 0,000000679 pro Pixel.

Meine erste Frage (nicht so wichtig) ist: Wie heißt diese 0,000000679 Messung? (Ein 0,000000679 Grad pro Pixel?)

Jedenfalls zur eigentlichen Frage.

Wenn ich ein anderes Bild habe, für das ich den Standort auf der Karte oder im GIS nicht zuverlässig finden kann, wie kann ich dann eine ähnliche Schätzung vornehmen, wenn die Standorte LAT und LONG genau geschätzt werden?

Beispiel:

Hier ist ein weiteres Parkplatzbild, dessen genaue Position ich nicht kennen kann. Ich kann erahnen, dass die Ladenfront etwa 30 Meter breit ist, wenn ich die Parkplätze zähle. Ich könnte sogar vermuten, dass das Bild 120 Fuß breit ist, nur um Berechnungen anzustellen.

Dann weise ich dem Pixel auf der linken Seite des Bildes, auf Bodenhöhe mit dem Gebäudefundament, ein beliebiges LAT / LONG zu.

LAT 34.065154 LANG -118.468884

Hinweis: Ich gehe auch willkürlich davon aus, dass die Kamera direkt nach Norden zeigt.

Ich kann im Internet finden, dass es auf diesem Breitengrad 363922 Fuß in einem Längengrad gibt.

Wie kann ich also 0,0000XXX pro Pixel berechnen?

Mir ist gegeben:

grobe Schätzung der Bodenentfernung, geschätzte 120 Fuß 363922 Fuß pro Breitengrad am weitesten links gelegene Pixelposition: 34.065154, -118.468884 Bildpixelbreite 1280

Ich sollte die LAT / LONG auf der anderen Seite des Bildes abschätzen können, oder?

Hier meine ungebildete Vermutung:

120 Fuß / 1280 Pixel = 0,09375 Fuß/Pixel 0,09375 Fuß/Pixel / 363922 Fuß/Grad/Breite = 0,000000258 n-te Grad pro Pixel?

Wenn ja, berechne ich die rechte Seite des Bildes so?

-118,468884 + (0,000000258 * 1280) = -118,468884 + 0,000329741 = -118.468554259 LAT 34.065154 LONG -118.468554

Funktioniert das auch für den Breitengrad, wenn ich beispielsweise die Entfernung zur Kamera schätze, indem ich die Autos zähle?


Nachdem ich die Mathematik mit dem Parkplatzbild des bekannten Standorts getestet habe, bin ich mir ziemlich sicher, dass meine Vermutung richtig ist.

Ich habe festgestellt, dass die Entfernungen zwischen der Art des Parkplatzes im Kartenbild in einigen Parkplatzcode-Spezifikationen, die ich bei Google gefunden habe, variieren.

In einer Richtung des Gegenverkehrs mit 60-Grad-Parkplätzen variieren die Anforderungen zwischen 55 und 62 Fuß zwischen den langen parallelen Linien.

Ausgehend von der linken Gebäudekante neben der Pizzeria und dem Auftauchen eines Lieferwagens rechts (am Rand des Parkplatzes) habe ich 5 Gegenfahrspuren gezählt.

Die Verwendung von 55 Fuß zwischen ihnen ergab ein ziemlich enges Ergebnis. Anfangsschätzung des linken Längengrades:

Mathe machen:

330 geschätzte Bildbreite in Fuß ------------------------------------ = 0,2578125 Fuß pro Pixel 1280 Bildbreite in Pixel UND SO: 0,2578125 feet_per_pixel ------------------------------------ = 0,00000071 Dezimalgrad pro Pixel 363699 feet_per_degree_of_longitude Mit den oben berechneten Werten: -82.670329 + (0.00000071 * 1280) = -82.670329 + 0.0009088 = -82.669420 LAT LON Links 30.180805, -82.670329 Rechts 30.180805, -82.669420

Und hier ist der Kartenstandort mit meinem Endergebnis.

Ich denke, es ist nah genug für mein Projekt.

Für den Fall, dass es jemals wieder auftaucht, hier sind die Gleichungen.

~ ~ | geschätzte Bildbreite in Fuß | |------------------------------------------| Dezimalgrad pro Pixel = | Bildbreite in Pixel | ~ ~ -------------------------------------- feet_per_degree_of_longitude ~ ~ | ~ ~ | | | ~ ~ | | | | | geschätzte Bildbreite in Fuß | | | | | |------------------------------------------| | | Bild rechts Längengrad = | | | Bildbreite in Pixel | | * Bildbreite in Pixel | + Bild links Längengrad | | ~ ~ | | | |----------------------------------| | | | feet_per_degree_of_longitude | | | ~ ~ | ~ ~

Graustufen

In der digitalen Fotografie, computergenerierten Bildgebung und Farbmetrik, u.a Graustufen oder ein Bild ist eines, bei dem der Wert jedes Pixels ein einzelnes Sample ist, das nur ein Menge des Lichts, das heißt, es trägt nur Intensitätsinformationen. Graustufenbilder, eine Art Schwarzweiß- oder Graumonochrom, bestehen ausschließlich aus Graustufen. Der Kontrast reicht von Schwarz bei schwächster Intensität bis Weiß bei stärkster Intensität. [1]

Graustufenbilder unterscheiden sich von Ein-Bit-Bitonal-Schwarzweißbildern, bei denen es sich im Zusammenhang mit der Computerbildgebung um Bilder mit nur zwei Farben handelt: Schwarzweiß (auch als . bezeichnet) zweistufig oder binäre Bilder). Graustufenbilder haben viele Graustufen dazwischen.

Graustufenbilder können das Ergebnis der Messung der Lichtintensität an jedem Pixel gemäß einer bestimmten gewichteten Kombination von Frequenzen (oder Wellenlängen) sein, und in solchen Fällen sind sie monochromatisch, wenn nur eine einzige Frequenz (in der Praxis ein schmales Frequenzband) ) ist gefangen. Die Frequenzen können grundsätzlich von jedem beliebigen Ort des elektromagnetischen Spektrums stammen (z. B. Infrarot, sichtbares Licht, Ultraviolett usw.).

Ein kolorimetrisches (oder genauer photometrisches) Graustufenbild ist ein Bild mit einem definierten Graustufenfarbraum, der die gespeicherten numerischen Abtastwerte auf den achromatischen Kanal eines Standardfarbraums abbildet, der selbst auf gemessenen Eigenschaften des menschlichen Sehens basiert.

Wenn das ursprüngliche Farbbild keinen definierten Farbraum hat oder wenn das Graustufenbild nicht dieselbe vom Menschen wahrgenommene achromatische Intensität wie das Farbbild aufweisen soll, gibt es keine eindeutige Abbildung von einem solchen Farbbild auf ein Graustufenbild.


Wie berechnet man Grad pro Pixel in einem bestimmten Bild? Oder .nter Grad? - Geografisches Informationssystem

Satellitenbilder sind wie Karten: Sie sind voller nützlicher und interessanter Informationen, vorausgesetzt, Sie haben einen Schlüssel. Sie können uns zeigen, wie sehr sich eine Stadt verändert hat, wie gut unsere Ernte wächst, wo ein Feuer brennt oder wann ein Sturm aufzieht. Um die umfangreichen Informationen in einem Satellitenbild freizuschalten, müssen Sie:

  1. Suche nach einer Waage
  2. Suchen Sie nach Mustern, Formen und Texturen
  3. Definieren Sie die Farben (einschließlich Schatten)
  4. Norden finden
  5. Berücksichtigen Sie Ihr Vorwissen

Diese Tipps stammen von den Autoren und Visualisierern des Earth Observatory, die sie verwenden, um täglich Bilder zu interpretieren. Sie helfen Ihnen, sich ausreichend zu orientieren, um wertvolle Informationen aus Satellitenbildern zu ziehen.

Suche nach einer Waage

Eines der ersten Dinge, die Menschen tun möchten, wenn sie sich ein Satellitenbild ansehen, ist, die ihnen vertrauten Orte zu identifizieren: ihr Zuhause, ihre Schule oder ihren Arbeitsplatz, einen Lieblingspark oder eine Touristenattraktion oder ein Naturmerkmal wie ein See, ein Fluss , oder Bergrücken. Einige Bilder von militärischen oder kommerziellen Satelliten sind detailliert genug, um viele dieser Dinge zu zeigen. Solche Satelliten zoomen in kleine Bereiche hinein, um feine Details bis in den Maßstab einzelner Häuser oder Autos zu erfassen. Dabei opfern sie meist das große Ganze.

Bilder des kommerziellen WorldView-2-Satelliten (oben) können Straßendetails der Flut im September 2013 in Boulder, Colorado, zeigen, während der wissenschaftliche Satellit Landsat 8 (unten) vergrößert werden kann, um eine Stadtgrößenskala zu erhalten. (Worldview-2-Bild basierend auf Daten ©2013 DigitalGlobe. Landsat-Bild von Jesse Allen und Robert Simmon, unter Verwendung von Daten des USGS Earth Explorer.)

NASA-Satelliten verfolgen den gegenteiligen Ansatz. Geowissenschaftler wünschen sich normalerweise ein Weitwinkelobjektiv, um ganze Ökosysteme oder atmosphärische Fronten zu sehen. Infolgedessen sind die NASA-Bilder weniger detailliert, decken jedoch einen größeren Bereich ab, der vom Landschaftsmaßstab (185 Kilometer Durchmesser) bis hin zu einer ganzen Hemisphäre reicht. Der Detaillierungsgrad hängt von der räumlichen Auflösung des Satelliten ab. Satellitenbilder bestehen wie digitale Fotos aus kleinen Punkten, die Pixel genannt werden. Die Breite jedes Pixels ist die räumliche Auflösung des Satelliten.

Kommerzielle Satelliten haben eine räumliche Auflösung von bis zu 50 Zentimetern pro Pixel. Die detailliertesten NASA-Bilder zeigen 10 Meter in jedem Pixel. Geostationäre Wettersatelliten, die jeweils eine ganze Hemisphäre beobachten, sind viel weniger detailliert und sehen ein bis vier Kilometer pro Pixel.

Raw Landsat-Szenen (oben) bieten eine Landschaftsansicht, während MODIS (unten) eine breitere Ansicht bietet. Die Bilder stammen vom 17. September (Landsat) und 14. September (MODIS), 2013. (Landsat-Bild von Jesse Allen und Robert Simmon, unter Verwendung von Daten des USGS Earth Explorer. MODIS-Bild von Jeff Schmaltz LANCE/EOSDIS MODIS Rapid Response Team, GSFC .)

Je nach Bildauflösung kann eine Stadt ein ganzes Satellitenbild mit Straßengittern füllen oder nur ein Punkt in einer Landschaft sein. Bevor Sie beginnen, ein Bild zu interpretieren, ist es hilfreich, den Maßstab zu kennen. Deckt das Bild 1 oder 100 Kilometer ab? Welcher Detaillierungsgrad wird angezeigt? Auf dem Earth Observatory veröffentlichte Bilder enthalten eine Skala.

Sie können auf jeder Skala verschiedene Dinge lernen. Wenn Sie beispielsweise eine Überschwemmung verfolgen, zeigt eine detaillierte, hochauflösende Ansicht, welche Häuser und Geschäfte von Wasser umgeben sind. Die breitere Landschaftsansicht zeigt, welche Teile des Landkreises oder der Metropolregion überflutet sind und woher das Wasser vielleicht kommt. Eine breitere Ansicht würde die gesamte Region zeigen und das überflutete Flusssystem oder die Bergketten und Täler, die den Fluss kontrollieren. Eine hemisphärische Ansicht würde die Bewegung von Wettersystemen zeigen, die mit den Überschwemmungen verbunden sind.

GOES-Satelliten bieten eine nahezu vollständige Ansicht der Erdscheibe. Dieses Bild zeigt Nord- und Südamerika am 14. September 2013. (Bild vom NASA/NOAA GOES Project Science Office.)

Suchen Sie nach Mustern, Formen und Texturen

Wenn Sie jemals einen Nachmittag damit verbracht haben, Tiere und andere Formen in den Wolken zu identifizieren, wissen Sie, dass Menschen sehr gut darin sind, Muster zu finden. Diese Fertigkeit ist bei der Interpretation von Satellitenbildern nützlich, da charakteristische Muster externen Karten zugeordnet werden können, um Schlüsselmerkmale zu identifizieren.

Gewässer & Flüsse, Seen und Ozeane &mda teilen oft die am einfachsten zu identifizierenden Merkmale, da sie in der Regel einzigartige Formen haben und auf Karten auftauchen.

Andere offensichtliche Muster ergeben sich aus der Art und Weise, wie die Menschen das Land nutzen. Farmen haben normalerweise geometrische Formen und Kreise oder Rechtecke, die sich von den zufälligeren Mustern in der Natur abheben. Wenn Menschen einen Wald abholzen, ist die Lichtung oft quadratisch oder weist eine Reihe von Fischgrätenlinien auf, die sich entlang von Straßen bilden. Eine gerade Linie an einer beliebigen Stelle in einem Bild ist mit ziemlicher Sicherheit von Menschenhand geschaffen und kann eine Straße, ein Kanal oder eine Art Grenze sein, die durch Landnutzung sichtbar gemacht wurde.

Gerade Linien und geometrische Formen in diesem Bild von Reese, Michigan, sind das Ergebnis der Landnutzung durch den Menschen. Straßen verlaufen diagonal über die Felder, die landwirtschaftliche Felder definieren. (Bild des NASA Earth Observatory von Jesse Allen und Robert Simmon, unter Verwendung von ALI-Daten des NASA EO-1-Teams.)

Die Geologie prägt die Landschaft auf eine Weise, die auf einem Satellitenbild oft besser zu erkennen ist. Vulkane und Krater sind kreisförmig und Bergketten neigen dazu, in langen, manchmal wellenförmigen Linien zu verlaufen. Geologische Merkmale erzeugen sichtbare Texturen. Canyons sind verschnörkelte Linien, die von Schatten umrahmt werden. Berge sehen aus wie Falten oder Beulen.

Diese Eigenschaften können sich auch auf Wolken auswirken, indem sie den Luftstrom in der Atmosphäre beeinflussen. Berge drücken Luft nach oben, wo sie sich abkühlt und Wolken bildet. Inseln erzeugen Turbulenzen, die zu wirbelnden Wirbeln oder Wirbelschleppen in den Wolken führen. Wenn Sie eine Reihe von Wolken oder Wirbeln sehen, geben sie einen Hinweis auf die Topographie des darunter liegenden Landes.

Zentralchile und Argentinien bieten eine breite Palette an geografischen Merkmalen, darunter schneebedeckte Berge, Schluchten und Vulkane. (NASA-Bild mit freundlicher Genehmigung von Jeff Schmaltz LANCE/EOSDIS MODIS Rapid Response Team, GSFC.)

Gelegentlich können Schatten den Unterschied zwischen Bergen und Schluchten erschweren. Diese optische Täuschung wird Reliefinversion genannt. Dies geschieht, weil die meisten von uns erwarten, dass ein Bild von der oberen linken Ecke beleuchtet wird. Wenn das Sonnenlicht aus einem anderen Winkel kommt (insbesondere vom unteren Rand), fallen die Schatten auf eine Weise, die wir nicht erwarten, und unser Gehirn verwandelt Täler in Berge, um dies auszugleichen. Das Problem wird normalerweise dadurch gelöst, dass das Bild so gedreht wird, dass das Licht vom oberen Rand des Bildes zu kommen scheint.

Farben definieren

Die Farben in einem Bild hängen davon ab, welche Art von Licht das Satelliteninstrument gemessen hat. Echtfarbenbilder verwenden sichtbares Licht und rote, grüne und blaue Wellenlängen, sodass die Farben denen ähnlich sind, die eine Person aus dem Weltraum sehen würde. Falschfarbenbilder enthalten Infrarotlicht und können unerwartete Farben annehmen. In einem Echtfarbenbild sehen gemeinsame Merkmale wie folgt aus:

Wasser

Wasser absorbiert Licht, daher ist es normalerweise schwarz oder dunkelblau. Sediment reflektiert Licht und färbt das Wasser. Bei dichtem Sand oder Schlamm sieht das Wasser braun aus. Wenn sich das Sediment verteilt, ändert sich die Farbe des Wassers in Grün und dann in Blau. Flache Gewässer mit sandigem Grund können zu einem ähnlichen Effekt führen.

Sonnenlicht, das von der Wasseroberfläche reflektiert wird, lässt das Wasser grau, silber oder weiß erscheinen. Dieses als Sunlint bekannte Phänomen kann Wellenstrukturen oder Ölteppiche hervorheben, aber auch das Vorhandensein von Sedimenten oder Phytoplankton maskieren.

Sunglint macht es möglich, aktuelle Muster auf der Meeresoberfläche rund um die Kanarischen Inseln zu sehen. (NASA-Bild mit freundlicher Genehmigung von Jeff Schmaltz LANCE/EOSDIS MODIS Rapid Response Team, GSFC.)

Gefrorenes Wasser&mdashSchnee und Eis&mdashis weiß, grau und manchmal leicht blau. Schmutz oder Gletscherablagerungen können Schnee und Eis eine bräunliche Farbe verleihen.

Pflanzen

Pflanzen gibt es in verschiedenen Grüntönen, und diese Unterschiede zeigen sich in der Echtfarbenansicht aus dem Weltraum. Grasland ist in der Regel blassgrün, während Wälder sehr dunkelgrün sind. Landwirtschaftlich genutztes Land ist oft viel heller als die natürliche Vegetation.

An einigen Standorten (hohe und mittlere Breiten) hängt die Pflanzenfarbe von der Jahreszeit ab. Die Frühlingsvegetation ist tendenziell blasser als die dichte Sommervegetation. Die Herbstvegetation kann rot, orange, gelb und lohfarben sein, und die verdorrte Wintervegetation ist braun. Aus diesen Gründen ist es hilfreich zu wissen, wann das Bild gesammelt wurde.

Die Wälder, die die Great Smoky Mountains im Südosten der Vereinigten Staaten bedecken, ändern im Laufe der Jahreszeiten ihre Farben von braun über grün bis orange zu braun. (NASA-Bilder mit freundlicher Genehmigung von Jeff Schmaltz LANCE/EOSDIS MODIS Rapid Response Team, GSFC.)

In den Ozeanen können schwimmende Pflanzen&mdashphytoplankton&mdash das Wasser in einer Vielzahl von Blau- und Grüntönen färben. Unterwasservegetation wie Seetangwälder können Küstengewässern einen schattigen schwarzen oder braunen Farbton verleihen.

Nackten Boden

Kahler oder sehr leicht bewachsener Boden ist normalerweise braun oder bräunlich. Die Farbe hängt vom Mineralgehalt des Bodens ab. In einigen Wüsten wie dem australischen Outback und dem Südwesten der Vereinigten Staaten ist die exponierte Erde rot oder rosa, weil sie Eisenoxide wie Hämatit (griechisch für blutig) enthält. Wenn der Boden weiß oder sehr blass gebräunt ist, insbesondere in getrockneten Seebetten, liegt dies an Mineralien auf Salz-, Silizium- oder Kalziumbasis. Vulkanischer Schutt ist braun, grau oder schwarz. Neu verbranntes Land ist ebenfalls dunkelbraun oder schwarz, aber die Brandnarbe verblasst zu Braun, bevor sie mit der Zeit verschwindet.

Städte

Dicht bebaute Gebiete sind aufgrund der Konzentration von Beton und anderen Baumaterialien typischerweise silber oder grau. Einige Städte haben einen eher braunen oder roten Ton, je nachdem, welche Materialien für Dächer verwendet werden.

Der Kontrast zwischen den modernen und historischen Vierteln von Warschau ist per Satellit leicht zu erkennen. Das neue Stadion Narodowy ist strahlend weiß. &Sacuteródmie&sacutecie (Innenstadt) wurde nach dem Zweiten Weltkrieg wieder aufgebaut und die meisten Bereiche erscheinen beige oder grau. Aber einige Viertel wurden mit Gebäuden im älteren Stil wiederaufgebaut, wie den roten Ziegeln und den grünen Kupferdächern von Stare Miasto (Altstadt). (Bild mit freundlicher Genehmigung von NASA/USGS Landsat.)

Atmosphäre

Wolken sind weiß und grau und neigen dazu, eine Textur zu haben, genau wie vom Boden aus gesehen. Sie werfen auch dunkle Schatten auf den Boden, die die Form der Wolke widerspiegeln. Einige hohe, dünne Wolken sind nur durch den von ihnen geworfenen Schatten zu erkennen.

Rauch ist oft glatter als Wolken und hat eine Farbe von braun bis grau. Rauch von Ölbränden ist schwarz. Haze ist normalerweise gesichtslos und blassgrau oder schmuddelig weiß. Dichter Dunst ist undurchsichtig, aber Sie können durch dünneren Dunst hindurchsehen. Die Farbe von Rauch oder Dunst spiegelt normalerweise die Menge an Feuchtigkeit und chemischen Schadstoffen wider, aber bei einer visuellen Interpretation eines Satellitenbildes ist es nicht immer möglich, den Unterschied zwischen Dunst und Nebel zu erkennen. Weißer Dunst kann natürlicher Nebel sein, aber auch Umweltverschmutzung.

Wolken, Nebel, Dunst und Schnee sind in Satellitenbildern manchmal schwer zu unterscheiden, wie in diesem MODIS-Bild des Himalaya vom 1. November 2013. (Bild angepasst von MODIS Worldview.)

Staub variiert je nach Quelle in der Farbe. Es ist meistens leicht gebräunt, kann aber wie Erde aufgrund des unterschiedlichen Mineralgehalts weiß, rot, dunkelbraun und sogar schwarz sein.

Auch vulkanische Wolken unterscheiden sich je nach Art des Ausbruchs in ihrem Aussehen. Dampf- und Gaswolken sind weiß. Eschenfedern sind braun. Auch resuspendierte Vulkanasche ist braun.

Farben im Kontext

Wenn Sie ein Satellitenbild betrachten, sehen Sie alles zwischen dem Satelliten und dem Boden (Wolken, Staub, Dunst, Land) in einer einzigen, flachen Ebene. Dies bedeutet, dass ein weißer Fleck eine Wolke sein kann, aber auch Schnee oder eine Salzwüste oder ein Sonnenstrahl. Die Kombination aus Kontext, Form und Textur wird Ihnen helfen, den Unterschied zu erkennen.

Schatten, die von Wolken oder Bergen geworfen werden, können beispielsweise leicht mit anderen dunklen Oberflächenmerkmalen wie Wasser, Wald oder verbranntem Land verwechselt werden. Das Betrachten anderer Bilder desselben Bereichs, die zu einem anderen Zeitpunkt aufgenommen wurden, kann helfen, Verwirrung zu vermeiden. Meistens hilft Ihnen der Kontext, die Quelle der Schatten&mdasha-Wolke oder des Berges&mdash zu erkennen, indem Sie die Form des Schattens mit anderen Merkmalen im Bild vergleichen.

Norden finden

Wenn Sie sich verirren, können Sie am einfachsten herausfinden, wo Sie sich befinden, indem Sie einen bekannten Orientierungspunkt finden und sich daran orientieren. Die gleiche Technik gilt für Satellitenbilder. Wenn Sie wissen, wo Norden liegt, können Sie herausfinden, ob diese Bergkette von Norden nach Süden oder von Osten nach Westen verläuft oder ob sich eine Stadt auf der Ostseite des Flusses oder im Westen befindet. Diese Details können Ihnen helfen, die Features einer Karte zuzuordnen. Auf dem Earth Observatory sind die meisten Bilder so ausgerichtet, dass Norden oben ist. Alle Bilder enthalten einen Nordpfeil.

Berücksichtigen Sie Ihr Vorwissen

Das vielleicht mächtigste Werkzeug zur Interpretation eines Satellitenbildes ist die Ortskenntnis. Wenn Sie wissen, dass letztes Jahr ein Lauffeuer durch einen Wald brannte, ist es leicht zu erkennen, dass der dunkelbraune Waldfleck wahrscheinlich eine Brandnarbe ist und kein Vulkanstrom oder Schatten.

Land, das von Yosemite&rsquos Rim Fire verbrannt wurde, ist im Vergleich zu der unverbrannten braunen und grünen Landschaft um es herum graubraun. Sehen Sie sich diese verlinkte Karte an, die hilft, zwischen verbranntem Land und nicht verbranntem Land zu unterscheiden. (NASA Earth Observatory-Bilder von Robert Simmon unter Verwendung von Landsat-8-Daten des USGS Earth Explorer.)

Mit lokalen Kenntnissen können Sie auch Satellitenkartierungen mit dem, was im täglichen Leben passiert, in Verbindung bringen, von Sozialwissenschaften, Wirtschaft und Geschichte (z. B. Bevölkerungswachstum, Verkehr, Nahrungsmittelproduktion) über Geologie (vulkanische Aktivität, Tektonik) bis hin zu Biologie und Ökologie ( Pflanzenwachstum und Ökosysteme) über Politik und Kultur (Land- und Wassernutzung), Chemie (Luftverschmutzung) und Gesundheit (Verschmutzung, Lebensraum für Krankheitsüberträger).

Im folgenden Bilderpaar werden beispielsweise Landbesitz- und Landnutzungspolitik gegenübergestellt. In Polen umgeben kleine Grundstücke in Privatbesitz den Niepolomice-Wald. Seit dem 13. Jahrhundert bewirtschaftet die Regierung den Wald als Einheit. Während die Baumkronen kein festes, ununterbrochenes Grün haben, ist der Wald weitgehend intakt. Das untere Bild zeigt eine Schachbrettkombination aus privatem und öffentlichem Land in der Nähe des Okanogan-Wenatchee National Forest in Washington. Der U.S. Forest Service verwaltet den Wald im Rahmen einer gemischten Nutzungsrichtlinie, die einen Teil des Waldes erhält, während andere Abschnitte für die Abholzung geöffnet werden. Hellere grüne Bereiche zeigen an, dass Abholzung auf Bundes-, Landes- oder Privatland stattgefunden hat. Die privaten Grundstücke sind in diesem Teil der westlichen Vereinigten Staaten viel größer als in Polen.

Landnutzungs- und Naturschutzpolitiken definieren das Waldgebiet sowohl in Polen (oben) als auch im US-Bundesstaat Washington (unten). (NASA Earth Observatory-Bilder von Robert Simmon unter Verwendung von Landsat-8-Daten des USGS Earth Explorer.)

Wenn Sie das dargestellte Gebiet nicht kennen, kann eine Referenzkarte oder ein Atlas sehr wertvoll sein. Eine Karte gibt den Merkmalen, die Sie im Bild sehen können, Namen und gibt Ihnen die Möglichkeit, nach zusätzlichen Informationen zu suchen. Mehrere Online-Kartendienste bieten sogar eine Satellitenansicht mit beschrifteten Funktionen. Historische Karten, wie sie in der Library of Congress oder in der David Rumsey Map Collection zu finden sind, können Ihnen dabei helfen, Veränderungen zu erkennen und sogar zu verstehen, warum diese Veränderungen eingetreten sind.

Unabhängig davon, ob Sie die Erde nach Wissenschaft, Geschichte oder etwas anderem betrachten, betrachten Sie auch das Earth Observatory als eine Schlüsselressource. Die Site beherbergt ein umfangreiches, tiefes Archiv mit mehr als 12.000 interpretierten Satellitenbildern zu einer Vielzahl von Themen und Orten. Das Archiv umfasst Bilder von Naturereignissen sowie vielfältigere Bilder. Falls das Earth Observatory kein Bild von einem Gebiet oder Thema hat, das Sie interessiert, teilen Sie uns dies bitte mit. Wir sind immer auf der Suche nach neuen Wegen, unsere Welt aus dem All zu erkunden.


Auflösungsarten

Bei der Arbeit mit abgebildeten Rasterdaten gibt es vier Auflösungstypen, mit denen Sie möglicherweise beschäftigt sind: räumliche Auflösung, spektrale Auflösung, zeitliche Auflösung und radiometrische Auflösung.

In einem GIS beschäftigen Sie sich am häufigsten mit der räumlichen Auflösung eines Raster-Datasets, insbesondere beim Anzeigen oder Vergleichen von Raster-Daten mit anderen Datentypen, z. B. Vektor. In diesem Fall bezieht sich die Auflösung auf die Zellengröße (die vom Boden bedeckte und durch eine einzelne Zelle dargestellte Fläche). Eine höhere räumliche Auflösung impliziert, dass es mehr Zellen pro Flächeneinheit gibt, daher repräsentiert die Grafik links eine höhere räumliche Auflösung als die Grafik rechts.

Die spektrale Auflösung beschreibt die Fähigkeit eines Sensors, zwischen Wellenlängenintervallen im elektromagnetischen Spektrum zu unterscheiden. Je höher die spektrale Auflösung, desto schmaler ist der Wellenlängenbereich für ein bestimmtes Band. Beispielsweise zeichnet ein Einband-Graustufen-Luftbild (Bild) Wellenlängendaten auf, die sich über einen Großteil des sichtbaren Teils des elektromagnetischen Spektrums erstrecken, daher hat es eine geringe spektrale Auflösung. Ein Farbbild (mit drei Bändern) sammelt im Wesentlichen Wellenlängendaten aus drei kleineren Teilen des sichtbaren Teils des elektromagnetischen Spektrums – dem roten, grünen und blauen Teil. Daher hat jedes Band im Farbbild eine höhere spektrale Auflösung als das einzelne Band im Graustufenbild. Fortschrittliche multispektrale und hyperspektrale Sensoren sammeln Daten aus bis zu Hunderten von sehr schmalen Spektralbändern in Teilen des elektromagnetischen Spektrums, was zu Daten mit einer sehr hohen spektralen Auflösung führt.

Die zeitliche Auflösung bezieht sich auf die Häufigkeit, mit der Bilder über der gleichen Stelle auf der Erdoberfläche aufgenommen werden, auch bekannt als die Wiederbesuchsperiode, ein Begriff, der am häufigsten in Bezug auf Satellitensensoren verwendet wird. Daher hat ein Sensor, der einmal pro Woche Daten erfasst, eine höhere zeitliche Auflösung als ein Sensor, der einmal im Monat Daten erfasst.

Die radiometrische Auflösung beschreibt die Fähigkeit eines Sensors, Objekte zu unterscheiden, die im gleichen Teil des elektromagnetischen Spektrums betrachtet werden. Dies ist gleichbedeutend mit der Anzahl möglicher Datenwerte in jedem Band. Beispielsweise besteht ein Landsat-Band typischerweise aus 8-Bit-Daten und ein IKONOS-Band aus typischerweise 11-Bit-Daten, daher haben die IKONOS-Daten eine höhere radiometrische Auflösung.


11 Antworten 11

Die Breite eines Bildes wird in einem diskreten 2-dimensionalen Raum gemessen.

Das Bild ist 3840 Pixel breit. Dies bedeutet, dass es ein horizontales Band von 3840 Pixeln (jeweils zweidimensionale Regionen) gibt, das den Raum durchquert. Wir verwenden Pixel nicht als Maßeinheit – wir zählen tatsächlich Dinge, die Pixel genannt werden.

Wenn wir messen, wie groß es ist, messen wir 2160 Pixel in einem vertikalen Band zum oberen Rand des Bildes. Auch hier ist Pixel keine Maßeinheit, es ist eine Sache, die wir zählen.

Wenn Sie ein Raster von Dingen nehmen, das 3840 breit und 2160 hoch ist, erhalten Sie am Ende 3840 * 2160 davon. Das zählt.

Wir könnten Auch Beschreibe das Bild als 3840 pixel_widths wide und 2160 pixel_heights high und ändere diese Entfernungen. Dann erhalten wir 3840 * 2160 (pixel_width * pixel_height) Bereich. Dies ist eine Flächenberechnung.

Diese haben zufällig den gleichen numerischen Wert, weil pixel_width*pixel_height = pixel_area und X Pixel eine Fläche von X pixel_area haben.

Ein Unterschied zwischen diesen Berechnungen tritt auf, wenn Sie nicht quadratische Pixel haben und drehen. Etwas 10 pixel_widths breit um 90 Grad gedreht, darf nicht 10 pixel_heights hoch sein. Gleichzeitig soll die Rotation bereichserhaltend sein (bis auf Rundung).

Das Verhältnis zwischen Breite und Höhe eines Pixels wird als Seitenverhältnis bezeichnet. CRTs hatten oft ein effektives Seitenverhältnis von 1,11, wenn ich mich richtig erinnere.

Denn "Pixel" ist keine Maßeinheit: es ist ein Objekt. So wie eine Wand, die 30 Steine ​​breit und 10 Pixel hoch ist, 300 Steine ​​enthält (nicht quadratisch), enthält ein Bild, das 30 Pixel breit und 10 Pixel hoch ist, 300 Pixel (nicht quadratisch).

Ich habe eine andere Antwort als andere Leute: Pixel ist die richtige Einheit für Bereiche, und Sie tun Dimensionsanalyse benötigen. Die Diskrepanz besteht darin, dass das Pixel in "3840 Pixel breit" nicht dieselbe Einheit wie das Pixel in "das Display hat 8294400 Pixel" ist. Stattdessen ist "Pixel" eine Abkürzung in natürlicher Sprache für verschiedene Einheiten zu unterschiedlichen Zeiten, und es braucht etwas Kontext und Urteilsvermögen, um die Abkürzung entsprechend zu erweitern.

Die ungekürzte Form ist "3840 Pixelbreiten breit x 2160 Pixelhöhen hoch = eine Bazillion Pixelflächen" (und eine "Pixelfläche" ist definitionsgemäß gleich "Pixelbreite * Pixelhöhe" für rechteckige Pixel).

Hinweis Es wird häufig davon ausgegangen, dass Pixelbreite und Pixelhöhe gleich sind (wie in der CSS-Diskussion in der anderen Antwort), und selbst ohne diese Annahme wird davon ausgegangen, dass Pixel rechteckig sind - und diese Annahmen sind oft, aber nicht immer wahr!


Eingabedateien

Pix4Dmapper ist eine Bildbearbeitungssoftware. Die Bilder können entweder JPEG- oder TIFF-Dateien sein.

Verlängerung Beschreibung
.jpg, .jpeg JPEG-Bilder
.tif, .tiff Monochromatisches TIFF
Multiband-TIFF (RGB / Infrarot / Thermal)
1 Ebene (keine Pyramide, keine Multipage)
8, 10, 12, 14, 16 Bit Integer, Gleitkomma

Bild-Geolocation-Datei (Optional)

Pix4Dmapper kann Bilder mit oder ohne Geolokalisierung verarbeiten.

Wenn die EXIF-Bilddaten die Bildposition enthalten, wird die Geolocation-Datei nicht benötigt, da Pix4Dmapper die Geolocation automatisch aus den EXIF-Daten liest. Wenn die EXIF-Daten die GPS-Bildposition nicht enthalten, wird eine Geolokalisierungsdatei benötigt. Die von jeder Kamera oder jedem GPS-System gelieferte Geolokalisierungsdatei kann bearbeitet werden, um mit Pix4Dmapper kompatibel zu sein. Pix4Dmapper kann auch die Geolokalisierungsdateien lesen, die von den UAVs von 3D Robotics, CropCam und QuestUAV und den Kameras von Tetracam geliefert werden.

Die Dateien, die in Pix4Dmapper importiert werden können, sind:


Breitengrad, Längengrad, Höhe

Für geografische WGS84 (Breitengrad, Längengrad, Höhe) Bild-Geolocation-Koordinaten. Die Datei ist eine CSV-, TXT- oder DAT-Erweiterungsdatei. Es enthält vier Spalten pro Zeile und verwendet ein Komma, um die Zeichen zu trennen.

Verlängerung Beschreibung
.csv, .txt, .dat Dateien, aus denen die Geolokalisierung des Bildes importiert werden kann

Das Format der Datei ist in der folgenden Tabelle beschrieben:

Der Breitengrad liegt zwischen -90° und 90°.
Der Längengrad liegt zwischen -180° und 180°

Der Breitengrad liegt zwischen -90° und 90°.
Der Längengrad liegt zwischen -180° und 180°

Der Breitengrad liegt zwischen -90° und 90°.
Der Längengrad liegt zwischen -180° und 180°

Längengrad, Breitengrad, Höhe

Für geografische WGS84 (Längengrad, Breitengrad, Höhe) Bild-Geolocation-Koordinaten. Die Datei ist eine CSV-, TXT- oder DAT-Erweiterungsdatei. Es enthält vier Spalten pro Zeile und verwendet ein Komma, um die Zeichen zu trennen.

Verlängerung Beschreibung
.csv, .txt, .dat Dateien, aus denen die Geolokalisierung des Bildes importiert werden kann

Das Format der Datei ist in der folgenden Tabelle beschrieben:

Der Breitengrad liegt zwischen -90° und 90°.
Der Längengrad liegt zwischen -180° und 180°

Der Breitengrad liegt zwischen -90° und 90°.
Der Längengrad liegt zwischen -180° und 180°

Der Breitengrad liegt zwischen -90° und 90°.
Der Längengrad liegt zwischen -180° und 180°

Für Bild-Geolocation-Koordinaten, die in einem beliebigen projizierten Koordinatensystem (X,Y,Z) angegeben sind. Die Datei ist eine CSV-, TXT- oder DAT-Erweiterungsdatei. Es enthält vier Spalten pro Zeile und verwendet ein Komma, um die Zeichen zu trennen.

Verlängerung Beschreibung
.csv, .txt, .dat Dateien, aus denen die Geolokalisierung des Bildes importiert werden kann

Das Format der Datei ist in der folgenden Tabelle beschrieben:

imagename,X/Easting [Meter],Y/Northing [Meter],Z [Meter] wenn die Einheiten des Systems Meter sind

Bildname,X/Easting [Fuß],Y/Norden [Fuß],z[Fuß] wenn die Einheiten des Systems Fuß sind

Bildname, X/Easting [Meter],Y/Norden [Meter],Z [Meter], Omega [Grad], Phi [Grad], Kappa [Grad] wenn die Einheiten des Systems Meter sind

Bildname, X/Easting [Fuß],Y/Norden [Fuß],Z [Fuß], Omega [Grad], Phi [Grad], Kappa [Grad] wenn die Einheiten des Systems Füße sind

Bildname, X/Easting [Meter],Y/Norden [Meter],Z [Meter], Omega [Grad], Phi [Grad], Kappa [Grad],Genauigkeit Horz [Meter],Genauigkeit Vert [Meter] wenn die Einheiten des Systems Meter sind

Bildname, X/Easting [Fuß],Y/Norden [Fuß],Z [Fuß], Omega [Grad], Phi [Grad], Kappa [Grad],Genauigkeit Horz [Fuß],Genauigkeit Vert [Fuß] wenn die Einheiten des Systems Füße sind

Für Bild-Geolocation-Koordinaten, die in einem beliebigen projizierten Koordinatensystem (Y,X,Z) angegeben sind. Die Datei ist eine CSV-, TXT- oder DAT-Erweiterungsdatei. Es enthält vier Spalten pro Zeile und verwendet ein Komma, um die Zeichen zu trennen.

Verlängerung Beschreibung
.csv, .txt, .dat Dateien, aus denen die Geolokalisierung des Bildes importiert werden kann

Das Format der Datei ist in der folgenden Tabelle beschrieben:

imagename,Y/Northing [Meter],X/Easting [Meter],Z [Meter] wenn die Einheiten des Systems Meter sind

Bildname,Y/Norden [Fuß],X/Ost [Fuß],z [Fuß] wenn die Einheiten des Systems Fuß sind

Bildname, Y/Norden [Meter],X/Easting [Meter],Z [Meter],omega [Grad],phi [Grad], Kappa [Grad] wenn die Einheiten des Systems Meter sind

Bildname,Y/Norden [Fuß],X/Ost [Fuß],Z [Fuß],omega [Grad],phi [Grad], kappa [Grad] wenn die Einheiten des Systems Füße sind

imagename,Y/Northing [meter],X/Easting [meter],Z [meter],omega [degrees],phi [degrees], kappa [degrees],Accuracy Horz [meter],Accuracy Vert [meter] if the units of the system is meters

imagename, Y/Northing [feet],X/Easting [feet],Z [feet],omega [degrees],phi [degrees],kappa [degrees],Accuracy Horz [feet],Accuracy Vert [feet] if the units of the system is feets

3D Robotics Flight Log

The GPS files that 3D Robotics UAVs deliver are compatible with Pix4Dmapper and do not need any editing.

Verlängerung Beschreibung
.txt, .log, .csv Geolocation files that 3D Robotics delivers

CropCam Flight Log

The CropCam Flight Log file is the GPS log file that CropCam UAVs deliver. It is compatible with Pix4Dmapper and it does not need any editing.

The format is an ASCII .txt file. It uses white space to separate the characters.
The camera is usually mounted on Servo8.
The Camera Trigger Value corresponds to the value that the camera servo takes when an image is triggered.
The first image date corresponds to the date and time the first image is taken. The first image geolocation date corresponds to the date and time of the first image geolocation. These 2 values are used to compute the offset in milliseconds between the first image and first image geolocation, in order to correctly match a geotag with each image.

Verlängerung Beschreibung
.txt Geolocation file that CropCAM UAV delivers

QuestUAV Flight Log

The files that QuestUAV delivers are compatible with Pix4Dmapper and does not need any editing.

Verlängerung Beschreibung
.txt, .log, .csv Geolocation files that QuestUAV delivers

Tetracam Flight Log

The file exported by Tetracam's software PixelWrench2 is compatible with Pix4Dmapper and does not need any editing.

Verlängerung Beschreibung
.txt, .log, .csv Geolocation files that Tetracam's software PixelWrench2 delivers

Ground Control Points (GCP) file (optional)

The GCPs are points of the area to map with known coordinates.

Verlängerung Beschreibung
.csv, .txt Files used to import GCPs coordinates into a project

The GCP file format is a .csv or .txt file (ASCII). It contains four or six columns per line for 3D GCPs and 3 or 5 columns per line for 2D GCPs, and use a comma to separate the characters. The formats are described in the table below:

label,latitude[decimal degrees],longitude[decimal degrees]

The latitude value is between -90° and 90°.
The longitude value is between -180° and 180°

label,latitude[decimal degrees],longitude[decimal degrees],Accuracy X [meter],Accuracy Y [meter]

The latitude value is between -90° and 90°.
The longitude value is between -180° and 180°

label,X/Easting [meter],Y/Northing [meter],Accuracy X [meter],Accuracy Y [meter] if the units of the system are in meters
label,X/Easting [feet],Y/Northing [feet],Accuracy X [feet],Accuracy Y [feet] if the units of the system are in feet

label,latitude[decimal degrees],longitude[decimal degrees],altitude[meter]

The latitude value is between -90° and 90°.
The longitude value is between -180° and 180°.

label,latitude[decimal degrees],longitude[decimal degrees],altitude[meter],Accuracy Horz [meter],Accuracy Vert [meter]

The latitude value is between -90° and 90°.
The longitude value is between -180° and 180°.

label,X/Easting [meter],Y/Northing [meter],z[meter],Accuracy Horz [meter],Accuracy Vert [meter] if the units of the system are in meters
label,X/Easting [feet],Y/Northing [feet], z[feet],Accuracy Horz [feet],Accuracy Vert [feet] if the units of the system are in feet

Coordinate system file (optional)

The coordinate system file is a .prj file that contains information about a particular coordinate system. It is optional.

Verlängerung Beschreibung
.prj File used to describe the datum and the coordinate system used

The information contained in the .prj file specifies the:

  • Name of Geographic coordinate system or Map projection
  • Datum
  • Spheroid
  • Prime meridian
  • Units used
  • Parameters necessary to define the map projection, for example:
    • Latitude of origin
    • Scale factor
    • Central meridian
    • False northing
    • False easting
    • Standard parallels

    For more information about how to obtain or create a .prj coordinate system syntax file: How to obtain or create a .prj coordinate system syntax file.

    Beispiel: The content of a .prj file:

    GCP / Manual Tie Point marks file (optional)

    The GCPs/Manual Tie Points need to be marked on the images. Once marked, their image coordinates can be saved into a .txt, .csv or xml file (GCP/ Manual Tie Point marks file). This allows the user to use the same GCPs/Manual Tie Point marks next time needed to run the same project (e.g. adding new images to an existing project) without having to manually re-mark the GCPs/Manual Tie Points.

    Verlängerung Beschreibung
    .txt, .csv, .xml Files used to import GCP image coordinates

    The GCP/Manual Tie Point image coordinate file can be a

    The coordinate system has as origin the upper left part of the image. Its axes are oriented as shown in the image below:

    The GCP image coordinates are given in pixels:

    imagename, GCP/Manual Tie Pointlabel, image coordinate x, image coordinate y, (optional) zoom level, (optional) image directory

    Each image is described in a block starting with the image name and ending with -99. The line containing the image name has 2 elements separated by a white space:

    The other lines in the image block describe the GCP/Manual Tie Point position of the image. The line has 3 elements separated by a white space.

    GCP/Manual Tie Point_name GCP/Manual Tie Point_positionX GCP/Manual Tie Point_positionY

    The GCP/Manual Tie Point_name has to be the name of a GCP/Manual Tie Point that has already been imported/created in the project.
    GCP/Manual Tie Point_positionX and GCP/Manual Tie Point_positionY are the GCP/Manual Tie Point coordinates on the image.

    The coordinate system has as origin the center (Cx, Cy) of the image (not the principal point). Its axes are oriented as shown in the image below:

    The GCP image coordinates can be given in millimeters or in pixels.

    The coordinate system has as origin the upper left part of the image. Its axes are oriented as shown in the image below:

    Figure 3. Image coordinate system

    The GCP image coordinates are given in pixels.

    Point Cloud (optional)

    A Point Cloud generated by an external source such as LiDAR technology can be used in Pix4Dmapper to generate the DSM and Orthomosaic. If such a Point Cloud is used, the Point Cloud generated by Pix4Dmapper is not taken into account for the DSM and Orthomosaic generation.

    Verlängerung Beschreibung
    .xyz, .laz, .las 3D point cloud that can be imported as an external point cloud to generate the DSM and the orthomosaic

    Processing Area (optional)

    If there is no need to generate the outputs for the entire area covered by the images, it is possible to import a file that defines the Processing Area. For more information about the Processing Area: Menu View > rayCloud > Left sidebar > Layers > Processing Area.

    The file can have any coordinate system of the Pix4Dmapper database.

    Verlängerung Beschreibung
    .shp, .kml Describes the Processing Area for which the outputs will be generated

    Radiometric calibration image (optional)

    If there is need to calibrate and correct the image reflectance, taking the illumination and sensor influence into consideration, an image in which a reflectance target with known albedo values is shown can be imported. For more information: Menu Process > Processing Options. > 3. DSM, Orthomosaic and Index > Index Calculator.

    Verlängerung Beschreibung
    .tif, .tiff, .jpg, . jpeg Image in which the calibration target for which the albedo values are known is showh.

    Volume measurements vertices / area

    If there is need to define the volume of a specific area, it is possible to import a .shp file with this area or the vertices that define this area. This .shp file can be generated by Pix4Dmapper or by another software (GIS, CAD). For more information about how to export a volume .shp file with Pix4Dmapper: How to export Volumes.

    Verlängerung Beschreibung
    .shp Describes the area for which the volume measurement will be performed.

    Regions for the Index Calculator

    If there is need to define specific areas for which the Index Maps, the Index values and the Colored Index Maps will be generated, it is possible to import a .shp with the regions.

    Verlängerung Beschreibung
    .shp Describes the regions for which the Index Maps, the Index values and the Colored Index Maps will be generated.

    Pix4Dmapper can process video frames.

    Verlängerung Beschreibung
    .avi, .mp4, .wmv, .mov Video files that can be imported into Pix4Dmapper

    • It is not recommended to record videos for accurate mapping: The quality of the results will almost always be inferior to the results generated using still imagery.
    • 4K videos from cameras such as GoPro 4 and DJI provide reasonable results.
    • Full HD videos are usually not sufficient to get reasonable results.

    For more information about how to use videos for processing: How to use Videos for Processing.


    7 Answers 7

    Depends on your eye. You can realise the curvature of the Earth by just going to the beach. Last summer I was on a scientific cruise in the Mediterranean. I took two pictures of a distant boat, within an interval of a few seconds: one from the lowest deck of the ship (left image), the other one from our highest observation platform (about 16 m higher picture on the right):

    A distant boat seen from 6 m (left) and from 22 m (right) above the sea surface. This boat was about 30 km apart. My pictures, taken with a 30x optical zoom camera.

    The part of the boat that is missing in the left image is hidden by the quasi-spherical shape of the Earth. In fact, if you would know the size of the boat and its distance, we could infer the radius of the Earth. But since we already know this, let's do it the other way around and deduce the distance to which we can see the full boat:

    The distance $d$ from an observer $O$ at an elevation $h$ to the visible horizon follows the equation (adopting a spherical Earth):

    where $d$ and $h$ are in meters and $R=6370*10^3m$ is the radius of the Earth. The plot is like this:

    Distance of visibility D (vertical axis, in km), as a function of the elevation h of the observer above the sea level (horizontal axis, in m).

    From just 3 m above the surface, you can see the horizon 6.2 km apart. If you are 30 m high, then you can see up to 20 km far away. This is one of the reasons why the ancient cultures, at least since the sixth century BC, knew that the Earth was curved, not flat. They just needed good eyes. You can read first-hand Pliny (1st century) on the unquestionable spherical shape of our planet in his Historia Naturalis.

    Cartoon defining the variables used above. D is the distance of visibility, h is the elevation of the observer Ö above the sea level.

    But addressing more precisely the question. Realising that the horizon is lower than normal (lower than the perpendicular to gravity) means realising the angle ($gamma$) that the horizon lowers below the flat horizon (angle between $OH$ and the tangent to the circle at Ö, see cartoon below this is equivalent to gamma in that cartoon). This angle depends on the altitude $h$ of the observer, following the equation:

    wo gamma is in degrees, see the cartoon below.

    This results in this dependence between gamma (vertical axis) and h (horizontal axis):

    Angle of the horizon below the flat-Earth horizon (gamma, in degrees, on the vertical axis of this plot) as a function of the observer's elevation h above the surface (meters). Note that the apparent angular size of the Sun or the Moon is around 0.5 degrees..

    So, at an altitude of only 290 m above the sea level you can already see 60 km far and the horizon will be lower than normal by the same angular size of the sun (half a degree). While normally we are no capable of feeling this small lowering of the horizon, there is a cheap telescopic device called levelmeter that allows you to point in the direction perpendicular to gravity, revealing how lowered is the horizon when you are only a few meters high.

    When you are on a plane ca. 10,000 m above the sea level, you see the horizon 3.2 degrees below the astronomical horizon (O-H), this is, around 6 times the angular size of the Sun or the Moon. And you can see (under ideal meteorological conditions) to a distance of 357 km. Felix Baumgartner roughly doubled this number but the pictures circulated in the news were taken with very wide angle, so the ostensible curvature of the Earth they suggest is mostly an Artefakt of the camera, not what Felix actually saw.

    This ostensible curvature of the Earth is mostly an artifact of the camera's wide-angle objective, not what Felix Baumgartner actually saw.


    How to calculate degrees per pixel in a given image? Or .nth of degree? - Geografisches Informationssystem

    Projections and Coordinate Systems

    Projections and coordinate systems are a complicated topic in GIS, but they form the basis for how a GIS can store, analyze, and display spatial data. Understanding projections and coordinate systems important knowledge to have, especially if you deal with many different sets of data that come from different sources.

    The best model of the earth would be a 3-dimensional solid in the same shape as the earth. Spherical globes are often used for this purpose. However, globes have several drawbacks.

    • Globes are large and cumbersome.
    • They are generally of a scale unsuitable to the purposes for which most maps are used. Usually we want to see more detail than is possible to be shown on a globe.
    • Standard measurement equipment (rulers, protractors, planimeters, dot grids, etc.) cannot be used to measure distance, angle, area, or shape on a sphere, as these tools have been constructed for use in planar models.
    • The latitude-longitude spherical coordinate system can only be used to measure angles, not distances or areas.

    Here is an image of a globe, displaying lines of reference. These lines can only be used for measurement of angles on a sphere. They cannot be used for making linear or areal measurements.

    Positions on a globe are measured by angles rather than X, Y (Cartesian planar) coordinates. In the image below, the specific point on the surface of the earth is specified by the coordinate (60 °. E longitude, 55 den. N latitude). The longitude is measured as the number of degrees from the prime meridian, and the latitude is measured as the number of degrees from the equator.

    For this reason, projection systems have been developed. Map projections are sets of mathematical models which transform spherical coordinates (such as latitude and longitude) to planar coordinates (x and y). In the process, data which actually lie on a sphere are projected onto a flat plane or a surface. That surface can be converted to a planar section without stretching.

    Here is a simple schematic designed to show how a projection works. Imagine a glass sphere marked with grid lines or geographic features. A light positioned in the center of the sphere shines ("projects") outward, casting shadows from the lines. A plane, cone, or cylinder (known as a developable surface) is placed outside the sphere. Shadows are cast upon the surface. The surface is opened flat, and the geographic features are displayed on a flat plane. As soon as a projection is applied, a Cartesian coordinate system (regular measurement in X and Y dimensions) is implied. The user gets to choose the details of the coordinate system (e.g., units, origin, and offsets).

    The projection surfaces (i.e., cylinders, cones, and planes) form the basic types of projections:

    Standard parallels are where the cone touches or slices through the globe.
    The central meridian is opposite the edge where the cone is sliced open.

    Different cylindrical projection orientations:

    The most common cylindrical projection is the Mercator projection, which is the basis of the UTM (Universal Transverse Mercator) system.

    Different orthographic projection parameters:

    [Images placed with permission of Peter Dana]

    Notice in these images how distortion in distance is minimized at the place on the surface that is closest to the sphere. Distortion increases as you travel along the surface farther from the light source. This distortion is an unavoidable property of map projection. Although many different map projections exist, they all introduce distortion in one or more of the following measurement properties:

    Distortion will vary in at least one of each of the above properties depending on the projection used, as well as the scale of the map, or the spatial extent that is mapped. Whenever one type of distortion is minimized, there will be corresponding increases in the distortion of one or more of the other properties.

    There are names for the different classes of projections that minimize distortion.

    • Those that minimize distortion in shape are called conformal.
    • Those that minimize distortion in distance are known as equidistant.
    • Those that minimize distortion in area are known as equal-area.
    • Those minimizing distortion in direction are called true-direction projections.

    It is appropriate to choose a projection based on which measurement properties are most important to your work. For example, if it is very important to obtain accurate area measurements (e.g., for determining the home range of an animal species), you will select an equal-area projection.

    Coordinate Systems

    Once map data are projected onto a planar surface, features must be referenced by a planar coordinate system. The geographic system (latitude-longitude), which is based on angles measured on a sphere, is not valid for measurements on a plane. Therefore, a Cartesian coordinate system is used, where the origin (0, 0) is toward the lower left of the planar section. The true origin point (0, 0) may or may not be in the proximity of the map data you are using.

    Coordinates in the GIS are measured from the origin point. Jedoch, false eastings und false northings are frequently used, which effectively offset the origin to a different place on the coordinate plane. This is done in order to achieve several purposes:

    • Minimize the possibility of using negative coordinate values (to make calculations of distance and area easier).
    • Lower the absolute value of the coordinates (to make the values easier to read, transcribe, calculate, etc.).

    In this image, Washington state is projected to State Plane North (NAD83). All of the locations on the map are now referenced in Cartesian coordinates, where the origin lies several hundred miles off the Pacific coast.

    Some measurement framework systems define both projections and coordinate systems. For example, the Universal Transverse Mercator (UTM) system, commonly used by scientists and Federal organizations, is based on a series of 60 transverse Mercator projections, in which different areas of the earth fall into different 6-degree zones. Within each zone, a local coordinate system is defined, in which the X-origin is located 500,000 m west of the central meridian, and the Y-origin is the south pole or the equator, depending on the hemisphere. The State Plane system also defines both projection and coordinate system.

    The two most common coordinate/projection systems you will encounter in the USA are:

    The state plane system includes different projections for each state, and frequently different projections for different areas innerhalb each state. The State Plane system was developed in the 1930s to simplify and codify the different coordinate and projection systems for different states within the USA.

    Three conformal projections were chosen: the Lambert Conformal Conic for states that are longer in the east-west direction, such as Washington, Tennessee, and Kentucky, the Transverse Mercator projection for states that are longer in the north-south direction, such as Illinois and Vermont, and the Oblique Mercator projection for the panhandle of Alaska, because it is neither predominantly north nor south, but at an oblique angle.

    To maintain an accuracy of 1 part in 10,000, it was necessary to divide many states into multiple zones. Each zone has its own central meridian and standard parallels to maintain the desired level of accuracy. The origin is located south of the zone boundary, and false eastings are applied so that all coordinates within the zone will have positive X and Y values. The boundaries of these zones follow county boundaries. Smaller states such as Connecticut require only one zone, whereas Alaska is composed of ten zones and uses all three projections.


    Schau das Video: High School Graduation Gift Ideas