Mehr

Konvertieren von Adresse in Koordinaten mit OpenLayers 3?

Konvertieren von Adresse in Koordinaten mit OpenLayers 3?


Ist es möglich, mit OpenLayers 3 Adresse in Koordinaten umzuwandeln?

Ich kann es schlecht erreichen, indem ich die Adresse nehme und sie im sucheplanet_osm_pointsTisch und bekommenosm_idund danach suchen dieosm_idInplanet_osm_nodeTisch. Aber das ist ein schlechter Weg. da bin ich mir ziemlich sicherOpenLyers3Ich muss es tun, kann aber nichts im Web finden.


Da Sie OpenLayers 3 ausdrücklich erwähnen, ist dies möglicherweise kein Duplikat. Eine schnelle Google-Suche findet eine Seite der OpenLayers 3-API-Dokumentation. Innerhalb von ga.Map befindet sich ein Eintrag für Geocode, der besagt, dassGeokodierung (Text)wird "Geocode using api.geo.admin.ch", Text ist natürlich ein String.


Die topografischen Basisdaten im Maßstab 1:250.000 umfassen:

  • Planimetrie
  • Umfragesteuerung
  • 1:20.000 und 1:50.000 Referenzraster
  • Konturen
  • Waldgebiete
  • Vergleichsdaten

Blattgrenzen folgen denen der Bundeskarten und können verbundene oder erweiterte Karten sein. Es gab eine nicht standardmäßige Offset-Transformation von NAD27 zu NAD83.

Im Gegensatz zu den Produkten des Terrain Resource Information Management (TRIM) gab es bei der Erstellung dieser Basiskarte keine direkte Datenzusammenstellung.

Dateiformate

Digitale Kartendateien sollen in Geographischen Informationssystemen (GIS) verwendet werden. Die unterstützten Formate sind:

  • MicroStation
  • ArcInfo
  • ESRI-Shapefile (Albers oder UTM)
  • DGN (Albers oder UTM)
  • MOEP (nur UTM)
  • SAIF (nur UTM)

Das Produkt enthält die digitale Basiskarte, das digitale Höhenmodell (DEM) oder beides.

So erwerben Sie

Die topografischen Kartendaten NTS 1:250.000 können im Base Map Online Store bestellt oder in Google Earth geöffnet werden:

NTS 1:250.000 Basiskartendatensätze können vom B.C. Datenkatalog:

Preisgestaltung

1:250K digitale Basiskarte, NTS-Serie (Basiskarte und DEM)

1:250K digitale Basiskarte, NTS-Serie (nur Basiskarte)

1:250K digitale Basiskarte, NTS-Serie (nur DEM)

Lieferzeiten

Das Produkt wird innerhalb von Minuten nach Aufgabe einer Bestellung im Base Map Online Store im angeforderten Format zum Download zur Verfügung stehen. Sie erhalten eine E-Mail mit einem FTP-Link. Die Bestellung wird nach sieben (7) Tagen vom FTP-Server gelöscht.


Der kostenlose Weg zur Geokodierung von Adressen in Excel – Teil 3, Massendaten-Geokodierung mit Nominatim und anderen Geokodierungstools

Der dritte Teil dieses umfangreichen Artikels über Geokodierung soll über ein weiteres kostenloses Geokodierungswerkzeug für MS Excel diskutieren, nämlich das OpenStreetMap Nominatim-Geokodierung und andere verbleibende Werkzeuge, die Aufmerksamkeit verdienen könnten.

Die Verwendung dieses kleinen Tools ist sehr einfach, noch einfacher als die Geokodierung der Bing Maps API, erfordert jedoch ein wenig Kenntnisse über VBA Excel .
Die Situation sieht analog zum Geokodierungstool Bing Excel aus, das separat in der Datei erscheint und für schnelles Arbeiten bereit ist. Die Datei ist hier zusammen mit dem gesamten Tutorial verfügbar. Da dort ebenfalls im Bing Geocoding Fall alles grob erklärt wurde, gehe ich gleich zu der Option, in der wir dieses Tool in unserer eigenen Arbeitsmappe starten können. Ich möchte nur darauf hinweisen, dass die Datei auch die Google API-Geokodierung enthält, die sich oben befindet. Es ist nicht kostenlos im Gegensatz zum Nominatim-Tool darunter (Bild 1), das wir verwenden können.

Bild 1 Das Geokodierungstool für Excel mit der Option Google API oben und der Option Nominatim darunter (rot markiert).

Im Gegensatz zum Geokodierungstool von Bing ist das Nominatim meiner Meinung nach nicht komfortabel genug, um es extern zu verwenden. Das Tool passt jedoch perfekt in unser eigenes Arbeitsblatt, da es im Grunde auf eine Formel beschränkt ist. Wie zuvor sind VBA-Excel-Kenntnisse erforderlich, um dieses Tool zum Laufen zu bringen. Ich werde Ihnen in Kürze zeigen, wie Sie es erreichen.
Zuerst müssen wir die Geocode-Datei öffnen und die VBA-Konsole starten (Abb. 2), von wo aus Sie das Modul mit Funktionen aufrufen (Abb. 3).

Bild 2 Öffnen von VBA Excel in unserer Nominatim Geocode-Datei.

Bild 3 Nominatim Geocoding VBA-Funktion

Da die Geocode-Datei auch auf die Geokodierung in Google zugeschnitten ist, werden Sie oben auf die Geokodierungsfunktionen der Google API stoßen. Bewegen Sie einfach Ihren Schieberegler nach unten, um die Nominatim-Funktionen anzuzeigen.

Der zweite Schritt besteht darin, diesen Code in unsere Arbeitsmappe zu kopieren. Sie müssen kein ganzes Modul ziehen oder exportieren, wie im vorherigen Teil dieses Artikels gezeigt. Sie können einfach die oben rot markierte Nominatim-Funktion auswählen (Abb. 3) und in Ihre eigene Arbeitsmappe kopieren und ein neues Modul dafür erstellen. Das Bild unten (Bild 4) zeigt alle diese Schritte:

Bild 4 Die Schritte zum Kopieren der VBA-Funktion für die Nominatim-Geokodierung in unser eigenes Arbeitsblatt.

  1. Oder eigenes Arbeitsblatt mit Standortbeispielen.
  2. Erstellen (Einfügen) eines neuen Moduls in der VBA-Konsole.
  3. Das neue Modul (Standardmodul1) wurde erstellt, Sie können es jetzt leer mit sehen Option explizit an der Spitze.
  4. Wählen Sie das Ganze aus NominatimGeocode Funktion aus Ihrer Geocode-Datei und kopieren Sie sie.
  5. Fügen Sie diesen Code in ein Modul in Ihrer Arbeitsmappe ein.

Nun können Sie theoretisch in Ihrem eigenen Arbeitsblatt mit der Geokodierung beginnen. Theoretisch, aber in der Praxis ist dies immer noch unmöglich, es sei denn, Sie haben Ihren Code und Ihre VBA-Bibliothek richtig vorbereitet. Das Wichtigste, was Sie hier tun sollten, ist das Laden der angegebenen Bibliothek, um den Fehler “Benutzerdefinierter Typ nicht definiert” zu vermeiden.
In Ihrer VBA Excel-Konsole sollten Sie die “Tools” aus der Hauptsymbolleiste auswählen und als nächstes die “References” ganz oben auswählen. Als nächstes müssen Sie die Microsoft XML v3.0 Bibliothek finden und einschalten (Abb. 5). Es wird in Kürze geladen.

Bild 5 Hinzufügen einer XML v.3-Bibliothek zu Ihrem VBA-Projekt in Excel.

Sie können diese Referenz auch programmgesteuert hinzufügen, wenn Sie mit VBA Excel besser vertraut sind. Es geht schneller, weil Sie nur das Makro ausführen müssen, anstatt in der Bibliotheksliste zu suchen.
Das Beispiel des VBA-Makros zum Anhängen dieser Bibliothek ist unten:

Unter XML3library()
Mit ThisWorkbook.VBProject.References
Application.VBE.ActiveVBProject.References. _
AddFromFile “C:WINDOWSsystem32msxml3.dll” ‘ die Datei der Microsoft XML v3.0 Bibliothek
Ende mit
End Sub

Wenn Sie das folgende XML3library-Makro ausführen, wird Ihre Referenz hinzugefügt.

Als nächstes können Sie mit der Validierung Ihres Codes fortfahren. Ich fürchte, es ist immer noch nicht der richtige Zeitpunkt für die Geokodierung, da Sie möglicherweise eine Fehlermeldung erhalten, die darauf hindeutet. “Variable ist nicht definiert” wie im Bild unten (Bild 6).

Bild 6 Der Fehler “Variable nicht definiert” im VBA-Excel-Code.

Es bedeutet einfach, dass es an mangelt Dim Anweisungen für einige Variablen. Wir sollten eine Variable in unserem Code definieren:

Funktion NominatimGeocode(Adresse als String) als String
Application.Caller.Font.ColorIndex = xlNone
Dim xDoc als neues MSXML2.DOMDocument
Dim vbErr As String
xDoc.async = False
xDoc.Load (“https://nominatim.openstreetmap.org/search?format=xml&q=” + WorksheetFunction.EncodeURL(Adresse))
Wenn xDoc.parseError.ErrorCode <> 0 Then
Application.Caller.Font.ColorIndex = vbErr
NominatimGeocode = xDoc.parseError.Reason
Anders
xDoc.SetProperty “SelectionLanguage”, “XPath”
Dim Loc als MSXML2.IXMLDOMElement
Set Loc = xDoc.SelectSingleNode(“/searchresults/place”)
Wenn Loc nichts ist, dann
Application.Caller.Font.ColorIndex = vbErr
NominatimGeocode = xDoc.XML
Anders
Application.Caller.Font.ColorIndex = vbOK
NominatimGeocode = Loc.getAttribute(“lat”) & “,” & Loc.getAttribute(“lon”)
Ende Wenn
Ende Wenn
Endfunktion

Die rote Linie zeigt das Element an, das Sie Ihrem Code hinzufügen sollten, um ihn ordnungsgemäß auszuführen. Definieren Sie einfach die Variable, die in der Anfangsphase zu fehlen scheint.

Als nächstes können Sie endlich die Geokodierungsfunktion von Nominatim verwenden. In Ihrer Bearbeitungsleiste oder in der Zelle können Sie Folgendes eingeben: NominatimGeocode() und berechnen Sie den Standort wie unten gezeigt (Abb. 7). Das Geokodierungswerkzeug Nominatim kann jetzt in Ihrer eigenen Arbeitsmappe verwendet werden.

Bild 7 Die Nominatim-Funktion in unserer Excel-Arbeitsmappe, die es uns ermöglicht, die Geokodierung des Standorts durchzuführen.

2. ANDERE EXCEL-GEOCODING-TOOLS, DIE WICHTIG SIND

Neben den von mir beschriebenen Tools gibt es noch weitere nützliche Hilfsmittel zur Geokodierung der Adressen in MS Excel. Eine davon wird von OpencageData bereitgestellt, wo Sie Ihren API-Schlüssel registrieren und 2500 Anfragen pro Tag stellen können. Es ist sehr nützlich und viel schneller als Nominatim. Die Geokodierung kann sowohl mit VBA Excel als auch über Google Sheets erfolgen. Unter diesen Links erfahren Sie mehr darüber.

Bild 8 OpenCage-Geokodierungsbeispiel in Google Tabellen.

Ich wünschte, ich könnte es im ersten Teil dieses Artikels vorstellen, der sich ganz der Geokodierung mit Hilfe von Google Sheets widmet. Ich habe es nicht getan, weil wir hier mit einer externen Anwendung kommen, die von JavaScript-Code geschrieben und durch benutzerdefinierte Funktionen definiert wird, anstatt durch ein integriertes Plugin. Besuchen Sie die Homepage und erfahren Sie mehr darüber, wie Sie mit OpenCage 2500 Adressen pro Tag geokodieren.

Eine weitere Möglichkeit der Geokodierung in Excel ist die Installation des Mapcite-Add-Ins. Sie können kostenlos Geokodierungen durchführen, eine Registrierung ist jedoch erforderlich . Die Menge von 5000 Adressen monatlich ist gar nicht so groß, aber trotzdem etwas, wenn einem die anderen Optionen ausgehen. Sobald das Plugin installiert ist, können Sie es im Haupt-Excel-Menüband sehen (Bild 9).

Bild 9 Die Mapcite-Tools im Excel-Menüband.

Ein weiteres Tool, mit dem wir die Geokodierung schnell durchführen können, ist Maplarge.com. Wenn Sie die .csv-Datei mit unserer Adresse anhängen, können wir die ersten 100 Ergebnisse kostenlos erhalten.

Bild 10 Maplarge.com-Geokodierungstool.

Am Ende möchte ich noch LocationIQ.com erwähnen, wo auch Geokodierung möglich ist und mit einem schönen .json Code einhergeht.

In diesen, allen Teilen des großen Artikels, der sich ganz der kostenlosen Geokodierung in Excel widmet, habe ich alle nützlichen Werkzeuge gezeigt, die Ihnen dabei helfen. Persönlich denke ich, dass das beste ist das Geokodierungstool Bing Excel, das wir bequem in unsere Arbeitsmappe integrieren und 10.000 Adressen geokodieren können. Das Erstellen des neuen Profils, um den neuen Bing Maps-API-Code zu erhalten und in unsere Arbeitsmappe einzugeben, ist überhaupt kein Problem. Wenn Sie bei der Geokodierung von Adressen keine Grenzen setzen möchten, ist Nominatim das Beste, aber denken Sie daran, dass dieses Tool ziemlich langsam ist ( 1 Anfrage pro Sekunde ), Sie müssen also warten. Es ist gut, die OpenCage-Geokodierung in Betracht zu ziehen, die Ihnen täglich 2500 Datensätze liefert.

Dies ist die Geokodierung, bei der Koordinaten aus den Adressen gewonnen werden. In naher Zukunft möchte ich die besten finden und Ihnen die kostenlosen Reverse-Geocoding-Geräte für MS Excel erklären, bei denen auf Basis von Koordinaten der Adressstring bereitgestellt wird.


Esri: (umgekehrte) Geokodierung mit ArcGIS REST API und dem Datentyp EXASolution GEOMETRY

Eine Möglichkeit, mit der Geokodierung umzugehen, besteht darin, einen GIS-Dienst (Geographisches Informationssystem) wie ArcGIS (www.arcgis.com) von Esri zu verwenden.

Die folgende Website zeigt verschiedene Anwendungsfälle, in denen ein solcher Dienst nützlich sein könnte:
https://developers.arcgis.com

In diesem Tutorial möchten wir Ihnen zeigen, wie Sie die ArcGIS REST API von Python verwenden:
http://resources.arcgis.com/en/help/arcgis-rest-api

In der Praxis könnten Sie mit folgenden Herausforderungen konfrontiert werden:

  • Verbinden Sie sich mit einer REST-API aus einer EXASolution UDF-Sprache (Python, Java, R, Lua).
  • Wenn Sie vom Datentyp GEOMETRY von EXASolution profitieren möchten (z. B. um Geofunktionen auszuführen), müssen Sie darüber nachdenken, diese Daten in Python-Strings und zurück zu konvertieren.

Diese Lösung verwendet Python und seine Paketanfragen (python-requests.org), um eine Verbindung zur REST-API herzustellen.
Als Beispiel zeigen wir nur Geokodierung und Reverse Geokodierung.


Grad/Minuten/Sekunden (DMS) vs. Dezimalgrad (DD)

Zur Positionierung können wir jeden Ort auf der Erde anhand von Breiten- und Längenkoordinaten finden.

Und wir messen diese Koordinaten mit Dezimalgrade oder Grad/Minuten/Sekunden.

Während die Breitengrade zwischen -90 und +90 Grad liegen, liegen die Längenkoordinaten zwischen -180 und +180 Grad.

Merkst du, wie wir verwenden Grad für Breiten- und Längenkoordinaten? Beginnen wir mit einigen wichtigen Beispielen, warum wir Winkeleinheiten verwenden.

Ein Überblick über geographische Koordinatensysteme

In einem geografischen Koordinatensystem (GCS) können wir jeden Punkt auf der Erde anhand seiner Längen- und Breitenkoordinaten referenzieren. Da ein GCS eine Kugel verwendet, um Orte auf der Erde zu definieren, verwenden wir Winkel, die in Grad vom Erdmittelpunkt zu jedem Punkt auf der Oberfläche gemessen werden.

Bei den Koordinaten (0°N, 0°E) kreuzen sich Äquator und Nullmeridian. Das Lustige ist, dass, wenn Sie sich diesen Ort auf einer Karte ansehen, alles Ozean ist. Aber weil GIS-Profis manchmal fälschlicherweise ihr Projekt beim Hinzufügen von XY-Koordinaten definieren, wurde (0°N, 0°E) zu einem fiktiven Ort namens „Nullinsel“.

Wenn wir uns entlang des Nullmeridians nach Norden bewegen, bleibt der Längengrad auf 0° fixiert. Aber der Breitenwinkel und die Koordinaten nehmen zu, weil wir uns nach Norden bewegen.

Wenn wir uns in einem Winkel von 51,5° nach Norden bewegen, positioniert Sie dies wie unten abgebildet auf dem Royal Observatory in Greenwich, England. Aus diesem Grund ist die 0°-Längenlinie der Referenzstartpunkt. Vom Greenwich Meridian aus können wir Positionen im Osten und Westen finden.

Da der Nullmeridian der 0°-Startpunkt für Längenkoordinaten ist, wird von hier aus alles referenziert.

Zum Beispiel können wir den Winkel auf 80,4° West ändern. Dies bewegt uns 80,4 ° W vom Nullmeridian weg. Und zufällig liegt Pittsburgh auf diesem Längengrad bei etwa (40,4°N, 80,4°W)

Der Equator ist 0° Breite, wo wir Norden und Süden messen. Dies bedeutet, dass alles nördlich des Äquators positive Breitengrade hat. Während alles südlich des Äquators negative Breitengrade hat.

Alternativ ist der Greenwich-Meridian (oder Nullmeridian) eine Nulllinie des Längengrades, von der aus wir Ost und West messen.

Dezimalgrad vs. Grad/Minuten/Sekunden

Eine Möglichkeit, Kugelkoordinaten (Breiten- und Längengrade) zu schreiben, ist die Verwendung von Grad-Minuten-Sekunden (DMS). Minuten und Sekunden reichen von 0 bis 60. Die geografische Koordinate, ausgedrückt in Grad-Minuten-Sekunden für New York City, lautet beispielsweise:

BREITE: 40 Grad, 42 Minuten, 51 Sekunden N
LÄNGENGRAD: 74 Grad, 0 Minuten, 21 Sekunden W

Sie können aber auch geografische Koordinaten in Dezimalgrad ausdrücken. Es ist nur eine andere Möglichkeit, denselben Standort in einem anderen Format darzustellen. Dies ist beispielsweise New York City in Dezimalgrad:

BREITE: 40.714
LÄNGENGRAD: -74.006

Obwohl Sie Koordinaten leicht von Hand umrechnen können, verfügt die FCC über ein DMS-Dezimal-Umrechnungstool, das zwischen Dezimalgrad und Grad/Minuten/Sekunden umwandeln kann.

Versuchen Sie es selbst

Wenn Sie zwei Koordinaten als Paar (X, Y) zusammenfassen, können Sie alles auf der Erde mit einem geographischen Koordinatensystem orten.

Sie können Koordinaten hauptsächlich auf zwei verschiedene Arten ausdrücken. Sie können beispielsweise Dezimalgrad oder Grad-Minuten-Sekunden verwenden. Aber es gibt sogar neue wachsende Möglichkeiten, die Welt anzusprechen, wie zum Beispiel What3Words.

Nachdem sich Ihre Standorte in einem GCS befinden, projizieren Geographen ihre Standorte häufig in ein projiziertes Koordinatensystem (PCS). PCS wie das State Plane Coordinate System (SPCS) oder Universal Transverse Mercator (UTM) basieren immer auf einem GCS, das auf einer Kugel basiert.


Über der Tabelle, die Sie im Screenshot bereitgestellt haben, befindet sich eine Bildunterschrift, die besagt, was diese Zahlen bedeuten:

Ich mache Ihnen nicht die Schuld, dass Sie hierher gekommen sind, um dies zu fragen, denn die Notation ( $ imes 10^4$ ) kann für jemanden verwirrend sein, der nicht daran gewöhnt ist (und ich glaube nicht, dass sie in der Schule im Allgemeinen gelehrt wird). Aber was es bedeutet, ist, dass Zahlen wie 1383, die die $x$ -Koordinate (entlang der $a$-Achse der Elementarzelle) für das 6. Kohlenstoffatom C(6) ist, tatsächlich 0,1383 bedeuten. Die Zahl 1383(3) bedeutet (0,1383 +/- 0,0003). In ähnlicher Weise sind die Koordinaten $y$ und $z$ tatsächlich Bruchlängen entlang der Achsen $b$ und $c$ der Kristallelementarzelle.

Ich mache Ihnen auch keine Vorwürfe, wenn Sie verwirrt sind, was diese Zahlen bedeuten, denn in der Überschrift der Tabelle steht "atomare Positionsparameter", was (zumindest für mich) eine unkonventionelle Art zu sein scheint, "atomare Koordinaten" zu sagen. Zumindest ein anderer Teil des exakt gleichen Papiers beschreibt diese Tabelle jedoch als Auflistung von Atomkoordinaten:

Tabelle 2 enthält auch die "internen Koordinaten", die Sie verwenden würden, wenn Ihr Modellierungsprogramm eine Eingabe im ZMAT-Format erfordert.

Zusammenfassend: Die Tabelle in Ihrer Frage entspricht den Bruchkoordinaten für die Atome in Bezug auf die Elementarzelle (obwohl sie auch Unsicherheiten für jeden Koordinatenwert aufweist). Sie haben in den Kommentaren erwähnt, dass Sie es gewohnt sind, genaue Brüche wie 1/4 und 3/4 zu sehen, aber in diesem Fall ist das Molekül nicht so einfach wie Lehrbuchgitterstrukturen wie NaCl. Wenn sie also experimentell gemessen werden, entsprechen sie keinen einfachen Brüchen und haben eine damit verbundene Unsicherheit.

Im obigen Fall wäre der Bruch CA 1383/10000, aber denken Sie daran, dass es eine Unsicherheit gibt, also wäre die $x$ -Koordinate in Bruchform tatsächlich:


Nutzungshinweise

Wie DataTri Informationen mit unterschiedlichen Verfahren gesammelt wurden, kann diese Zusammenstellung einige inhärente Verzerrungen enthalten, die angegangen werden sollten, wenn die Daten verwendet werden sollen.

Die meisten Daten stammen aus Artikeln, die in wissenschaftlichen Zeitschriften veröffentlicht wurden, zusammen mit denen, die von Kollegen zur Verfügung gestellt wurden. Obwohl die Daten 24 Länder umfassen, gab es einige Länder wie Brasilien, Mexiko und Argentinien, für die das Datenvolumen höher war als für den Rest. Im Fall von Mexiko und Brasilien ist die Anzahl der Ereignisdaten pro Land enthalten in DataTri scheint hauptsächlich von zwei Faktoren beeinflusst zu werden: (i) der Zahl der in jedem Land vorkommenden Triatominenarten (beide Länder haben die höchste Zahl von Triatominenarten) und (ii) der Zahl der veröffentlichten und von Kollegen bereitgestellten Vorkommensdaten ( auch Mexiko und Brasilien sind die Länder mit den meisten erhobenen Daten) eine Erklärung für letzteren Faktor geht über das Ziel dieser Arbeit hinaus. Im Fall Argentinien gibt es auch eine große Anzahl von Ereignisdaten, aber in diesem Fall liegt das daran, dass die DataTri Initiative entstand von argentinischen Forschern mit einem großen Beitrag zu Vorkommensdaten. In Bezug auf die Habitatprobenahme erkennen wir, dass eine potenzielle Verzerrung zugunsten der domizilären und peridomiciliaren Habitate besteht, da dies die Habitate von großer epidemiologischer Bedeutung und das Ziel der Vektorkontrollkampagnen sind. Darüber hinaus ergibt sich der Mangel an waldigen Habitatdaten auch aus der Schwierigkeit der Probenahmeverfahren in der großen Vielfalt von waldigen Habitaten, die von den Triatominen genutzt werden. Schließlich sollte auch klargestellt werden, dass die Datumsinformationen in 35 % der Datensätze nicht verfügbar sind. Daher empfehlen wir, dass jede auf diesem Datensatz basierende Analyse Methoden verwendet, die solche Verzerrungen berücksichtigen.

Trotz der oben beschriebenen Informationsverzerrungen DataTri stellt eine wertvolle Zusammenstellung von geografischen Daten der amerikanischen Triatomine dar, die so vollständig, aktualisiert und integriert wie möglich ist. Im Vergleich zu anderen öffentlichen Biodiversitätsdatenbanken DataTri verdreifacht die Anzahl der in der GBIF-Datenbank gefundenen Datensätze von Triatomin-Daten, und ihr Volumen ist im Vergleich zu anderen öffentlichen Datenbanken wie BISON (https://bison.usgs.gov/#home), INaturalist (https:// www.inaturalist.org/) oder Museen-Websites. Daher, DataTri eine bessere Repräsentativität der Daten in Bezug auf die Anzahl der Arten, die Anzahl der Länder und dass jeder Datensatz einen Standort mit einer genauen geografischen Koordinate hat.

Eine genaue räumliche Information basierend auf geografischen Koordinaten ermöglicht auch die Verknüpfung und Ergänzung mit anderen Datenbanken wie VectorBase, die Daten zu vektorgenetischen Informationen bereitstellt, und einem anderen in Scientific Data 19 veröffentlichten Datensatz, der Daten zu Trypanosoma cruzi Auftreten/Prävalenz beim Menschen, alternativen Wirten und Triatominen. Da dieser Datensatz in einem offenen und öffentlichen Repository gehostet wird, hoffen wir, dass er dazu beiträgt, nationale und internationale Ziele zu erreichen, wie z in mehreren Ländern und Verbesserung des Wissens sowohl über die Biodiversität als auch über epidemiologische Daten im Zusammenhang mit der Chagas-Krankheit.


In diesem Artikel demonstriere ich die richtigen Berechnungen, die bei der Arbeit mit herkömmlichen Vermessungen verwendet werden, die Zustandsebenenkoordinaten verwenden. Ich habe absichtlich eine Traverse in Pennsylvania ausgewählt, die auf ihrer Länge von 2 Meilen etwa 1100 ft klettert. Durch die Untersuchung dieses speziellen Standorts als Beispiel kann der Leser die Auswirkungen der Höhe auf die Berechnungen und die Fehler beim Schließen der Polygonzüge erkennen. Schließlich stelle ich einfachere Methoden vor, die verwendet werden können, wenn die Höhenunterschiede in der Traverse nicht so groß sind.

Eine Beispiel-Traverse

Abbildung 1 zeigt den Weg einer Traverse, die hauptsächlich von Süden nach Norden in der Zone 3701 des Pennsylvania State Plane Koordinatensystems 1983 (SPCS 83) verläuft. Diese Traverse folgt einer Straße, die von der Kreuzung zweier State Highways verläuft und in der Nähe des Eingangs eines State Parks endet. Es erklimmt auch einen Hügel, dessen Höhe vom Anfang bis zum Ende um etwa 1100 ft variiert.

Der Zweck der Demonstration der Berechnungen für diesen Polygonzug ist zweifach. Zunächst werden die Methoden demonstriert, die verwendet werden, um die beobachteten Abstände richtig auf ihre äquivalenten Gitterlängen zu reduzieren. Zweitens zeigt es, wie wichtig es ist, Entfernungen zu reduzieren, indem sowohl die Skalierungsfaktoren als auch die Höhenfaktoren verwendet werden. Die Traverse ist ungefähr 2,25 Meilen lang (10.951 Fuß zwischen den Endpunkten), was einen durchschnittlichen Gehalt von ungefähr 9,9 % über ihre gesamte Länge ergibt.

Die Beobachtungen für diesen Link-Traverse sind in Tabelle 1 . Die ungefähre Höhe (H) an jeder Station wurde einer Karte entnommen. Diese Näherungswerte reichen aus, um einen ungefähren Höhenfaktor für spätere Entfernungsreduzierungen zu bestimmen. Die Geoidhöhe (N) wurde unter Verwendung von ungefähren Koordinaten (später erörtert) und dem Geoid 12A-Modell des National Geodetic Survey (NGS) ( www.ngs.noaa.gov/GEOID/GEOID12A/ ) ermittelt. Die ungefähre geodätische Höhe in Metern für die Stationen wurde abgeleitet mit Gleichung (1). Der Winkel an der Station 2 war zu einer Azimutmarke, die einen geodätischen Azimut von 171°10󈧡.6″ hatte. Die horizontalen Abstände wurden in Fuß angegeben.

Die SPCS 83 NE-Koordinaten von Station 2 in Fuß sind (413892,42, 2.366.343,66) und für Station 12 sind (423.389,71, 2.366.191,75). Der geodätische Azimut bis zur letzten Azimutmarke der Traverse beträgt 359°19󈧏”.

Unter Verwendung der NGS Geodetic Toolkit-Software ( www.ngs.noaa.gov/cgi-bin/spc_getgp.prl ) und der Umrechnung der Stationskoordinaten in Meter sehen wir, dass der Konvergenzwinkel an Station 2 0°57󈧠.13″ . beträgt , und sein Skalierungsfaktor ist 0,9999592. Durch Umkehren der Koordinaten an Station 12 auf derselben Webseite finden wir den Konvergenzwinkel an dieser Station zu 0°57󈧠.19″ mit einem Skalierungsfaktor von 0,9999583. Aus dem anfänglichen Konvergenzwinkel von 57󈧠” in Kombination mit der Tatsache, dass die Endstationen 10.951 Fuß voneinander entfernt sind, können wir sehen, dass, wenn keine Korrektur der geodätischen Azimute vorgenommen würde, alle Stationskoordinaten gedreht und die endgültigen berechneten Stationskoordinaten würde von den angegebenen Koordinaten an Station 12 um mehr als 183 ft abweichen.

Um die Berechnungen zu starten, müssen wir daher zuerst unsere geodätischen Azimute in Gitterazimute umwandeln, indem wir Gleichung (2) wobei Az der Gitterazimut der Linie, α der geodätische Azimut der Linie und γ der Konvergenzwinkel an der Station mit einer Länge von λ ist, der in einer Lambert-konformen konischen Kartierungszone von abgeleitet wird Gleichung (3) wobei λCM die positive westliche Länge des Mittelmeridians ist, die 77°45′ W in Zone 3701 beträgt, und n (auch bekannt als sin φ0) eine abgeleitete Zonenkonstante ist, die 0,661539733812 beträgt. Aus Gleichung (2) sehen wir, dass der Gitterazimut zur ersten Azimutmarke 171°10󈧡.6″ − 0°57󈧠.13″ beträgt, was 170°13󈧅.5″ entspricht. Ebenso beträgt der Rasterazimut von der letzten Station bis zu ihrer Azimutmarke 359°19󈧏” − 0°57󈧠.19″ oder 358°21󈧮.8″.

Aus dem Unterschied der Skalierungsfaktoren an den beiden Endpunkten sehen wir, dass es fünf gemeinsame Stellen (0,99995) und eine variable gibt, was sechs signifikante Stellen in den Skalierungsfaktoren ergibt. Da unsere längste beobachtete Entfernung nur sechs Ziffern enthält, bedeutet dies, dass wir möglicherweise mit einem einzigen Skalierungsfaktor auskommen, um unsere beobachteten horizontalen Entfernungen zu reduzieren. Diese Annahme wäre jedoch falsch, da die Höhenunterschiede von knapp 1100 ft über die gesamte Länge der Traverse zu Höhenfaktoren führen, die in der fünften Dezimalstelle stark schwanken.

An der ersten Station mit einer ungefähren geodätischen Höhe von 1165 Fuß (355,225 m) stellen wir beispielsweise fest, dass der Höhenfaktor (EF) 0,99994425 beträgt von Gleichung (4) wobei Re der durchschnittliche Radius der Erde ist, der 6.371.000 m beträgt. An Station 12 mit einer ungefähren geodätischen Höhe von 684,761 m beträgt der Höhenfaktor 0,99989253. Beachten Sie, dass der Höhenfaktor bei Station 12 unabhängig vom Skalierungsfaktor eine Entfernungsgenauigkeit von nur 1:9300 ergibt.

An diesem Punkt sind wir fast so weit, dass wir Standardberechnungen für den Ebenen-Polygonzug durchführen können. Wir haben unsere Start- und Endazimute im Kartenprojektionssystem der PA-Nordzone zusammen mit den Anfangs- und Endkoordinaten. Allerdings müssen die Abstände noch auf die Kartenprojektionsfläche reduziert werden.

Wie gezeigt in Figur 2 , diese Reduktion erfolgt in zwei Schritten. Zunächst muss die beobachtete horizontale Distanz (Lm) auf ihr geodätisches Äquivalent (Le) reduziert werden. Dies erfolgt unter Verwendung des durchschnittlichen Höhenfaktors für jeden Querverlauf. Die zweite Reduktion besteht darin, die geodätische Länge der Linie zu nehmen und sie auf die Projektionsfläche (Lg) der Karte zu reduzieren. Diese Reduktion erfolgt unter Verwendung einer Funktion der Skalierungsfaktoren auf jedem Kurs.

Für typische Vermessungsarbeiten, bei denen die Länge der Linien relativ kurz ist (wie in diesem Beispiel gezeigt), kann ein durchschnittlicher Skalierungsfaktor unter Verwendung der beiden Endpunkte der Linien mit verwendet werden Gleichung (5) wobei k1 und k2 die Skalierungsfaktoren der Stationen an den Enden der Linie sind.

Bei längeren Distanzen sollte jedoch ein gewichteter Durchschnitt der Skalierungsfaktoren auf Gleichung (6) wobei kmid der Skalierungsfaktor in der Mitte der Linie ist. Die von Vermessern beobachteten typischen Entfernungen rechtfertigen selten die Verwendung von Gleichung (6). Ausschlaggebend ist die Anzahl der gemeinsamen Ziffern in k1 und k2 im Vergleich zur Zeilenlänge.

Wenn beispielsweise zwischen den Stationen 2 und 12 eine Distanz beobachtet werden könnte, dann variieren die Skalierungsfaktoren, wie bereits erwähnt, um die sechste Dezimalstelle (0,9999592 und 0,9999583). Da die Gesamtentfernung zwischen diesen beiden Stationen etwa 10.951,00 ft beträgt, was sieben Stellen hat, ist es ratsam, Gleichung (6) zu verwenden. In diesem Beispiel beträgt unsere längste beobachtete horizontale Entfernung jedoch 2230,58 ft, sodass wir vernünftigerweise davon ausgehen können, dass Gleichung (5) ausreichend ist. Wie in Tabelle 2 zu sehen ist, variieren die Skalierungsfaktoren an den Endpunkten jeder Linie nie vor der siebten Dezimalstelle, was die Verwendung von Gleichung (5) anstelle von Gleichung (6) rechtfertigt, da unsere Entfernungen nur maximal sechs Stellen haben.

Erschaffen Tabelle 2 , müssen wir die ungefähren Höhen an den Endpunkten jeder Entfernung kennen. Diese wurden einem Kartenblatt entnommen. Um die Skalierungsfaktoren (k) zu erhalten, werden, wie bereits erwähnt, auch ungefähre Stationskoordinaten benötigt, um Geoidhöhen an jeder Station zu erhalten. Sie werden unter Verwendung von Standard-Polygonzug-Berechnungen mit beobachteten horizontalen Abständen und Gitterazimuten berechnet.

Diese ungefähren Stationskoordinaten werden dann verwendet, um den Skalierungsfaktor und die Geoidhöhe an jeder Station unter Verwendung geeigneter Software, wie der von NGS bereitgestellten, zu bestimmen. Diese Werte sind in der mit k überschriebenen Spalte in Tabelle 2 angegeben. Der Höhenfaktor an jeder Station wird unter Verwendung von Gleichung (4) und einem durchschnittlichen Erdradius erhalten. Da diese Skalierungsfaktoren einheitenlos sind, können die Entfernungen beliebige Einheiten haben. Es ist jedoch wichtig, sich bei der Berechnung von Gleichung (4) daran zu erinnern, dass Re, h, H und N in den gleichen Einheiten vorliegen, weshalb ich mich dafür entschieden habe, meine Stationshöhen in Meter umzurechnen.

Sobald der Skalierungsfaktor (k) und der Höhenfaktor (EF) für jede Station bestimmt sind, werden sie gemittelt. Ein anderer Ansatz besteht darin, die geodätischen Höhen der Endpunkte zu mitteln, um den durchschnittlichen Höhenfaktor direkt aus Gleichung (4) zu erhalten.

Der kombinierte Faktor (CF) für jeden Kurs wird dann berechnet als Gleichung (7). Dieser kombinierte Faktor wird mit der jeweiligen beobachteten horizontalen Distanz multipliziert, um die äquivalente Kartenprojektions-(Raster-) Distanz zu erhalten, oder Gleichung (8).

Unter Verwendung von Gitterazimuten und Gitterabständen wird der Polygonzug unter Verwendung von Standardebenenberechnungstechniken berechnet. Wenn der Polygonzug in diesem Beispiel mit den beobachteten horizontalen Abständen und Gitterazimuten berechnet worden wäre, wäre der Polygonzug-Fehlschluss 1,25 Fuß mit einer relativen Genauigkeit von 1:9400. Unter Verwendung der Rasterabstände beträgt der lineare Fehlschluss der Traverse jedoch 0,32 ft mit einer relativen Genauigkeit von besser als 1:36.000.

Das Problem mit Bodenkoordinaten

Obwohl es auf der Erdoberfläche kein anerkanntes Koordinatensystem gibt, bestehen einige Vermesser darauf, Koordinatenberechnungen auf der Staatsebene am Boden durchzuführen. Diese Vermesser erkennen, dass sie Bodenkoordinaten erhalten können, wenn sie einfach die Koordinaten der Staatsebene an jeder Station durch den kombinierten Faktor für die Station dividieren. Dies ist zwar richtig, aber bei der Verwendung von Bodenkoordinaten in Berechnungen oder Layoutsituationen ist Vorsicht geboten. Der Grund dafür ist die Höhenlage der Stationen.

Im vorherigen Beispiel haben wir einen kombinierten Faktor bei Station 2 von 0,99990340. Wenn diese in die angegebenen Nord- und Ostkoordinaten für Station 2 geteilt wird, erhalten wir die NE-Bodenkoordinaten von (413,932,405, 2,366,572,265). An Station 12 haben wir einen kombinierten Faktor von 0,99985080, der, wenn er in die Koordinaten für Station 12 geteilt wird, NE-Bodenkoordinaten von (423.452.887, 2.366.544.828) ergibt.

Unter Verwendung der beobachteten horizontalen Abstände, Tisch 3 zeigt die anfänglichen Polygonzugberechnungen. Der Unterschied in den Bodenkoordinaten der Stationen 2 und 12 beträgt 9520.482 Breitengrad und -27.438 Startpunkt. Wie in Tabelle 3 zu sehen ist, unterscheiden sich diese Werte von der Summe der Breiten und Abflüge, die mit beobachteten horizontalen Entfernungen berechnet wurden, um -22.012 ft und -124.891 ft, was zu einem linearen Fehlschluss von 126.382 ft und einer relativen Genauigkeit für die Traverse von 1 . führt :100.

Der Grund für diese großen Abweichungen liegt in den Höhenunterschieden zwischen den Stationen, weshalb diese besondere Traverse gewählt wurde. Wie zu sehen in Figur 3 , liegen die Gitterkoordinaten auf einer ebenen Fläche. Die Bodenkoordinaten werden jedoch radial vom Erdmittelpunkt durch ihre Gitterpositionen auf die topographische Erdoberfläche projiziert. Somit projiziert der horizontale Abstand nicht korrekt auf die zweite Station, da die horizontale Ebene an jeder Station nicht parallel zur Kartenprojektionsfläche ist. Dieser Unterschied ist im Rechenbeispiel zu sehen. Dieser Fehler tritt auch während des Layouts auf. Daher ist es nicht ratsam, Bodenkoordinaten zu verwenden, um Ausrichtungen oder Strukturen zu planen. Sie entsprechen einfach nicht der Theorie der Kartenprojektionen.

Nun mögen einige sagen, dass sie bei der Verwendung von Bodenkoordinaten keinen unangemessenen Fehler festgestellt haben. Dies kann der Fall sein, wenn der Bereich der Erhebung relativ flach ist. In this case the difference in elevations between stations is small and, similarly, the error caused by using ground coordinates may be small. But this is living very dangerously and could not be supported in a court of law if an error does occur.

The Project Combined Factor Method

The computations shown in this article are not complicated, but they certainly do require more effort than simply using the observed horizontal distance. If only the Earth were flat rather than round, this would not be a problem. Well, it is not, so we have a choice. We can use geodetic computations when laying out or observing a station, or we can use a map projection and pretend the Earth is flat. The latter will provide the same results as geodetic computations but requires that all observations are on the map projection surface.

To simplify the computations, manufacturers have developed routines in their survey controllers to handle map projection surfaces. In fact, one obvious method is displayed each time a project is started. Part of the settings for a project is a scale factor. When using state plane coordinates, this scale factor should be set to an average combined factor for the project.

Using the combined factors for Stations 2 and 12, we see that the average combined factor is 0.99987712. If the observed horizontal distances are all reduced using this average combined factor, the traverse misclosure would be 0.40 ft for a survey relative precision of 1:29,000. This differs from the correct computations by only a 0.08-ft difference in the 11,758-ft traverse.

The reader should remember that this survey was selected to demonstrate the proper procedures in reducing observations to a map projection surface. In typical surveys, this large of a difference is seldom seen. In fact, it is more common to see differences only in the 0.001 ft between a single combined factor and proper methods. However, even with that said, it is only 0.08 ft in 11,758 ft or 1:147,000. It is up to the professional to decide if this difference is acceptable for the purpose of the survey.

During layout, the survey controllers will use the single scale factor to determine the proper ground distance. To do this it inverses the map projection coordinates to determine the distance on the map projection surface between the two stations. It then uses a rearranged Equation (7) and the project scale factor to determine the horizontal length at the surface between the two layout stations. Simply put, today’s survey controllers can handle map projection computations both in the direct and inverse modes when a proper combined factor is supplied for the project, thereby removing the drudgery of doing these computations by hand and simplifying the survey.

The bottom line is that only map values should be used to compute mapping coordinates if you wish to compute state plane coordinates and maintain the accuracy of your survey. However, as was shown in this article, it is possible to minimize this work if a single combined factor can be used in distance reductions. When this is the case, a project scale factor is determined for the survey and entered into your survey controller project. The software will then correctly perform the computations whether it is an observation or stake-out situation. This project factor should be part of the metadata of the survey and retained for future reference, just as the original observations are retained.

In areas where geographic information systems (GIS) are being implemented, the state plane coordinate system provides a common reference plane, which allows surveys of various types to be combined into a cohesive map. However, if observations are not properly handled in the computations of the coordinates, the result will be a mismatch of mapping elements that are located by various surveys and, in the end, a map of little or no value.


1. Einleitung

Rapid access to desired geospatial data is the key to data-driven geography in the context of big Earth data (Miller & Goodchild, 2015 ), which requires efficient geospatial data integration and sharing. Unfortunately, the processes of integration and sharing face many challenges. One of the challenges is semantic heterogeneity caused by the characteristics of multiple sources, types, and forms of geospatial data. Many efforts for geospatial data integration and sharing, based on the idea of metadata standards, have been made in the past. Examples include the Federal Geographic Data Committee (FGDC) 1 , the National Spatial Data Infrastructure (NSDI) 2 , the International Organization for Standardization (ISO) 19115 3 , and the National Map from the United States Geological Survey (USGS) (Budak Arpinar et al., 2006 ). However, these efforts only partially addressed the semantic issues (Baglioni, Giovannetti, Masserotti, Renso, & Spinsanti, 2008 Lutz & Klien, 2006 ).

A more promising approach to solve heterogeneity problems is to develop and use ontologies (Baglioni, Giovannetti, Masserotti, Renso, & Spinsanti, 2008 Hu, 2017 ). Ontologies are formal and explicit specifications of shared concepts in a machine-readable way (Gruber, 1993 Studer, Benjamins, & Fensel, 1998 ). Ontologies can be used to provide a semantic description for geospatial data and help computers to understand the semantic meaning implied in the content of geospatial data. Ontologies can also be used to describe the relationships between semantic entities, and the reasoning mechanism of ontologies can help to discover more implicit relationships (Peuquet, 2002 ). Thanks to these advantages, ontologies are among the best solutions to implement geospatial data integration and sharing on the semantic level.

In the 1990s, ontologies were introduced in the domain of geographic information science (Deliiska, 2007 Hahmann & Stephen, 2018 Hu et al., 2013 Li et al., 2017a Liu, Li, Shen, Yang, & Luo, 2018 Reitsma, Laxton, Ballard, Kuhn, & Abdelmoty, 2009 Stock et al., 2012 Sun, Wang, Ranjan, & Wu, 2015 Winter, 2001 ). These past decades have witnessed a rapid development of geo-ontologies, namely extensions of ontologies in geographic information science (GIScience). The insights from the previous studies can be organized into two aspects (Agarwal, 2005 ). The first aspect is trying to provide a unified framework of shared geographic concepts by constructing a top-level geo-ontology, such as the seven-level hierarchy of geo-ontology (Couclelis, 2010 ), 5-tier geo-ontology (Frank, 2001 ), and a semantic reference system (Kuhn, 2003 ). The second aspect is to develop a domain-level geo-ontology to facilitate specific tasks. Many task-oriented geo-ontologies focused on different applications, including information integration (Bittner, Donnelly, & Smith, 2009 Buccella, Cechich, & Fillottrani, 2009 Buccella et al., 2011 Chen, Sabri, Rajabifard, & Agunbiade, 2018 Comber, Fisher, & Wadsworth, 2011 Fonseca, Egenhofer, Agouris, & Camara, 2002 Hong & Kuo, 2015 Uitermark, van Oosterom, Mars, & Molenaar, 2005 Wang, Ma, & Chen, 2018 Zhao, Zhang, Wei, & Peng, 2008 ), information retrieval (Baglioni et al., 2008 Gui et al., 2013 Li, Goodchild, & Raskin, 2014 Lutz & Klien, 2006 Peachavanish & Karimi, 2007 Sun et al., 2015 Wiegand & García, 2007 ), data interoperability (Brodeur, Bedard, Edwards, & Moulin, 2010 Kuo & Hong, 2016 ), semantic representation of geospatial data (Dean, 2007 Fonseca & Llano, 2011 Schuurman & Leszczynski, 2006 Sun et al., 2015 ), geospatial clustering (Wang, Gu, Ziebelin, & Hamilton, 2010 ), spatial decision support (Li, Raskin, Goodchild, & Janowicz, 2012 ), disaster management and response (Xu, Nyerges, & Nie, 2014 Zhang, Zhao, & Li, 2010 ), web service discovery (Chen, Chen, Hu, & Di, 2011 Klien, Lutz, & Kuhn, 2006 ), composition of geoprocessing services (Li et al., 2015 Lutz, 2007 ), urban environment analysis (Fonseca, Egenhofer, Davis, & Borges, 2000 ), and environment modeling (Fallahi, Frank, Mesgari, & Rajabifard, 2008 ). This paper mainly focuses on the studies relevant to geospatial data integration and sharing.

An integration process includes two steps: semantic enrichment and mapping discovery (Buccella et al., 2009 ). Semantic enrichment is to annotate the data with essential semantic information. Mapping discovery is to find the mappings of semantic annotations of different data. According to the roles of ontologies in these steps, ontology-based methods for data integration can be classified into three categories: single-ontology methods, multiple-ontologies methods, and hybrid methods (Wache et al., 2001 ). A single top-level ontology was developed to describe all the relations between different kinds of basic entities that were frequently used to annotate the relations between data in the integration process (Bittner et al., 2009 ). Hong and Kuo ( 2015 ) established multiple bridge ontologies to determine the relations of concepts for cross–domain geospatial data integration. Chenet al. ( 2018 ) also transformed domain knowledge into multiple domain ontologies that were used to bond the data and ontology via semantic enrichment. Buccella et al. ( 2011 ) annotated geospatial data with multiple domain ontologies at the semantic enrichment step, and then a global ontology was introduced to complete the semantic mapping by combining the domain ontologies.

To enable geospatial data sharing, ontologies were used to implement geospatial data discovery at the semantic level in the previous studies. Generally, an ontology was developed to provide a formal and hierarchical semantic annotation for geospatial data, and users can carry out data discovery on the deeper semantic details of geospatial data based on the developed ontology (Stock et al., 2013 ). Lutz and Klien ( 2006 ) first proposed a relatively complete framework, including components for creating an ontology, registration mappings to describe the relationships between the ontology and feature types additionally, a user interface was implemented so that the users could conduct data discovery. Andrade, Baptista, and Davis ( 2014 ) also used an ontology to improve data discovery in terms of space, time, and theme. Wiegand and García ( 2007 ) formalized the relationships between different tasks and information on data sources for each task using an ontology thus, data sources required by a specific task could be found by reasoning on the ontology.

Another focus of geospatial data sharing is to enhance semantic interoperability of geospatial data (Fallahi et al., 2008 ). An ontology-based conceptual framework to describe the different configurations involved in geospatial data interoperability was proposed by Brodeur et al. ( 2010 ), which included five ontological phases (including reality, a cognitive model of reality, and a set of conceptual representations, etc.). Kuo and Hong ( 2016 ) leveraged a bridge ontology to generate semantic mappings of cross-domain concepts to facilitate geospatial data interoperability.

Geospatial metadata was also an important aspect for data sharing. Some studies focused on improving the quality of geospatial metadata using ontologies. Sonneet al. ( 2015 ) initially quantitatively measured two types of metadata uncertainty (incompleteness and inaccuracy) via possibilistic logic and probabilistic statistics subsequently, an ontology that includes these uncertainties was developed to improve the quality of metadata. Schuurman and Leszczynski ( 2006 ) proposed ontology-based geospatial metadata, which added some non-spatial fields to the existing metadata schemas to describe geospatial data, such as sampling methodologies or a measurement specification.

The aforementioned studies greatly facilitated the progress in this field. However, most of these studies developed general ontologies for GIScience domain. The ontologies developed for geospatial data integration and sharing did not consider all aspects of semantic heterogeneity. Only spatial, temporal, and thematic information of geospatial data was used, ignoring the information of provenance and morphology. Hence, integration and sharing of heterogeneous geospatial data require a specialized geospatial data ontology to help deal with the existing semantic issues.

a systematic analysis of the semantic problems in geospatial data integration and sharing

an integral general framework to provide the overall structure and composition of GeoDataOnt and

a multilayer modular GeoDataOnt base that includes the semantic knowledge about geospatial data.

The remainder of this paper is structured as follows. Section 2 describes the characteristics hierarchy of geospatial data. Section 3 presents a systematic analysis of the semantic problems in geospatial data integration and sharing. The general framework of GeoDataOnt is presented in Section 4. Section 5 shows the detailed design and implementation of GeoDataOnt. Section 6 discusses the key limitations, challenges, and broad applications of GeoDataOnt. Section 7 summarizes this paper.


2. Basic idea of the activity design for participatory geo-analysis

The activity that could constitute the problem-solving pathway is the key point of this proposed method for participatory geo-analysis (Voinov et al. 2018 ). These activities can generally be classified into four categories according to their different purposes: awareness-related activities, data-related activities, model-related activities, and application-related activities (Robson et al. 2008 Laniak et al. 2013 Blocken and Gualtieri 2012 ).

(1) The awareness-related activities include a series of tasks to gain awareness about how to conduct a geo-analysis. During these activities, geographic problem-related resources are collected to enhance our understanding of geographic phenomena in geographic problems. Additionally, the background, limitations, accessible methods, and other valuable information about the problems need to be clarified. Therefore, it is important that interdisciplinary participants communicate about ideas and demands, prepare sufficient resources, and sufficiently understand the geographic problems (Badham et al., 2019 ).

(2) The data-related activities include tasks that are primarily relevant to data operations (e.g., converting data formats and editing data). Data are crucial for demonstrating geographic phenomena and processes. However, due to the heterogeneity of data, it is sometimes infeasible to use data directly. The data-related activities aim to prepare appropriate data and discover valuable information by changing the format, structure, attribute, or representation of data. Through these activities, participants can share knowledge, communicate about data processing methods, and conduct data-related operations collaboratively.

(3) The model-related activities involve different tasks and operations that are related to models, such as conceptual model building, model calibration, and model evaluation. A geographic model is an abstract representation of knowledge on geographic systems, and this type of representation can be used in the simulation and analysis of geographic processes (Badham et al., 2019 ). However, using an appropriate method to build a qualified model is usually difficult. Therefore, these activities are needed during modeling practice to generate credible models. In the model-related activities, participant engagement can improve understanding of the interactions in the geographic environment and lead to better modeling outcomes (Jakeman, Letcher, and Norton 2006 ).

(4) The application-related activities involve the application of prepared data, models, and methods to address geographic problems in human life directly. Appropriate data and models that were previously processed or built are used in these activities. For example, a forest growth model was built, and the field data were processed. In the application-related activities, different tasks are required to use these data and models to forecast growth and yield for forest management. Furthermore, participatory application-related activities can help participants, including managers and stakeholders, to balance different viewpoints and obtain better outcomes while addressing geographic problems (Jakeman, Letcher, and Norton 2006 Jones et al. 2009 ).

To help manage different tasks and represent the geo-analysis process during participatory geo-analysis practices, eight core activities are defined from these categories, namely context definition and resource collection, data processing, data analysis, data visualization, geo-analysis model construction, model effectiveness evaluation, geographical simulation, and decision making, as shown in Figure 1 (Jakeman, Letcher, and Norton 2006 Elsawah et al. 2017 Badham et al., 2019 ). These activities are designed in accordance with the purpose of the different tasks in the geo-analysis process. For example, both context definition and resource collection are preparatory tasks for geo-analysis.


Schau das Video: QGIS: How to import GPS coordinate points to a map?