Mehr

Vektor rastern, während Ausdehnung und Auflösung an das Referenzraster angepasst werden?

Vektor rastern, während Ausdehnung und Auflösung an das Referenzraster angepasst werden?


Ich habe eine Vektordatei, die ich in QGIS rastern und deren Auflösung an die Referenzkarte anpassen möchte.

Ich habe es versuchtSpatial_sync_raster-Funktion in R, um alle Raster auf dieselbe Auflösung wie die des Referenz-Raster-Layers einzustellen. Es funktionierte, aber das Ergebnis war nicht so gut wie erwartet, da die Ausgaben mit unterschiedlichen Auflösungen herauskamen (siehe Beispiele unten).

Ich möchte die Auflösung von "u" als die von "g" einstellen.

u-Klasse: RasterLayer-Abmessungen: 130, 228, 29640 (nrow, ncol, ncell) Auflösung: 0,01213899, 0,01213899 (x, y) Ausdehnung: 12,111, 14,87869, 51.68928, 53,26734 (xmin, xmax, ymin, ymax) koord. ref. : +proj=longlat +datum=WGS84 +no_defs +ellps=WGS84 +towgs84=0,0,0 g class : RasterLayerabmessungen : 189, 332, 62748 (nrow, ncol, ncell) Auflösung : 0.008333333, 0.008333333 (x, y .) ) Umfang : 12.10837, 14.87503, 51.7, 53.275 (xmin, xmax, ymin, ymax)

Weiß jemand, wie man die Auflösung beim Rastern der Vektordatei anpasst?


Verwenden Sie dieRastern (Vektor zu Raster)Werkzeug in QGIS. Gehen Sie zu Raster -> Konvertierung -> Rasterisieren. Angenommen, Ihre Vektordatei und das Referenz-Raster (g) befinden sich im selben Koordinatenreferenzsystem (CRS), gehen Sie wie folgt vor:

  1. Durchsuchen Sie die Eingabedatei (Shapefile).
  2. Definieren Sie, welches Attribut aus dem Shapefile den Rasterzellen zugewiesen werden soll.
  3. Wählen Sie Pfad und Namen für das Ausgabe-Raster.
  4. Definieren Sie die Rastergröße in Pixeln. Dies wird gleich seinjetztundncolaus dem Referenzraster.
  5. Klicken Sie auf die Schaltfläche Bearbeiten, um diegdal_rasterizeBefehlszeile. Argument hinzufügen-teeinschließen:xmin,ymin,xmaxundymaxWerte. Kopieren solcher Werte aus dem Referenz-Raster:-te 12.10837, 51.7, 14.87503, 53.275

Die letzte Befehlszeile würde so aussehen:

gdal_rasterize -a Attributname -ts 189 332 -te 12.10837, 51.7, 14.87503, 53.275  

Für weitere Hilfe bei der Parametrierung dergdal_rasterizeWerkzeug, siehe hier.


Rasterisierungsfehler: Polygon-zu-Raster-Konvertierung erzeugt horizontale Linien

Ich arbeite mit Shapefiles in R, die ich von Polygon in Raster konvertieren muss. Während die Vektoren beim Plotten perfekt aussehen, erzeugen sie bei der Konvertierung in ein Raster mit 'rasterize' fehlerhafte horizontale Linien. Hier ist ein Beispiel für das Problem:

Hier ist ein allgemeines Beispiel für den Code, den ich verwende (sorry, dass ich die Daten selbst nicht hochladen kann, da sie proprietär sind):

Scheint dies ein Problem mit den Quelldaten oder der Rasterisierungsfunktion zu sein? Hat jemand so einen Fehler schon mal gesehen? Vielen Dank für jeden Rat, den Sie geben können.


Auf die Homepage gestoßen von Community ♦ gestern

Diese Frage enthält Antworten, die gut oder schlecht sein können. Das System hat sie als aktiv markiert, damit sie überprüft werden können.

Ich habe eine Flussvektordatei.
Ich möchte es so rastern, dass der Fluss 2 Pixel breit ist.
Wie erreiche ich das in QGIS 3.2.3?

Wenn ich versuche, Vektor zum Rastern zu verwenden, erhalte ich dies und es wird keine Datei erstellt:

GDAL-Befehl:
gdal_rasterize -l Uoma10 -burn 0.0 -ts 0.0 0.0 -a_nodata 0.0 -te 413885.10813709395 6754403.012272906 678750.4296324956 6909638.055526119 -ot Float32 -of GTiff C:UsersvvarisDesktopUomaUoma10.shp C:/Users/vvariss/
Ausgabe des GDAL-Befehls:
FEHLER 1: Falscher Wert für Parameter -outsize.

Verwendung: gdal_rasterize [-b Band]* [-i] [-at]

[-l Layername]* [-where Ausdruck] [-sql select_statement]

[-Dialekt-Dialekt] [-Format] [-a_srs srs_def]

[-co "NAME=VALUE"]* [-a_nodata-Wert] [-init-Wert]*

[-te xmin ymin xmax ymax] [-tr xres yres] [-tap] [-ts Breite Höhe]

Ausführung in 0,13 Sekunden abgeschlossen
Ergebnisse:

Laden der resultierenden Ebenen
Algorithmus 'Rasterisieren (Vektor zu Raster)' fertig


Wenn Ihre Raster alle richtig ausgerichtet sind (gleiche ncol, nrow, Ausdehnung, Ursprung, Auflösung), können Sie versuchen, die zu extrahierenden "Zellennummern" zu identifizieren, indem Sie sich die erste Datei ansehen und dann basierend auf diesen extrahieren. Dies könnte die Verarbeitung beschleunigen, da Raster nicht berechnen muss, welche Zellen extrahiert werden sollen. Etwas wie das:

Beachten Sie, dass ich auch eine Liste verwende, um die Ergebnisse zu speichern, um zu vermeiden, dass ein Vektor "angebaut" wird, was normalerweise verschwenderisch ist.

Alternativ können Sie, wie von @qdread vorgeschlagen, einen rasterStack mit raster::stack(rasters2014, quick = TRUE) erstellen und extrahieren über den Stack aufrufen, um die for-Schleife zu vermeiden. Weiß nicht was schneller wäre.

Wenn sich Ihre Polygone nicht überlappen (und in den meisten Fällen nicht), ist eine alternative Route

PS: Schneller ist schöner, aber ich würde vorschlagen, während dieser Zeit zu Mittag zu essen.


2 Antworten 2

Ich hatte genau dieses Problem beim Ausführen der Rasterisierungsfunktion in einem Cluster in R.

Alle Tests funktionierten einwandfrei, aber beim Hochskalieren auf sehr große und fein aufgelöste Raster bekam ich immer wieder Fehler bezüglich temporärer Dateien, die ich nicht einmal auf meinem Computer finden konnte. Das Listenobjekt, das ich zum Zusammenführen und Schreiben als 1 Raster benötigte, war in R, aber ich konnte nichts damit anfangen.

Nachdem ich das temporäre Dateiverzeichnis beobachtet hatte, während der Cluster lief, bemerkte ich, dass beim Schließen des Clusters alle erstellten temporären Dateien automatisch gelöscht werden dein.

Sie könnten bestimmte Dateinamen an calc übergeben (oder z.

Aber schauen Sie sich auch ?clusterR an – ich vermute, dass es mit reklassifizieren funktioniert. Aus den Dokumenten:


Landnutzung rastern und neu klassifizieren

Unser Konzept der Hub-Bibliotheken umfasst eine Präferenz für Bereiche mit starkem Tagesverkehr. Dies wären kommerzielle und institutionelle Bereiche. In Anbetracht der bestehenden Landnutzung können auch Wohngebiete ein guter Kontext sein. Andere Arten der Landnutzung werden nicht unbedingt bevorzugt oder vermieden. Aber andere, wie offene Gewässer oder Feuchtgebiete, sind absolut ausgeschlossen.

Das Eignung der Landnutzung Das Modell beginnt mit der Umwandlung der Polygon-Features aus dem MassGIS 1999 Land Use-Layer in ein Raster. Das Herzstück dieser Funktion ist die Identifizierung eines Feature-Attributs, das die Werte der Zellen in der Ausgabe bestimmt. In diesem Fall verwenden wir die Werte von LU21_1999 Sie können das Datenwörterbuch in den oben verlinkten Metadaten erkunden, um zu sehen, wie wir unsere normalisierten Werte einzelnen Zellenwerten und Bereichen zuweisen. Sehen Sie sich den Zellengrößenparameter der Funktion Feature to Raster an, führen Sie sie aus und überprüfen Sie die Originaltreue des Ausgabe-Layers. Eine tiefere Diskussion und Diagramme zur Bewertung der Zellengröße in kategorialen und kontinuierlichen Rastern finden Sie im Tutorial Digitale Höhenmodelle.

NoData: Erzeugt Leerstellen

Die andere wichtige Sache, die hier zu beachten ist, ist die Verwendung der Keine Daten Wert. NoData erzeugt eine Lücke in der Karte, die aus mehreren Gründen nützlich ist. Die von NoData-Werten erstellten Leerstellen überschreiben alle anderen Werte in einem kartografischen Modell. Sie ermöglichen es Ihnen also, zu vertreten Absolutelu Not in einem multiparametrischen Overlay.

Die von NoData erzeugten Hohlräume bieten auch den Kontext für inkrementelle Funktionen wie Euklidische Distanz oder Kostendistanz.


2 Antworten 2

Sie können Punkte aus dem TIN mit den Werkzeugen Vektor->Geometrie->Stützpunkte extrahieren extrahieren. Ich habe es auf einer PolylineZ-Ebene ausprobiert und die Z-Werte wurden beibehalten.

Ich nehme an, Sie sollten besser die TIN-Interpolation verwenden, um die ursprünglichen Dreiecke zu rastern, Sie finden sie in der Verarbeitungs-Toolbox: QGIS->Interpoation->TIN (oder Sie können eine andere Interpolationsmethode auswählen. Wenn Sie TIN-Kanten als Bruchlinien beibehalten möchten in Ihrem Modell als 3D-Polygone als Bruchlinien hinzufügen.

Interpolationsparameter und Ergebnis

290k Features), stoppt es mit einer unbekannten Ausnahme.
– rr5577
13. Dezember '18 um 8:11


Als zukünftige Referenz - ein möglicher Arbeitsablauf in QGIS >= 3.6:

Führen Sie den Algorithmus "Z-Werte extrahieren" für Ihre PolygonZM-Eingabe aus und extrahieren Sie entweder den Z-Wert des ersten Scheitelpunkts in ein Attribut (das Standardverhalten) oder extrahieren Sie eine abgeleitete Statistik basierend auf den Z-Werten in ein Attribut (z. min/max z-Wert – der Algorithmus hat für all diese Optionen)

Führen Sie den Rasterisierungsalgorithmus (Vektor zu Raster) für die Ausgabe von Z-Werte extrahieren aus. Wählen Sie Ihr neu erstelltes Z-Wert-Feld als "Feld für einen Einbrennwert" aus. Löschen Sie das Feld "fester Wert zum Brennen". Geben Sie die Auflösungs-/Ausdehnungsparameter wie gewünscht ein und führen Sie sie aus.

Die Ausgabe ist ein Raster, das die Z-Werte des ursprünglichen PolygonZM-Eingabevektors enthält.


Mögliche Problemumgehung

Bisher war die einzige Methode, die mir eingefallen ist, die Vorlage zu einem SpatialPoints-Objekt zu zwingen, Werte aus dem ursprünglichen, höher aufgelösten Raster zu extrahieren und das Ergebnis zu rasterize () :

Wenn die Punkte jedoch an den Zentroiden der Rasterzellen erstellt werden, bin ich mir nicht sicher, wie sie beim Extrahieren mit einer Auflösung von 1,5x des ursprünglichen Rasters behandelt werden. Meine bevorzugte Methode wäre, einen SpatialPolygonsDataFrame zu erstellen und mit fun = mean zu rastern, aber (nach meiner Erfahrung) ist das Extrahieren von Rasterwerten mit Polygonen sehr ineffizient.


Was sind die intelligentesten Methoden, um Rasteranalysen zu "skalieren"?

Hallo GISler. Ich bin daran interessiert, typische GIS-Analysen "hochskalieren" zu lernen. Ich hatte gehofft, ich könnte einige Szenarien durchwerfen und einige Meinungen zu Ihren Lieblingsmethoden einholen.

Ein Szenario, das ich habe, ist beispielsweise eine einfache Höhenabfrage für DEM, jedoch für Daten im Wert von 80 GB. Mein Instinkt ist es, ein Skript zu schreiben, das jeweils ein kleineres Raster-Dataset aufnimmt, die Abfrage durchführt, eine Vektorgrenze für diese Abfrage schreibt und dann ein anderes Raster-Dataset hinzufügt, um es erneut zu starten (die Vektordaten speichern, während ich fortfahre, Um sie schließlich zu einer endgültigen Polygongrenze zusammenzuführen).

Ein anderes Szenario verwendet Vektordaten. Wenn ich ein Vektorstraßen-Dataset für ein riesiges Gebiet (gleiche 80-GB-Gesamtausdehnung) rastern möchte, wäre es dann sinnvoll, die Straßen jedes Mal auf die Größe des Rasters zu beschneiden, das ich speichern möchte?

Hoffentlich sind dies genug Informationen, um ein Gespräch zu beginnen, aber ich interessiere mich sehr für die Methoden, die verwendet werden, um typische GIS-Analysen zu skalieren, insbesondere solche, die Vektor-Overlays auf Raster verwenden. Ist das Durchlaufen einer Reihe kleinerer Regionen (sowohl im Vektor als auch im Raster), um ein größeres Ergebnis zu erzielen, der beste Weg für dieses Konzept?

PS Mein Hintergrund / meine Vorliebe ist mit Open-Source-Python Geospatial, also gdal/ogr und postGIS.

Edit: Danke für eure Antworten. Komme einfach nach der Pause darauf zurück.

Nach meiner Erfahrung probiere ich es normalerweise einfach so aus, wie es ist, und schaue, ob meine Maschine damit umgehen kann. Manchmal kann ArcGIS 80+ GB-Dateien verarbeiten, aber manchmal stürzt es ab. Wenn dies der Fall zu sein scheint, teile ich normalerweise das Raster auf (nicht sicher, ob der gleichwertige Begriff in anderer Software verwendet wird), führe den Prozess in einer Schleife durch die Dateien und füge sie wieder zusammen.

Wenn Sie postgresql/postgis kennen, warum nicht einfach alles in postgresql/postgis tun? Dort ist es hervorragend.

Ich dachte nicht, dass Postgis Raster sehr gut handhabt, aber ich werde es versuchen. Liebe Postgis für rein Vetor-Zeug, aber ich weiß nicht, wie man sie sehr gut mit Rasterfunktionen mischt.

Wenn Sie Analysen für sehr große Raster ausführen, besteht die einfachste Methode darin, das Raster zu kacheln und die Kacheln separat zu verarbeiten. Gdal verfügt auch über Funktionen, um Pixelblöcke nativ aus Rastern zu ziehen, wenn Sie die Daten nicht in Kacheln aufteilen möchten.

Gdal ist die Antwort von FOSS und einige sehr leichte Skripte sind alles, was getan werden muss. Obwohl Sie ENVI und ein IDL-Skript für eine umfassende Analyse verwenden könnten, klingt es so, als ob Sie bereits auf dem besten Weg zur Lösung sind, egal ob es sich um die Vektorisierung von Rastern oder umgekehrt handelt.

Das Zusammenführen der Vektorkacheln kann problematisch sein, je nachdem, was Sie für Ihre endgültige Ausgabe genau betrachten. Testen Sie zuerst eine kleine Probe, um herauszufinden, wie Sie dies tun werden.

Wenn Ihr Endanwendungsfall nicht angezeigt wird, fragen Sie einfach ab, ich belasse sie in den Originalformaten TBH.

Hmm, ich habe viele andere Vektordateien, mit denen ich die Ergebnisse überschneiden wollte. Dachte, das wäre als Vektor einfacher.

80 GB sind nicht wirklich viel. Vielleicht solltest du dir deine Hardware anschauen. Ich arbeite regelmäßig an 200-300 GB Rastern.

Haben Sie sich mit der Verwendung einer Array-Datenbank, Rasdaman oder SciDB befasst?

Das sieht mir über den Kopf, ist aber trotzdem interessant.

Ich interessiere mich sehr für die Methoden, die verwendet werden, um typische GIS-Analysen zu skalieren, insbesondere solche, die Vektoren verwenden, die auf Raster überlagert sind.

Die wichtigste Technik zum Skalieren von GIS-Analysen ist die parallele Berechnung mit einer Mischung aus CPU- und GPU-Parallelität, unabhängig davon, ob Sie dies in der lokalen Box oder in der Cloud tun.

Verwenden Sie CPU-parallele Software für einen schnelleren Zugriff auf den Datenspeicher und die Anwendungsinfrastruktur.

GPU-parallele Berechnung für die meisten aktuellen Algorithmen und Arbeiten.

CPU-Parallelität funktioniert selbst mit nur wenigen Kernen bemerkenswert gut bei der Beschleunigung der Vektorarbeit, während massiv parallele Berechnungen mit GPU perfekt für Rasteranalysen geeignet sind. Wenn Ihre Analysen eine Mischung aus Vektor und Raster beinhalten, ist es am besten, parallele Software zu verwenden, die CPU- und GPU-Parallelität im laufenden Betrieb nahtlos mischen und anpassen kann.

Wenn die GPU eng an ein CPU-Parallelsystem gekoppelt ist, können Sie oft in wenigen Minuten erledigen, was bei nicht paralleler Software Stunden dauern kann. Geschwindigkeitsfaktoren von 50 bis 200 sind keine Seltenheit.

Sie müssen nicht einmal die Cloud-Zeit für die Miete der Bank unterbrechen. Eine GPU-Karte im Wert von 150 US-Dollar bietet heutzutage tausend GPU-Kerne und übertrifft Cloud-Konfigurationen, die Ihre Kreditkarte knusprig machen würden. Die meisten Consumer-Computer verfügen standardmäßig bereits über acht CPU-Hypercores plus eine GPGPU-fähige GPU, die in kürzester Zeit nur 80 GB durchschlägt. Sie müssen nichts extra kaufen.

So brillant es auch ist, GDAL/OGR ist leider keine gute Wahl für GPGPU-Arbeiten. Abhängig von Ihren Programmierkenntnissen können Sie FOSS (viele GPGPU-Quellcodes da draußen) oder ein kommerzielles Produkt verwenden. Es gibt noch keine perfekten Lösungen, obwohl einige Produkte nahe kommen und ich denke, dass Sie 2019 viele weitere Optionen von der Stange zu niedrigen oder Nullkosten sehen werden.


Skalierung und Generalisierung sind zwei grundlegende, verwandte Konzepte in Geodaten. Skala hat je nach Kontext mehrere Bedeutungen, sowohl innerhalb der Geoinformatik als auch in anderen Disziplinen. Typischerweise bezieht es sich auf relative Proportionen zwischen Objekten in der realen Welt und ihren Darstellungen. Generalisierung ist der Vorgang, bei dem die Details in Geodaten modifiziert, normalerweise reduziert werden. Sie wird oft von der Notwendigkeit angetrieben, Daten mit einer vergröberten Auflösung darzustellen, was typischerweise eine Folge des reduzierten Darstellungsmaßstabs ist. Mehrere Berechnungen und grafische Modifizierungsprozesse können verwendet werden, um eine Verallgemeinerung zu erreichen, wobei jede eine erhöhte Abstraktion der Daten, ihrer Symbolisierung oder beides einführt.

Raposo, P. (2017). Skalierung und Verallgemeinerung. Das Wissen über Geographische Informationswissenschaft und Technologie (Ausgabe 4. Quartal 2017), John P. Wilson (Hrsg.). DOI: 10.22224/gistbok/2017.4.3

Dieser Eintrag wurde am 12. Oktober 2017 veröffentlicht.

Dieses Thema ist auch in den folgenden Ausgaben verfügbar:

DiBiase, D., DeMers, M., Johnson, A., Kemp, K., Luck, A.T., Plewe, B. und Wentz, E. (2006). Maßstab und Verallgemeinerung. Der Wissensschatz für Geographische Informationswissenschaft und Technologie. Washington, DC: Vereinigung amerikanischer Geographen. (2. Quartal 2016, erste digitale).

DiBiase, D., DeMers, M., Johnson, A., Kemp, K., Luck, A.T., Plewe, B. und Wentz, E. (2006). Datenabstraktion: Klassifizierung, Auswahl und Verallgemeinerung. Der Wissensschatz für Geographische Informationswissenschaft und Technologie. Washington, DC: Vereinigung amerikanischer Geographen. (2. Quartal 2016, erste digitale).

Ausmaß: Der Bereich oder die Entfernung im realen Raum, über dem eine geografische Einheit existiert. In der Kartographie und GIS ist die Ausdehnung einer Darstellung die Größe des dargestellten realen Raums.

Verallgemeinerung: Die Prozesse der Abstraktion und Transformation von Geodaten, um ihre Details zu reduzieren und Versionen zu generieren, die stattdessen nur ihre Haupt-, gemeinsamen oder Hauptkomponenten oder -formen beibehalten.

Problem mit veränderbaren Flächeneinheiten: Ein Problem, das bei der Präsentation oder Analyse von aggregierten Daten auftritt, wobei sich dieselben Prozeduren für dieselben Daten in den berechneten Ergebnissen unterscheiden, wenn das Datenaggregationsschema unterschiedlich ist. Der MAUP wird sowohl durch die Änderung der Größe von Aggregationseinheiten als auch durch die Änderung ihrer Grenzen verursacht, dies sind die Skalen- bzw. Zoneneffekte.

Mehrfachdarstellung: Die Praxis, verschiedene repräsentative Symbole oder Datenobjekte für jedes gegebene abgebildete Objekt zu generieren, wobei typischerweise Varianten für unterschiedliche Abbildungsmaßstäbe und Auflösungen vorgesehen sind.

Operator: Ein einzelner, atomarer Prozess der Verallgemeinerung räumlicher Daten, der häufig dazu dient, bestimmte Geometrietypen wie Linien oder Punkte zu transformieren. Operatoren werden häufig nacheinander oder parallel kombiniert, um eine Generalisierung zu bewirken.

Parameter: Eine in der Regel vom Benutzer festgelegte Variable, die den Grad der Anwendung eines Algorithmus bestimmt. Bei Generalisierungsalgorithmen steuern Parameter (manchmal auch als "Toleranzen" oder seltener als "Bandbreiten" bezeichnet) entweder direkt oder indirekt, wie aggressiv geografische Merkmale abstrahiert werden.

Präzision: Die Wiederholbarkeit ähnlicher Messungen oder Darstellungen die Granularität oder Häufigkeit, mit der ein Sensor oder ein Anzeigemedium Unterscheidungen treffen kann. Siehe Zuordnungsunsicherheit.

repräsentativer Anteil: Ein Verhältnis, das den relativen Größenunterschied zwischen realen Objekten und ihren kartografischen Symbolen angibt. Gegeben in der Form 1:x (z. B. 1:24.000), was bedeutet, dass 1 Entfernungseinheit auf der Karte x Einheiten in der realen Welt entspricht.

Auflösung: Der Detailgrad, mit dem ein Phänomen erkannt oder dargestellt wird. Daten werden mit einem gewissen Grad an Darstellungsauflösung gespeichert und gerendert. Bei Rastersensorarrays wird die Auflösung durch die Abmessungen der einzelnen Sensoren in Bodeneinheiten (d. h. der Breite eines Pixels in Metern auf der Erde) definiert. In vektoriellen Geodaten wird die Auflösung sowohl durch die räumliche Genauigkeit definiert, mit der Scheitelpunkte definiert werden, als auch durch die Dichte der Scheitelpunkte, obwohl beide Maße innerhalb eines einzelnen Datasets stark variieren können. Die Auflösung hängt eng mit der Präzision zusammen. Auch Granularität genannt.

Skala: Ein Maß für die relative Größe von Objekten oder Darstellungen davon. Bei einer konstanten Anzeige- oder Datenerfassungsgranularität korreliert der kartographische Maßstab mit der Auflösung (d. h. Karten mit "größerem Maßstab" haben im Allgemeinen eine höhere Daten- und Grafikauflösung).

Phänomen Skala: Die relativen raumzeitlichen Größen oder Dauern, in denen Objekte und Prozesse in der natürlichen Welt auftreten.

Analyseskala: Die relativen raumzeitlichen Größen oder Dauern, über die etwas untersucht oder simuliert wird.

kartographischer Maßstab: Das Verhältnis zwischen der Größe eines Objekts und seinem repräsentativen Symbol auf einer Karte.

Maßstab ist ein grundlegendes Konzept in praktisch allen Wissenschaften, ist aber besonders wichtig für Geographie, Geoinformationswissenschaft, Fernerkundung und Kartographie. Das Wort hat in allen Kontexten mehrere Bedeutungen, sogar innerhalb einzelner Disziplinen. Die meisten Definitionen des Begriffs beziehen sich auf eine Art von Größe, Maß oder Bereich in einem bestimmten Raum. Der fragliche Raum kann sowohl zeitlich oder thematisch als auch räumlich sein. Maßstabsmaße können Ordinal-, Intervall- oder Verhältnismaße sein. Sie sind selten nominal, da verschiedene Maßstäbe normalerweise einen quantitativen Vergleich erfordern (siehe Statistische Kartierung). Maße werden oft im Plural als "Skalen" bezeichnet (z. B. lokale, regionale und globale Skalen).

Geographen haben verschiedene theoretische Skalenrahmen vorgeschlagen, wie ein hierarchisches Skalensystem basierend auf Theorien der menschlichen räumlichen Wahrnehmung (Montello, 1993), eine Rangordnung räumlicher Ausdehnungen basierend auf der menschlichen Mobilität und Wahrnehmung der natürlichen Welt (Granö, 1997), und eine Möglichkeit zu entscheiden, welche Details in einem gegebenen Maßstab verfügbar sind und welche nicht, indem das menschliche Sehen in verschiedenen Betrachtungshöhen simuliert wird (Li & Openshaw, 1990). Drei Skalenkonzepte sind für GIS&T besonders relevant: Phänomenskala, Analyseskala und kartografische Skala (Montello, 2015).

Phänomenskala - Geographen erkennen, dass Objekte und Phänomene in der realen Welt nur in bestimmten Maßstäben existieren oder beobachtbar sind (z über mehrere Kilometer). Die Phänomenskala bezieht sich auf die raumzeitliche Ausdehnung und Auflösung, die erforderlich ist, um das gegebene Phänomen sinnvoll zu definieren, zu erkennen oder darzustellen. Manchmal müssen Phänomene auf mehreren Skalen betrachtet werden, um beispielsweise zu bestimmen, wie sie von größeren oder kleineren Systemen beeinflusst werden, zu denen sie gehören oder zu denen sie gehören. Beispiele hierfür sind Landnutzungsfälle sowie Klima- und Wettersysteme. Die Bestimmung des Ausmaßes eines Phänomens ist unter anderem für die Analyse in Geographie und Fernerkundung von zentraler Bedeutung und bestimmt die Entscheidungen über Umfang und Auflösung der Datenerfassung. "Große" und "kleine" Phänomenskalen beziehen sich auf größere bzw. kleinere Objekte.

Analyseskala - Die Analyseskala bezieht sich auf die raumzeitliche Ausdehnung und Auflösung, mit der ein bestimmtes Phänomen untersucht wird. In der Praxis wird sie oft teilweise durch die Auflösung der verwendeten Daten sowie durch alle Auflösungen, mit denen Analyseschritte berechnet werden, definiert. Im Allgemeinen sollte die Analyseskala die Skala des untersuchten Phänomens widerspiegeln. Eine zu grobe oder zu feine Analyseskala für das Analysethema kann die fraglichen Phänomene verschleiern.

Kartographischer Maßstab - Der kartografische Maßstab bezieht sich eindeutig auf das Verhältnis von Darstellungsgröße zu tatsächlicher Größe für eine gegebene kartografische Visualisierung oder Karte. Es wird häufig als repräsentativer Bruch ausgedrückt, z. B. 1:25.000, was bedeutet, dass eine auf der Karte gemessene Einheit 25.000 Einheiten in der realen Welt entspricht (z. B. 1 cm auf der Karte entspricht 25.000 cm oder 250 m in der realen Welt ). Diese Beziehung wird manchmal als verbale Skala angegeben (z. B. "ein Zoll = 72 Meilen"). "Große" und "kleine" kartographische Maßstäbe folgen der mathematischen Definition des fraglichen Verhältnisses, wobei größere Maßstäbe Verhältnisse sind, die zu höheren Zahlen rechnen als kleinere Maßstäbe (z. B. 1:25.000 ist größer als 1:50.000). Der kartographische Maßstab kann auch grafisch mit einem Maßstabsbalken ausgedrückt werden, bei dem es sich um eine Linie einer bestimmten Länge handelt, die auf der Karte gezeichnet und mit Anmerkungen versehen ist, um eine bestimmte reale Länge darzustellen. Kartografischer Maßstab wird manchmal als "Visualisierung" oder "Repräsentationsmaßstab" bezeichnet.

Zusätzlich dazu, dass sie in jedem der oben erwähnten Aspekte einen gewissen Maßstab besitzen, können digitale Geodaten in einer Datenbank in einem Maßstab und einer Auflösung gespeichert und zur Anzeige in einem anderen wiedergegeben werden. In beiden Fällen versucht der Geograph, die Daten auf Phänomen- und Analyseskalen zu behandeln, die dem jeweiligen geografischen Thema entsprechen, d. h. auf denen die Konzepte und Objekte in der Landschaft beobachtbar sind und existieren. Kartografische Maßstäbe weichen in der Praxis stärker von bestimmten Phänomenen oder Analysemaßstäben ab, da Karten in vielen Medien und für viele verschiedene Zielgruppen (z. B. Smartphone-Bildschirme und große Wandkarten, geschulte Analytiker und die breite Öffentlichkeit) gezeichnet werden.

Maßstabsänderungen machen häufig eine Generalisierung von Geodaten erforderlich. Mit abnehmendem kartographischem Maßstab nimmt auch die Darstellungsauflösung des Mediums ab, auf dem gezeichnet wird (z. B. eines Pixelbildschirms). Diese Auflösung unterscheidet sich von der, in der die Daten gespeichert oder analysiert werden, und bezieht sich auf den Detaillierungsgrad ihrer Darstellung, normalerweise in kartographischer Form (Tobler, 1988). In Verbindung mit den Grenzen dessen, was das menschliche Auge auflösen kann, erfordert diese geometrische Tatsache häufig, dass Kartographen bei der Darstellung von Geodaten bewusst Details aus den Geodaten entfernen.

Generalisierung ist ein Prozess, bei dem Geodaten einer Abstraktion unterzogen werden. Wie die Projektion stellt die Generalisierung eine Transformation der Daten dar, bei der bestimmte geometrische und topologische Eigenschaften beibehalten werden und andere verloren gehen, obwohl die Generalisierung auch thematische oder Attributeigenschaften verlieren, beibehalten oder transformieren kann. Zwar gibt es bei jedem Datenerfassungsprozess eine inhärente Generalisierung (z. B. begrenzt die Sensorauflösung die erfassbaren Details), aber eine Generalisierung wird normalerweise in Betracht gezogen, wenn sie absichtlich erfolgt. Ein häufiges Beispiel ist bei der Kartenerstellung zu sehen, wenn Kartographen den Detailgrad zwischen verschiedenen thematischen Datenquellen so anpassen, dass sie übereinstimmen. Dies geschieht in der Regel durch Entfernen von Details aus Datensätzen mit höherer Auflösung, bis deren Detailgrad mit Datensätzen mit niedrigerer Auflösung übereinstimmt. Eine iterative oder kontinuierliche Generalisierung ermöglicht mehrfache Darstellungen (Frank & Timpf, 1994) der Merkmale in einem gegebenen Datensatz, wie etwa Rendering-Sätze, die sich kontinuierlich an den Betrachtungsmaßstab und die Auflösung anpassen. Die Forschung zur automatisierten digitalen Generalisierung wird seit dem Aufkommen von GIS betrieben, oft mit dem erklärten Ziel, menschliches kartografisches Wissen, Heuristiken und Techniken zu identifizieren und zu computerisieren.

Kartographen unterscheiden zwischen einer Generalisierung, die an Datenobjekten zum Zweck einer effizienten Speicherung oder Analyse durchgeführt wird, als Modellgeneralisierung, und derjenigen, die durchgeführt wird, um Objekte für die Symbolisierung und visuelle Präsentation vorzubereiten, als kartografische Generalisierung (Grünreich, 1985, Brassel & Weibel, 1988). Die Modellverallgemeinerung ist typischerweise datenreduzierend und wird durch den Wunsch nach Sparsamkeit beim Speicherplatz oder der Rechenkomplexität motiviert. Es kann auch Skalierungsänderungen widerspiegeln, die vorgenommen wurden, um die Daten für eine kontextspezifische Analyse auf eine geeignete Auflösung zu bringen. Die kartografische Generalisierung, die häufig auf die Modellgeneralisierung folgt, reduziert das Datenvolumen nicht immer, obwohl dies häufig der Fall ist. Stattdessen besteht die Hauptmotivation darin, geografische Merkmalsdarstellungen abzuleiten, die für die Analyse oder Anzeige in einem bestimmten Ziel geeignet (z. B. grafisch auflösbar) sind kartografischer Kontext, wie z. B. kartometrische Analysen, oder eine Zoomstufe in einer digitalen interaktiven Kartenanzeige.

Sowohl die Modell- als auch die kartografische Verallgemeinerung werden häufig durch eine Verringerung des Kartenmaßstabs (d. h. ein Herauszoomen) angetrieben, was zu einer entsprechenden Verringerung der grafischen Auflösung führt (Tobler, 1988). Einige Verfahren und Algorithmen zur Verallgemeinerung wurden mit direktem Bezug auf eine quantifizierte Maßstabs- und/oder Auflösungsänderung entwickelt (Perkal, 1956 Buttenfield, 1989 Li & Openshaw, 1990 Dutton, 1999), wobei die bekanntesten davon (Töpfer & Pillewizer, 1966) bekannt als The Radical Law für seine mathematische wurzelbasierte Definition, wie viele Features nach einer gemessenen Maßstabsänderung auf einer Karte verbleiben sollen. Andere gebräuchliche Verfahren orientieren sich an heuristischen oder ad-hoc-Beziehungen, um Veränderung oder Zielskalierung zu skalieren.

Außer aus maßstabsgetriebenen Gründen kann eine Generalisierung auch durchgeführt werden, um einen Datensatz für einen anderen Zweck als den, für den er zusammengestellt wurde, zu verwenden (z einzelne Linie für die Kartendarstellung) oder aus grafischen Gründen oder aus ästhetischen Gründen (z. B. vereinfachte und abstrahierte Geometrie in U-Bahn-Karten wie der berühmten Londoner U-Bahn-Karte).

Eine wichtige Überlegung, die bei der Modellgeneralisierung vielleicht häufiger relevant ist, ist die Auswirkung der Generalisierung auf die Analyse. Als einfaches Beispiel zeigt Abbildung 1 die Auswirkungen der Polygonvereinfachung auf Flächenberechnungen. Dieselben Effekte werden bei generalisierten kontinuierlichen Daten wie Rastern beobachtet, wie in Abbildung 2 gezeigt. Die Generalisierung kann sowohl die Genauigkeit als auch die Präzision verringern (siehe Kartierungsunsicherheit), und Analysten müssen entscheiden, ob die Ebenen von beiden nach der Generalisierung für die Aufgabe geeignet sind oder nicht zur Hand. In analytischen Kontexten verursacht Generalisierung oft das Problem der modifizierbaren Arealeinheiten (siehe Statistical Mapping) (Openshaw, 1984).

Abbildung 1. Die von einem GIS berechnete Fläche von Tennessee vor und nach der Polygonvereinfachung. Beide Polygone werden im Koordinatensystem NAD 83 Tennessee State Plane projiziert.

Abbildung 2. Die Fläche einer Landbedeckungsklasse vor und nach einer Vergröberung der Auflösung und Nächster-Nachbar-Resampling.

Bestimmte atomare Abstraktionsverfahren, die auf Geodaten angewendet werden, um verallgemeinerte Versionen zu erzeugen, werden Operatoren genannt. Diese werden typischerweise über eine bestimmte Art von Eingabegeometrie (z. B. Polygone) definiert und erzeugen eine bestimmte Art von Ausgabegeometrie. Jeder gegebene Operator kann unter Verwendung eines von einer beliebigen Anzahl von Algorithmen ausgeführt werden. Verschiedene Operatoren und Algorithmen wurden für bestimmte Arten von geografischen Merkmalen heuristisch als besser oder schlechter klassifiziert (z. Oft bieten bestimmte Algorithmen die Möglichkeit, ihre Effekte zu kalibrieren, indem sie es Benutzern ermöglichen, Eingabeparameterwerte anzugeben. Diese Werte entsprechen manchmal messbaren Generalisierungseffekten (Raposo, 2013), und andere Zeiten werden durch heuristische Methoden wie Versuch und Irrtum festgelegt.

Mehrere Wissenschaftler haben versucht, Typologien von Generalisierungsoperatoren zu definieren (McMaster & Monmonier, 1989 Li, 2007 Roth, Brewer & Stryker, 2011). Es gibt viele Betreiber, obwohl ihre Namen und genauen Definitionen nicht allgemein anerkannt sind. Die Abbildungen 3 und 4 veranschaulichen einige davon auf Vektor- bzw. Rasterdaten, während Abbildung 5 die Linienvereinfachung in verschiedenen Graden unter Verwendung unterschiedlicher vom Benutzer eingestellter Toleranzparameterwerte zeigt. Ketten oder Arbeitsabläufe, an denen mehrere Operatoren beteiligt sind, werden typischerweise verwendet, um die gewünschten Generalisierungsergebnisse zu erzielen. Die in den Abbildungen 3 und 4 dargestellten Operatoren werden unten definiert.

Vereinfachung - Die Reduzierung der Sinuosität oder Komplexität einer linearen oder polygonalen Form, die normalerweise eine Reduzierung der Scheitelpunkte entlang ihrer konstituierenden Polylinien beinhaltet.

Anhäufung - Die Kombination von Polygonsymbolen zu einer kleineren Anzahl, normalerweise durch Auffüllen des Raums zwischen den anfänglichen Polygonen, um eine geringere Anzahl zusammenhängender Polygone zu erzeugen.

Glätten - Das Ersetzen von scharfen Winkeln in einer Polylinie oder einem Polygon durch Kurven, so dass die Gesamtform weicher wird.

Auswahl/Eliminierung - Die Beibehaltung bestimmter Merkmale und die Ablehnung anderer.

Typisierung - Die Transformation detaillierter polygonaler Merkmale in kanonische, meist einfachere Versionen des darzustellenden Objekttyps (z. B. komplexe Gebäude in einfache Rechtecke).

Verschiebung - Entfernen von Merkmalen von ihren planimetrisch genauen Positionen, um die Lesbarkeit zu verbessern oder eine räumliche Beziehung hervorzuheben (z.

Übertreibung - Hinzufügen von visueller Betonung, normalerweise mit erhöhter Symbolgröße, zu einem Objekt.

Einstufung - Verringerung der Vielfalt von Maßnahmen in einem Datensatz durch Zusammenfassen ähnlicher Maßnahmen.

Trendberechnung - Eine relativ strenge Verallgemeinerung einer Oberfläche in eine mathematisch einfache Funktion, die sich ihr annähert, die üblicherweise durch ein Polynom niedrigerer Ordnung definiert wird.

Öffnen und Schließen (Erweitern und Verkleinern) - Die zunehmende bzw. abnehmende Ausdehnung des Satzes von Bereichen einer bestimmten Klasse in einem klassifizierten Datensatz. Das Öffnen und Schließen wird häufig bei klassifizierten Rasterregionen verwendet und führt dazu, vereinfachte Geometrien der Regionsgrenzen zu erzeugen. Die beiden Operationen sind nicht kommutativ.

Resampling - Ändern der Einheit der aggregierten Daten durch das erneute Erfassen von Quelldaten in Einheiten unterschiedlicher Größe (z. B. Ändern der Auflösung eines Raster-Datasets).

Abbildung 3. Verschiedene Vektorgenerierungsoperatoren, dargestellt über Gebäuden und Straßen.

Abbildung 4. Verschiedene Raster-Generalisierungsoperatoren, dargestellt über einem digitalen Höhenmodell (oben, in Grün) und über einer einzelnen klassifizierten Rasterregion (unten, in Blau). Grüns sind höhere Erhebungen, während Gelbs niedriger sind.

Abbildung 5. Eine Linie, die die östliche Grenze von Tennessee darstellt, vereinfacht mit dem Douglas-Peucker-Algorithmus (1973) auf mehrere Detailebenen unter Verwendung mehrerer Eingabetoleranzwerte.

Die meisten GIS-Projekte bestehen aus mehreren oder vielen Datenschichten. In such sets, generalization (i.e., transformation of geometry and/or thematic attributes) in one layer must be propagated throughout the others, so that all layers correspond and vertically register correctly. For example, given a polyline representing a river and an adjacent polygon representing a city on its shore, simplifying the river may cause it to run through or deviate from the city if the river simplification is to be accepted, the city polygon needs to be displaced such that it lies on the correct shore. The complexity of such inter-layer relationships in generalization makes the overall process necessarily holistic and highly contextual (Müller, 1991).

The majority of generalization operators have thus far been formulated to transform single data themes or layers, and are effectively oblivious of any others. The present state of the art reflects this: propagating generalization through multiple layers is usually done by error-correcting post-processing routines after having generalized individual layers. Such post-processing continues until no further artifacts or errors are detected. Production cartographic generalization work usually still involves some amount human inspection and editing, but research continues on fully-automated methods that resolve clearly-defined cartographic design constraints (Harrie & Weibel, 2007). There has been some success in more comprehensive approaches to the generalization of multiple layers using hierarchical graphs (Frank & Timpf, 1994), agent-based models (Ruas, 2002 Duchêne, Ruas, & Cambier, 2012), continuous optimization approaches (Harrie & Sarjakoski, 2002), and combinatorial approaches (Ware & Jones, 1998). Also, several European national topographic mapping agencies already make use of multi-representation databases to produce map series.

Brassel, K. E., & Weibel, R. (1988). A Review and Conceptual Framework of Automated Map Generalization. Internationale Zeitschrift für Geographische Informationswissenschaft, 2(3), 229-244.

Buttenfield, B. P. (1989). Scale-Dependence and Self-Similarity in Cartographic Lines. Kartographie, 26(1), 79-100.

Douglas, D. H., & Peucker, T. K. (1973). Algorithms for the Reduction of the Number of Points Required to Represent a Digitized Line or its Caricature. Cartographica: The International Journal for Geographic Information and Geovisualization, 10(2), 112-122.

Duchêne, C., Ruas, A., & Cambier, C. (2012). The CartACom Model: Transforming Cartographic Features Into Communicating Agents for Cartographic Generalization. Internationale Zeitschrift für Geographische Informationswissenschaft(advance online publication), 1-30. DOI: 10.1080/13658816.2011.639302.

Dutton, G. (1999). Scale, Sinuosity, and Point Selection in Digital Line Generalization. Kartographie und Geographische Informationswissenschaft, 26(1), 33-53.

Frank, A. U., & Timpf, S. (1994). Multiple representations for cartographic objects in a multi-scale tree - an intelligent graphical zoom. Computers & Geosciences, 18(6), 823-829.

Granö, J. G. (1997). Pure Geography. In O. Granö & A. Paasi (Eds.), Pure Geography. Baltimore, MD: Johns Hopkins University Press. (Originally published in German, 1929.)

Grünreich, D. (1985). Computer-Assisted Generalization. In Papers CERCO-Cartography Course. Frankfurt a.M.: Institut für Angewandte Geodäsie.

Harrie, L., & Sarjakoski, T. (2002). Simultaneous Graphic Generalization of Vector Data Sets. GeoInformatica, 6(3), 233-261.

Harrie, L., & Weibel, R. (2007). Modelling the Overall Process of Generalisation. In W. A. Mackaness, A. Ruas, & L. T. Sarjakoski (Eds.), Generalisation of Geographic Information: Cartographic Modelling and Applications (pp. 67-87). Sonst.

Li, Z. (2007). Algorithmic Foundation of Multi-Scale Spatial Representation. Boca Raton, London, New York: CRC Press. DOI: 10.1201/9781420008432.ch7

Li, Z., & Openshaw, S. (1990). A natural principle of objective generalization of digital map data and other spatial data (Tech. Rep.). Newcastle upon Tyne: CURDS, University of Newcastle upon Tyne.

McMaster, R. B., & Monmonier, M. (1989). A Conceptual Framework for Quantitative and Qualitative Raster-Mode Generalization. In Proceedings of the Annual GIS/LIS Conference. Orlando, Florida.

Montello, D. R. (1993). Scale and multiple psychologies of space. In A. U. Frank & I. Campari (Eds.), Spatial information theory: A theoretical basis for GIS. Proceedings of COSIT ’93. Lecture Notes in Computer Science (Vol. 716, pp. 312-321). Berlin: Springer-Verlag.

Montello, D. R. (2015). Scale in Geography. In N. J. Smelser & P. B. Baltes (Eds.), International Encyclopedia of the Social & Behavioral Sciences (2. Aufl.). Oxford, England: Pergamon Press.

Müller, J. C. (1991). Generalization of spatial databases. In D. J. Maguire, M. Goodchild, & D. Rhind (Eds.), Geographical Information Systems. London, U.K.: Longman Scientific.

Openshaw, S. (1984). The Modiable Areal Unit Problem. Norwich, England: Geo Books, Regency House.

Perkal, J. (1956). On epsilon length. Bulletin de l’Academie Polonaise des Sciences, 4, 399-403.

Raposo, P. (2013). Scale-Specific Automated Line Simplification by Vertex Clustering on a Hexagonal Tessellation. Kartographie und Geographische Informationswissenschaft, 40(5), 427-443. DOI: 10.1080/15230406.2013.803707

Roth, R. E., Brewer, C. A., & Stryker, M. S. (2011). A typology of operators for maintaining legible map designs at multiple scales. Kartografische Perspektiven, 2011(68), 29-64. DOI: 10.14714/CP68.7

Ruas, A. (2002). Les problématiques de l’automatisation de la généralisation. In A. Ruas (Ed.), Généralisation et représentation multiple (pp. 75-90). Hermès.

Tobler, W. R. (1988). Resolution, resampling, and all that. In H. Mounsey & R. F. Tomlinson (Eds.), Building Databases for Global Science: the proceedings of the First meeting of the International Geographical Union Global Database Planning Project (pp. 129-137). Hampshire, U.K.: Taylor and Francis.

Töpfer, F., & Pillewizer, W. (1966). The Principles of Selection. Das kartographische Journal, 3(1), 10-16.

Ware, J., & Jones, C. (1998). Conflict Reduction in Map Generalization Using Iterative Improvement. GeoInformatica, 2(4), 383-407.