Mehr

Shapefile kann nicht als Feature-Class in Geodatabase-Datei geladen werden, mit nur 3 der Felder

Shapefile kann nicht als Feature-Class in Geodatabase-Datei geladen werden, mit nur 3 der Felder


Ich versuche, den Import von Census-Boundary-Shapefiles in eine Feature-Class in einer Geodatabase-Datei zu automatisieren, konnte es jedoch mit diesem Code irgendwie nicht zum Laufen bringen:

### ======================== Grenzkarte laden ==================== =========== outLocation = "C:/python/RA506Final/RA506FinalPro.gdb" outFeatureClass = "RamBoundaryMap" inputTable = "tl_2010_27123_tract10.shp" if arcpy.Exists(inputTable): # Liste der Feldüberschriften zu konvertieren inFields = ['FID', 'Shape', 'GEOID10'] fm= arcpy.FieldMappings() fieldMap= arcpy.FieldMap() für Feld in inFields: fieldMap.addInputField(inputTable, field) fm.addFieldMap(field) #erzeugt eine Fieldmap mit dem Namen des Eingabefeldes vars()[field] = arcpy.FieldMap() fm.addFieldMap(vars()[field]) #fm.AddFieldMap(vars()[field]) #konvertiert sie jetzt arcpy. FeatureClassToFeatureClass_conversion(inputTable, outLocation, outFeatureClass,field_mapping=fm) # In Geodatabase-Datei importierte Ramsey/Hennepin-Grenzkarten-Shapefiles bestätigen x = arcpy.ListFeatureClasses("*", "polygon") for i in x: print i else: print inputTable + " existiert nicht" print arcpy.GetMessage

Hier die Fehlermeldung:

FieldMappings: Fehler beim Hinzufügen einer Feldzuordnung zu Feldzuordnungen


Ihre FieldMap-Objekte müssen für jedes eindeutige Feld unabhängig erstellt werden (sonst erhalten Sie drei Ausgabefelder mit demselben Namen). Ihr Skript verwendet dieselbe VariablefieldMapjedes Mal die Schleife durchlaufen und in das FieldMappings-Hauptobjekt schreiben und dann eine eindeutige neue FieldMap für jedes Feld initiieren, aber nicht definieren.

inputTable = "tl_2010_27123_tract10.shp" inFields = ['FID', 'Shape', 'GEOID10'] #Groß-/Kleinschreibung beachten fm = arcpy.FieldMappings() für Feld in inFields: vars()[field] = arcpy.FieldMap() vars()[field].addInputField(inputTable, field) fm.addFieldMap(vars()[field])

Ich persönlich hasse es, mit zu arbeitenFieldMap/FeldzuordnungenObjekte, da ich es sehr mühsam finde, sie richtig zu konstruieren. Normalerweise würde ich dies tun, indem ich anrufe:

  1. CreateFeatureclass_management(),
  2. AddField_management() für die gewünschten Felder (in diesem Fall nur "GEOID10", da die OID und die Geometrie mit der Feature-Class initialisiert werden), und achten Sie darauf, den gleichen Feldtyp/die gleiche Feldlänge wie das Original zu verwenden, und
  3. Append_management() mitschema_type='NO_TEST'

    Formatieren Sie die Koordinatenwerte, damit ArcMap die Daten korrekt lesen kann.
      Koordinaten in DMS aus einer Datei müssen mit Leerzeichen zwischen den Grad-, Minuten- und Sekundenwerten formatiert werden, wie im folgenden Beispiel gezeigt:

    1. Klicken Sie mit der rechten Maustaste auf den Tabellennamen > In DBF exportieren. Dadurch wird eine Tabelle erstellt, die in ArcMap bearbeitet werden kann.
    2. Fügen Sie ArcMap die neue DBF-Tabelle hinzu.

    In dem Tabelle Klicken Sie im Dialogfeld auf das Tabellenoptionen drücken und auswählen Feld hinzufügen.

    Fügen Sie ein neues Feld namens hinzu LongDD in die Tabelle und definieren das Feld als Typ: Doppel. Akzeptieren Sie die Standardwerte für Präzision und Rahmen.

    Fügen Sie ein zweites neues Feld namens hinzu LatDD zur Tabelle, auch definiert als Typ: Doppel.


    Tipps und Tricks für die getrennte Bearbeitung mit Collector for ArcGIS

    Möchten Sie eine Person oder ein Team von Mitarbeitern einsetzen, um Ihre maßgeblichen geografischen Daten vor Ort zu bearbeiten, ohne eine Verbindung zum Internet zu benötigen? Wir sind auch! Collector for ArcGIS ist der perfekte Client für Sie, wenn Ihr Mobiltelefon oder Tablet ein iOS-, Android- oder Windows-Gerät ist.

    Collector for ArcGIS ist eine einfache native Anwendung, die die Offline-Felderfassung mit einer benutzerfreundlichen Oberfläche ermöglicht. Obwohl die Verwendung der Anwendung einfach ist, stehen mehrere Bereitstellungsoptionen zur Verfügung, die den Einstieg in Collector for ArcGIS etwas kompliziert machen können. Nachfolgend finden Sie eine Liste mit einigen hilfreichen Tipps und Tricks, um Sie so schnell und reibungslos wie möglich offline zu schalten. 1. Collector for ArcGIS erfordert eine eindeutige Identität.

    Collector for ArcGIS erfordert die Authentifizierung von einem "Named User"-Konto innerhalb Ihrer ArcGIS Online-Organisation oder Ihres Portals for ArcGIS. Die Anzahl der Benutzer wird durch die Lizenzstufe Ihres Abonnements bestimmt. Administratoren können zusätzliche Benutzer in die Organisation einladen, oder Gruppen können genutzt werden, um Karten mit Benutzern aus anderen Organisationen zu teilen.

    Um zusätzliche Benutzer zu erwerben, wenden Sie sich an den Esri Kundenservice oder Ihren Account Manager. Tipp: Sie können Collector for ArcGIS nicht mit einem öffentlichen Konto lizenzieren. 2. Collector for ArcGIS ist von einer vorkonfigurierten Webkarte abhängig.

    • Feature: 'Sync'-Vorgang aktiviert
    • Kachel: Kachel exportieren/Offline-Modus aktiviert
    • Funktion: In einer Enterprise-Geodatabase gespeichert, GlobalIDs hinzugefügt, Versionierung oder Archivierung aktiviert
    • Kachel: Kachel exportieren-Vorgang aktiviert
    • Collector Disconnected Editing and Sync Blog
    • Daten für die Offline-Nutzung vorbereiten
    • Offline-Karten und versionierte Daten

    • um den Umgang mit topologischen Overlay-Tools zu erlernen
    • um die Verwendung von Puffern zu lernen
    • um die Verwendung des ArcGIS Model Builder zur Optimierung von Arbeitsabläufen zu erlernen
    1. Führen Sie die Laufwerksersetzung durch, um die Laufwerke L (CD) und M (Wechsellaufwerk) zu erstellen.

    Laufwerkstausch durchführen

    Führen Sie die Laufwerksersetzung durch, um die virtuellen Laufwerke zu erstellen L und M.

    Erstellen Sie ein Verzeichnis für die heutige Übung

    1. Erstellen Sie ein Verzeichnis namens M:v_an_2 um die Daten von heute zu speichern.
    2. Möglicherweise möchten Sie andere Daten von Ihrem Wechseldatenträger löschen, um Speicherplatz freizugeben (außer Ihrer Geodatabase). Ich schlage vor, Kopien all Ihrer alten Aufgaben irgendwo aufzubewahren (Sie können dafür Ihr Dante-Konto verwenden), aber wenn Sie weiterhin Daten auf Ihrem Wechsellaufwerk speichern, wird Ihnen irgendwann im Laufe des Quartals der Speicherplatz ausgehen. Wenn Sie noch das Shapefile der Düker-Inventarzonen aus der Dateneingabe-Lektion haben, wird es in der heutigen Lektion verwendet, also löschen Sie es nicht, aber wenn Sie Ihre Kopie bereits gelöscht haben, können Sie während dieses Teils eine Kopie herunterladen der heutigen Lektion.

    Öffnen Sie ein Projekt

    1. Laden Sie das Projekt herunter v_an_2.mxd (verwenden Sie “Speichern unter…”) und speichern Sie es in M:v_an_2.
    2. Öffnen Sie das Kartendokument in ArcMap.

    Legen Sie das Arbeitsverzeichnis fest

    Stellen Sie sicher, dass Arbeitsverzeichnis festlegen zum M:.

    Da Sie eine Reihe neuer Datensätze erstellen, sparen Sie sich das Navigieren durch eine Reihe von Verzeichnissen. (Geoverarbeitung > Umgebungen.)

    ArcToolbox öffnen

    1. Öffnen Sie ArcToolbox, indem Sie auf klicken (Es dauert 3-5 Minuten, bis ArcMap alle Werkzeuge geladen hat.)
    2. Wenn ArcToolbox nicht in der GUI angedockt ist,Doppelklick oben in der Box und es wird angedockt:

    ArcToolbox ist die Anwendung, die alle Overlay-Analysewerkzeuge enthält.

    Das Anhängen von Layern wird verwendet, um Layer zusammenzufügen, die dieselben Features auf dem Boden darstellen, deren räumliche Ausdehnung jedoch zusammenhängend sind (z. B. Daten, die nach Gemeinden gekachelt sind). Beim Zusammenführen werden alle räumlichen Features an einen Layer angehängt und eine einzelne Attributtabelle erstellt.

    1. Laden Sie die Datei herunter Abschnitte.zip zu M: (Verwenden Sie “Speichern unter”). Diese enthält zwei Shapefiles mit PLSS-Daten (Public Land Survey System) für die Abschnitte, die Pack Forest abdecken.
    2. Entpacken Sie die Zip-Datei.
    3. Importieren Sie die beiden Ebenen (Abschnitte_Nord und Abschnitte_süd) in Ihre Geodatabase: M:NETID.gdb

    Sie haben gerade zwei Ebenen zusammengeführt, die zuvor separat gespeichert wurden. Jetzt sind alle Features der beiden ursprünglichen Layer im neuen Layer vorhanden. Sie können diese Technik verwenden, wenn Sie benachbarte Datasets haben, die dieselben Features darstellen.

    In Übung 4 haben wir eine neue Schicht von Düker-Inventarzonen erstellt. Als es erstellt wurde, sollte es weit über die Grenze des Pack Forest hinausgehen.

    Clip wird jetzt verwendet, um die Zonen auf die räumliche Ausdehnung von Pack Forest zu begrenzen.

    1. Wenn Sie das Shapefile der Düker-Inventarzone nicht gespeichert haben, digitalisieren Sie es entweder jetzt (wenn Sie denken, dass Sie es schnell tun können) oder holen Sie es sich hier (culv_inv.shp) als selbstextrahierende ausführbare Datei.
    2. Extrahieren Sie die Zip-Datei und importieren Sie sie in Ihre Geodatabase M:NETID.gdb nachdem Sie es heruntergeladen haben. Dadurch erhalten Sie eine Feature-Class namens culv_inv.
    3. Mit dem <STRG> Taste gedrückt, klicken Sie auf die Ebenen Durchlässe und Grenze in dem Topologie! Datenrahmen. Klicken Sie mit der rechten Maustaste und wählen Sie Kopieren. Reduzieren Sie die Topologie! Datenrahmen, um das Inhaltsverzeichnis übersichtlicher zu gestalten.
    Erstellen Sie einen neuen Datenrahmen und ändern Sie seinen Namen in Dükerinventar. Der neue Datenrahmen wird automatisch aktiv.

    1. Das Eingabefunktionen (d. h. die Features, die Sie ausschneiden möchten) ist CULV_INV.
    2. Das Clip-Funktionen (das heißt, der “Cookie-Cutter”) ist der Grenze.
    3. Geben Sie den Namen des ein Ausgabe-Feature-Class wie M:NETID.gdbCULV_INV_Clip_boundary.

    Sie haben gerade a . verwendet Clip um die räumliche Ausdehnung eines Polygon-Layers basierend auf der räumlichen Ausdehnung eines anderen Polygon-Layers zu begrenzen. Verwenden Sie diese Technik, wenn Sie eine Schicht durch die äußere Begrenzung einer anderen begrenzen müssen. Manchmal müssen Sie eine Teilmenge Ihrer Daten zuordnen oder analysieren. Anstatt den gesamten größeren Datensatz zu verwenden, können Sie die Ausdehnung auf diese Weise begrenzen.

    Verwenden Sie Identität, um sowohl die räumliche Ausdehnung der Ausgabe durch die Ausdehnung der Identitätsschicht zu begrenzen, als auch alle Attribute aus beiden Eingabe-Datasets auf das Ausgabe-Dataset zu übertragen.

    Sie erstellen einen neuen National Wetlands Inventory-Layer, der auf die Ausdehnung der Pack Forest-Grenze beschränkt ist, aber auch für alle Waldbestandsattribute codiert ist.

    1. Reduzieren Sie die Dükerinventar Datenrahmen und machen die Topologie! Datenrahmen aktiv, und schalten Sie nur die Nwi und Steht Schichten.
    2. Öffnen Sie die Attributtabellen für Nwi und Steht. Notieren Sie die Feldnamen und die vorhandenen Werte.
    3. Das Identität befindet sich in AnalysetoolsÜberlagerung in ArcToolbox.
    4. Doppelklicken Sie auf den Eintrag, um das Werkzeug zu öffnen.
      1. Das Eingabefunktionen sind die Nwi Polygone
      2. Stellen Sie die Identitätsmerkmale zu Steht
      3. Stellen Sie die Ausgabe-Feature-Class zu M:NETID.gdb wi_stands_Identity

      Die Reihenfolge der Eingabe- und Identitäts-Layer ist wichtig, wenn Sie die dafür verwendeten Layer wechseln, hat der Ausgabedatensatz eine andere Geometrie.

      Was genau sind die Flächenmaße für diese Polygone? Glücklicherweise werden die Flächenwerte automatisch angezeigt, da wir Geodatbase verwenden, um unsere Daten zu speichern (Feldname: Shape_Area). Wenn Sie das Shapefile als Datenformat verwenden, müssen Sie “ . verwendenGeometrie berechnen” aus der Attributtabelle dieses Layers, um die Flächenwerte zu aktualisieren.

      Sie haben gerade eine neue Ebene basierend auf der Überlappung zweier Eingabeebenen erstellt. Wenn sich Bereiche zwischen den beiden Eingabe-Layern überlappen, haben die Polygone, die diese Bereiche darstellen, Attributwerte aus beiden Eingaben. Wenn es keine Überlappung gibt, sind nur die Eingabeattributwerte vorhanden. Diese Technik wird verwendet, um Bereiche zu identifizieren, die zwei Layern gemeinsam sind, aber in der Ausgabe sind nur die Koordinatendaten aus dem Eingabe-Layer vorhanden, und wo sich Formen überlappen, werden Features geteilt.

      Schneiden & Geometrie berechnen

      Kontrast Schnittpunkt mit Identität. Es werden die gleichen Schichten verwendet, Nwi und Steht, aber anstelle einer Identität verwenden Sie einen Schnittpunkt.

      1. Öffnen Analysetools > Überlagerung > Schnittmenge.
        1. Wählen Sie erneut NWI und Steht als die Eingabefunktionen .
        2. Das Ausgabe-Feature-Class kann beliebig heißen, aber ich empfehle die Verwendung von M:NETID.gdb wi_stands_Intersect.

        Sie können sehen, dass die Identitätsausgabe die gleiche Gesamtgeometrie der Nwi Datensatz, während die Intersect-Ausgabe auf die gemeinsamen Bereiche beider abgeschnitten wird Nwi und Steht.

        Außerdem sind Identity und Intersect in ihrer Funktionsweise ähnlich, außer dass sich die räumliche Ausdehnung der Ausgabe unterscheidet. Wo keine Überlappung vorhanden ist, werden Polygonbereiche gelöscht.

        Union die Böden Polygonschicht und die and Steht Polygonschicht.

        1. Öffnen Sie in ArcToolbox das Union Werkzeug. Wie bei Intersect spielt die Reihenfolge von Eingabe und Überlagerung keine Rolle.
        2. Verwenden Sie in ArcMap die <STRG> -Taste und wählen Sie beide Böden und Steht Schichten. Ziehen Sie diese in die Eigenschaften Kontrolle in der Union Werkzeug.

        Union ähnelt Identity und Intersect, aber alle Features aus allen Eingabe-Layern werden in der Ausgabe beibehalten. Denken Sie daran, dass in Identity nur die Geometrien aus dem Eingabe-Layer in Intersect beibehalten werden, nur allgemeine Geometrien werden beibehalten.

        Identity und Intersect können Polygon-Layer mit Punkt- oder Linien-Layern sowie mit Polygon-Layern koppeln.

        Benutzen Aktualisieren um den Inhalt eines Polygon-Layers durch den Inhalt eines anderen zu ersetzen. Hier aktualisieren wir die Böden Schicht mit der Seen Schicht. Dies kann nützlich sein, wenn Sie über ein neueres oder genaueres Dataset verfügen, das Sie verwenden möchten, um Teile eines vorhandenen Datasets zu ersetzen.

        1. Ergänzen Sie die L:packgispackgis.gdbforestlakes Schicht zum Datenrahmen.
        2. Öffne das AktualisierenWerkzeug aus ArcToolbox.
          1. Ziehen Böden von ArcMap in die Eingabefunktionen Steuerung.
          2. Ziehen Seenpolygon zum Update-Funktionen Steuerung.
          3. Navigieren Sie zur Geodatabase und legen Sie den Namen des neuen Datensatzes auf fest Böden_updated_with_lakes.

          Sie haben gerade Teile eines Polygon-Layers durch Polygone aus einem anderen Layer ersetzt.

          Kontrast Aktualisieren mit Löschen. Löschen entfernt die überlappenden Features aus dem Eingabe-Layer. Entfernen Sie in diesem Beispiel die Seen Bereiche komplett aus dem Böden Schicht.

          1. Öffne das LöschenWerkzeug.
            1. Das Eingabefunktionen ist eingestellt auf Böden.
            2. Das Löschfunktionen (“Ausstecher”) ist Seenpolygon.
            3. Platzieren Sie die Ausgabe in der Geodatabase als Böden_erased_with_lakes.

            Sie haben gerade Teile eines Polygon-Layers mit Polygonen aus einem anderen Layer gelöscht. Überall dort, wo es Überschneidungen gab, wurden Bereiche entfernt.

            Beim Puffern wird ein neuer Polygon-Layer entweder mit konstantem oder variablem Abstand zu Features in einem Eingabe-Layer erstellt. In dieser Übung erstellen Sie basierend auf dem Straßentyp Puffer mit variabler Breite um Straßen herum. Sie ordnen jedem Straßensegment eine Pufferentfernung zu, indem Sie eine Übersichtstabelle erstellen und die Übersichtstabelle vorübergehend mit der Straßentabelle verbinden. Dies ist ein bevorzugtes Verfahren, da es die Straßentabelle nicht dauerhaft ändert, sobald der Puffer fertig ist, die Verbindung kann unterbrochen werden.

            1. Erstellen Sie einen neuen Datenrahmen namens Straßenpufferung.
            2. Ergänzen Sie die Straßen Schicht aus L:/packgis/packgis.mdb/forest/roads zu diesem Datenrahmen.

            1. Öffnen Sie die Attributtabelle für den Layer.
            2. Erstellen Sie eine Zusammenfassung basierend auf dem KLASSIFIZIEREN Feld.
            3. Geben Sie keine zusammenfassenden Statistiken an (dadurch wird eine einfache Tabelle mit einem Datensatz für jede Straßenklasse erstellt).
            4. Geben Sie die Ausgabetabelle an als M:NETID.gdb oads_classify_summary.

            1. Das Eingabefunktionen sollte eingestellt werden auf Straßen.
            2. Stellen Sie die Ausgabe-Feature-Class zu road_buffer_by_classify innerhalb der Geodatabase.

            Sie haben gerade Puffer mit variabler Breite für Straßen-Features erstellt. Die Puffer definieren einen Bereich, der einen diskreten Abstand von jedem gepufferten Straßensegment hat. Jedes Vektor-Feature kann auf diese Weise gepuffert werden. Es ist üblich, Features zu puffern, um Einflussbereiche abzugrenzen oder Bereiche mit veränderter Landnutzung zu schaffen. Beispielsweise sind nach den aktuellen Forstvorschriften je nach Bachklasse unterschiedliche Aktivitäten in unterschiedlichen Abständen zum Bachkanal zulässig.


            Organisieren von vielen schrecklich organisierten Daten.

            Ich möchte Ihnen mein aktuelles Szenario darlegen und hoffentlich eine Meinung dazu bekommen, was ich tue und was ich tun kann.

            Ich wurde als GIS-Techniker eingestellt, aber es ist wirklich keine genaue Beschreibung des Jobs. Ich arbeite für einen kleinen Landkreis und bin die einzige GIS-kompetente Person im Landkreis. Vielleicht einer von drei im Umkreis von 75 Meilen. Das bedeutet, dass ich Eigentümer, Betreiber und Schiedsrichter für alle GIS-, Kartierungs- und Datenangelegenheiten bin. Außerdem beschäftige ich mich intensiv mit Gutachten und landwirtschaftlichen Gutachten. Womit ich einverstanden bin. Ich plane, diese Position für die nächsten 25 Jahre oder so zu behalten.

            Womit ich nicht einverstanden bin, ist, dass es in den letzten zehn Jahren bei mehreren Vorgängern 0 Richtung und 0 Organisation gegeben hat. Ich spreche Dutzende von duplizierten Shapefiles über Dutzende von halbfertigen Projekten, alle ohne Notizen, keine Daten, keine Hinweise darauf, was sie waren oder wohin sie gehen. Einige kann ich zusammensetzen (Ein Punkt-Shapefile ohne Felder jenseits von ObjectID und Geometry namens 'MH' in einem Ordner namens 'Sanitary', na ja, das sind wahrscheinlich Kanaldeckel oder so). Bei jeder RFI, die jemals durchgeführt wurde, wurden MXDs in einen Ordner geworfen, mit den zugehörigen RFI-spezifischen Daten über mehrere Netzlaufwerke und Interessenbereiche. Und ich meine nicht, dass sie projektunabhängige Daten aus ihrem Zuhause ziehen - sie haben neue Shapefiles für genau diese RFI erstellt/extrahiert und sie einfach überall hingeworfen. Ich habe die Anzahl der Dateien mit dem Namen ɾxport_Output' verloren, die am Ende wichtig waren, oder einen Ordner in der Netzwerkfreigabe voller 'New Folder(x)' gefunden.

            Also beschloss ich, alles, was wir haben, herauszuziehen und nacheinander zu inspizieren, wobei RFI-spezifische Daten, die nicht aufbewahrt werden könnten, nicht korrigierbare Daten usw. usw. verworfen werden. Mein Endziel ist es, eine oder zwei Geodatabases zu erstellen, damit alle Daten vorliegen an einem zentralen Ort und es gibt nur eine Feature-Class, die pro Thema/Typ/was auch immer verfolgt werden muss. Ich weiß, dass der Landkreis klein genug ist, um alles in File-Geodatabases zu speichern, daher mache ich mir noch keine Sorgen um Unternehmenslösungen.

            Mein derzeitiger Plan, und wo ich mich bisher befinde, ist, dass ich alle offensichtlich unnötigen Daten aus der Überlegung herausgenommen habe und mir ein paar hundert (statt ein paar tausend) Formen übrig bleiben. Ich habe sie nach einem breiten Thema sortiert (Versorgung, Naturschutz, Transport usw.) und jetzt mache ich eine tiefere Sortierung. Bei den Versorgungsunternehmen sind es also Wasser- und Sanitärleitungen, Bordsteine, Erdgasleitungen usw. Dann werde ich beginnen, nach doppelten Daten und Überschneidungen zu suchen. Ich plane dann, für jedes Thema einen Standardsatz von Feldern und Datendefinitionen zu entwickeln und sie nach Geometrie zusammenzuführen. Damit gibt es eine Versorgungs-Polylinie mit Wasser- und Abwasserleitungen, Erdölleitungen, Strom usw. Dann einen Versorgungspunkt mit Liftstationen, Glasfaser-Tresoren und so weiter.

            Gehen Sie dann für alles in einer Geodatabase genauso vor. Nehmen Sie dann all diese neuen semi-organisierten Daten und verschieben Sie sie gemäß einem neuen Schema in eine File-Geodatabase. Dann habe ich vor, den IT-Mann den ganzen alten Müll für alle Fälle in ein Archiv zu legen und die Ordner auf unseren Netzlaufwerken zu organisieren.

            Aus meiner Sicht scheint es eine gute Idee zu sein. Vielen Dank für das Lesen meines Blog-Beitrags und bitte legen Sie etwas Weisheit auf mich.


            1. In dem Dateien exportieren aktivieren Sie die Kontrollkästchen für die Exporte, die Sie ausgeben möchten. Folgendes steht zur Verfügung:
              • Thematische Änderungsbild exportieren speichert das Klassifizierungsergebnis in einer Rasterdatei.
              • Thematische Änderungsvektoren exportieren speichert die während der Klassifizierung erstellten Vektoren in einem Shapefile.
            2. Verwenden Sie die Standardpfade und Dateinamen.
            3. Um Statistiken zu thematischen Änderungen zu speichern, aktivieren Sie die Statistiken zu thematischen Änderungen exportieren Kontrollkästchen im Statistik exportieren Tab,
            4. Verwenden Sie die Standardpfade und Dateinamen.
            5. Klicken Fertig. ENVI erstellt die Ausgabe, öffnet die Ebenen im Bildfenster und speichert die Dateien in dem von Ihnen angegebenen Verzeichnis.

            Navigieren Sie zur Statistikdatei und öffnen Sie sie in einer Tabellenkalkulationsanwendung, wie z. B. Microsoft Excel. Wie Sie in der Statistik unten sehen können, waren die wichtigsten Änderungen die Klassen, die zu Wasser geändert wurden.


            Office für Mac-Hyperlinks, die zu HTTPS umleiten, können nicht geladen werden, da &ldquoUnable to open. Kann den Internetserver oder Proxyserver nicht finden.&rdquo

            Unsere Benutzer versuchen, Links zu unserer Website http://www.newsfixed.com/ in Word-Dokumente einzubetten, und dies schlägt fehl. Word für Mac scheint sehr empfindlich auf die Serverkonfiguration zu reagieren und kann manchmal bestimmte Links nicht laden. Das gleiche Problem scheint bei Links zu http://www.facebook.com/ und http://www.pinterest.com/ aufzutreten (aber Links zu Google, Twitter, Instagram usw. sind in Ordnung)

            Geben Sie die folgenden URLs in das Dokument ein und lassen Sie Word sie in Hyperlinks umwandeln:

            http://www.google.com/ http://www.facebook.com/ http://www.theguardian.com/ http://www.nytimes.com/ http://www.pinterest.com/ http://www.instagram.com/ http://www.twitter.com/

            Klicken Sie auf die Links – Sie werden sehen, dass Google, The Guardian, New York Times, Instagram und Twitter funktionieren, Facebook und Pinterest (und meine Website www.newsfixed.com) jedoch nicht. Word meldet den Fehler "http://www.pinterest.com/ kann nicht geöffnet werden. Kann den Internetserver oder Proxyserver nicht finden.":

            Wenn man sich die HTTP-Antwort von pinterest.com ansieht, scheint es, dass es damit zu tun hat, dass eine 302 temporäre Weiterleitung auf eine HTTPS-Version statt auf eine 301-Version bereitgestellt wird - was sowohl meine Website als auch pinterest gemeinsam hatten. Also habe ich meine Serverkonfiguration geändert und gebe jetzt 301s zurück, aber es scheint keinen Unterschied zu machen.

            Ich verwende eine alte Version von Word für Mac -- 12.3.6. Ich habe Berichte erhalten, dass es auch bei neueren Word-Versionen passiert (aber keine Versionsnummern, sorry). Anscheinend ist es erst in der letzten Woche passiert, könnte es vielleicht etwas mit dem SSL-Handshake und den Heartbleed-Patches zu tun haben? (Ich habe diese Woche natürlich mein Zertifikat neu generiert)

            Der Server ist Standard-Apache 2.4 auf Ubuntu, auf dem die Django-App über mod_wsgi ausgeführt wird.


            Shapefile kann nicht als Feature-Class in Geodatabase-Datei geladen werden, mit nur 3 der Felder - Geographic Information Systems

            Der Hauptzweck dieses Labs besteht darin, (1) die Erstellung von MS-Access- und PostgreSQL-Abfragen zu üben und (2) mit der Untersuchung von Landnutzungs- und Landwertmustern in East Boston zu beginnen, wobei eine Flurstückskarte und Grundstücksbewertungsdaten für das Geschäftsjahr 2005 (das verwendet Schätzwerte vom 01.01.2004). Um die Visualisierung von Strukturen zu erleichtern, verwenden wir auch einen Gebäudedaten-Layer mit Gebäudegrundrissen und Gebäudehöhen aus einer Studie aus dem Jahr 2002, die auf Luftbildern und LIDAR-Daten basiert (um Dachhöhen zu erhalten).

            Das Lab hilft uns, die relationalen Denk- und Datenmanagementfähigkeiten zu üben, die zum Zusammenstellen und Analysieren typischer städtischer Grundkarten und Datensätze mit gängigen Desktop-GIS- und Datenbankverwaltungstools erforderlich sind. Die meisten der typischen Komplexitäten werden ausgeblendet, wenn wir Landnutzungskarten in einer GIS-Demo sehen. Wie können wir beispielsweise mit Mehrfamilienhäusern oder gemischt genutzten Immobilien umgehen? Wie können wir die Datenschichten pflegen und teilen, wenn Immobilienverkäufe, Sanierungen und Neubewertungen stattfinden?

            In diesem Lab verwenden wir die Stadtgrenzen von Mass und die Gebäudegrundrisse und Dachhöhen der Bostoner Metro von MassGIS, einer Flurstückskarte, die Grundstücksgrenzen für Grundstücke in East Boston aus dem Bostoner Bewertungsbüro tabellarische Daten mit Landnutzung und Eigentum, Grundstücksmerkmalen und Steuerbescheiden aus dem Boston Department of Neighborhood Development und Landnutzungsklassifizierungscodes und Farbschemata vom Mass Department of Revenue und der American Planning Association. Wir werden ArcMap, ArcScene, MS-Access und Excel verwenden, um die verschiedenen Datenschichten zusammenzustellen, sie an unsere Interessen anzupassen und einige der Landnutzungsmuster in East Boston zu analysieren und zu visualisieren.

            Da wir von Vorkenntnissen mit ArcGIS und MS-Access ausgehen, bietet dieses Lab keine Schritt-für-Schritt-Anleitungen zu deren Benutzeroberfläche. Hilfe zur Syntax der SELECT-Anweisung finden Sie auf der Seite 'SQL-Hilfe' im Abschnitt SQL Notes der Klassen-Website. Hilfe zu MS-Access finden Sie in der Online-Hilfe von MS-Access und in den MS-Access-Notizen von Lulu Xue und Shan Jiang: rec2_database_datafile.pdf. (Weitere Informationen zu MS-Access-Hilfen und -Tutorials finden Sie im Abschnitt 'Administrativ' des Skripts vom letzten Donnerstag.) In den nächsten Vorlesungen werden wir die Konzepte und Techniken dieser Übung erläutern (Labor #2).


            Bevor Sie die Abfragen von Teil 1 durchführen, überfliegen Sie die gesamte Übung von Lab #2, um ein Gefühl dafür zu bekommen, was Sie tun sollen. Sie müssen die Teile 'Tabellen' und 'Abfragen' von MS-Access verstehen. Wir werden heute zwei MS-Access-Datenbanken verwenden: die 11.521_lab1.mdb Datenbank mit der 'Spielzeug'-Paketdatenbank, die wir in Lab #1 eingeführt haben und die bos05eb_lab2.mdb Datenbank, die die Bewertungsdaten für East Boston-Pakete enthält. Die Schlüsseltabellen in beiden Datenbanken sind auch in Postgres verfügbar, sodass wir SQL-Abfragen in beiden Umgebungen üben können.

            Hier ist ein Link zum Thema Gliederung und Hinweise für die heutige Präsentation im Klassenzimmer: lab2_inclass.txt

            TEIL 1: SQL 'Warm-up'-Übungen mit der 'Toy' Parcel Database

            Bevor wir mit der Kartierung von East Boston-Daten beginnen, möchten wir unsere Fähigkeiten im relationalen Denken über Datenmanipulation und SQL-Abfragen verbessern. Zu diesem Zweck werden wir die sieben kleinen Tabellen in der 'Spielzeug'-Paketdatenbank verwenden, die wir in Lab #1 eingeführt haben. Wir werden Abfragen mit MS-Access und phpPgAdmin entwickeln, um verschiedene Fragen zu Paketmerkmalen, Eigentum, Steuerzahlungen und Bränden zu beantworten. Da die Spielzeugpaketdatenbank klein ist, können Sie leicht anhand der verschiedenen Tabellen überprüfen, ob die Abfragen die gewünschten Ergebnisse liefern.

            Das Entity-Relationship-Diagramm für die Spielzeugpaketdatenbank ist hier und die MS-Access-Datenbank mit den sieben Tabellen heißt 11.521_lab1.mdb und ist im Klassendatenschrank verfügbar: /afs/athena.mit.edu/course/11/11.521/data/11.521_lab1.mdb. Auf dieses Schließfach können Sie über das Laufwerk Z: auf den Laborcomputern zugreifen.

            Kopieren Sie wie gewohnt das Klassen-Dataset, 11.521_lab1.mdb, zu einer beschreibbar Ordner auf deinem lokal Laufwerk (z. B. C:TEMP), bevor Sie eigene Abfragen starten. (Hinweis: auf WinAthena-Rechnern Laufwerk I: und der Desktop sind nicht lokale Laufwerke, befinden sich aber in Ihrem Netzwerk-Schließfach.) Zwei Beispielabfragen wurden in 11.521_lab1.mdb, und der Text von Lab #1 listete auch mehrere weitere Abfragen auf, die in Standard-SQL (strukturierte Abfragesprache) geschrieben wurden. Weitere SQL-Abfragen, die die Spielzeugpaketdatenbank verwenden, finden Sie auf den SQL-Hilfeseiten. Diese SQL-Abfragen können in PgAdmin auf phpPgAdmin ausgeführt werden, wenn Sie bei der Postgres-Datenbank-Engine angemeldet sind, die online für den Unterricht verfügbar ist. Stellen Sie sicher, dass Sie die MS-Access-Tabellen und -Abfragen untersucht haben und führen Sie die SQL-Abfragen von Labor Nr. 1 in Postgres aus, bevor Sie mit dieser neuen Übung Nr. 2 beginnen. Um phpPgAdmin mit Postgrest zu verwenden, können Sie sich als 'sqlguest' mit dem Passwort, das wir Ihnen letzte Woche gegeben haben, oder mit Ihrer eigenen WinAthena-Benutzer-ID und Ihrem eigenen Passwort einloggen. Das 'sql'-Konto kann heute alle Abfragen ausführen, die für Teil 1 von Lab #2 erforderlich sind. Sie sollten jedoch später Ihr eigenes Konto verwenden, damit wir sehen können, wem jede erstellte Tabelle oder Ansicht gehört.

            [ Zusätzliche, optionale, Informationen: Die SQL-Anweisungen, die verwendet werden, um die 'parcels'-Tabellen in Postgres zu erstellen und verschiedene Berechtigungen und Aliase festzulegen, werden in der 'PARCELS-Datenbankschema' Link von der 'SQL-Notizen' Abschnitt der Klassen-Webseiten. Für diese Übung wirst du nicht müssen die Syntax der verstehen erstellen Anweisungen, die die ursprünglichen Tabellen erstellen und die Zeilen einfügen. Wir werden diese Operationen später im Semester behandeln. ]

            Abfrage der 'Spielzeug'-Paketdatenbank

            Erstellen Sie Abfragen, um jede der folgenden Fragen zu beantworten. Wir schlagen vor, dass Sie laufen beide in MS-Access ( mit 11.521_lab1.mdb) und in Postgres (mit phpPgAdmin oder PgAdmin III). Für einfache Abfragen ist die GUI in MS-Access durchaus hilfreich. Sie können mit MS-Access beginnen und sich dann die SQL-Anweisung ansehen, nachdem Sie die GUI verwendet haben, damit jede Abfrage richtig funktioniert. Bearbeiten Sie schließlich die MS-Access-SQL-Anweisung in einem Texteditor, bis sie beim Ausschneiden und Einfügen in die SQL-Befehlszeile von phpPgAdmin wie beabsichtigt funktioniert. Der größte Unterschied in der Syntax zwischen Postgres- und MS-Access-SELECT-Anweisungen besteht darin, dass sie leicht unterschiedliche Standardmethoden zum Ausdrücken von Joins zwischen Tabellen verwenden, und MS-Access erfordert das Wort 'AS' zwischen einem Ausdruck und dem Aliasnamen, den Sie dem Ausdruck zuweisen . Möglicherweise müssen Sie einige Bearbeitungen vornehmen, bevor einige Abfragen in Postgres in MS-Access ausgeführt werden. Beachten Sie, dass viele der 9 zugewiesenen Abfragen nur eine geringfügige Änderung früherer Abfragen aus Lab #1 erfordern. Sobald Sie sich an die SQL-Syntax gewöhnt haben, werden Sie es praktisch finden, mit einfachen Abfragen zu beginnen und dann Klauseln und Qualifizierer hinzuzufügen, um Teilmengen auszuschließen, Nullen zu behandeln und dergleichen. Geben Sie nur die SQL-Anweisungen ab, die in Postgres funktionieren, sowie eine Kopie der von den Abfragen erzeugten Tabellen.

              1. Welche Parzellen hatten eine Fläche von mehr als 10.000 Quadratfuß? Nur die Spalten PARCELID, ZIP, LANDUSE und SQFT auflisten und in absteigender Reihenfolge nach SQFT sortieren.
              1. Welches dieser Pakete in Teil a hatte Landnutzungscode 'C'?
              1. Welches dieser Pakete in Teil a hatte Landnutzungscode 'C' oder 'E'?
              1. Wiederhole die Antwort von Teil c, aber diesmal auch den Namen des Besitzers in der ersten Spalte. [Beachten Sie, dass Sie dazu die Parzellen- und Eigentümertabellen verknüpfen müssen.]
              1. Wie hoch ist der Gesamtschaden für jeden Eigentümer, dessen Parzelle(n) verbrannt wurden? Nennen Sie den Besitzer und den Totalschaden. Sortieren Sie nach den Besitzernamen in aufsteigender Reihenfolge.
              1. Wie viele Parzellen besitzt jeder Eigentümer und wie viele Quadratmeter Land besitzt er insgesamt? Fügen Sie den Namen des Eigentümers, die ID-Nummer des Eigentümers, die Paketanzahl und die Gesamtfläche in Ihrem Eintrag hinzu. Sortieren Sie nach den Namen des Besitzers.
              1. Ändern Sie Ihre Antwort auf Teil f oben, um alle Pakete mit einer Quadratmeterzahl von weniger als 30.000 Quadratfuß auszuschließen.
              2. Die folgenden Abfragen führen zu leicht unterschiedlichen Ergebnissen. Erklären Sie kurz, warum die Ergebnisse für jeden Fall sinnvoll sind. Erklären Sie den Unterschied oder die Ähnlichkeit zwischen COUNT(*) und COUNT(tax).
              3. Wie hoch ist der Gesamtwert (Bodenwert plus Gebäudewert) pro Quadratmeter jedes Grundstücks? Nach Gesamtwert in absteigender Reihenfolge sortieren. Fügen Sie die Parzellen-ID, den Gebäudewert, den Grundstückswert und die Quadratmeterzahl in Ihre Abfrage ein. Stellen Sie sicher, dass Sie potenzielle Fehler beim "Teilen durch Null" vermeiden und nur Zeilen mit gültigen Werten für die Quadratmeterzahl, den Gebäudewert und den Grundstückswert einschließen. Ihre Abfrage sollte 8 Zeilen zurückgeben. Die Tabelle TAX hat jedoch 9 Zeilen und die Tabelle PARCELS hat 20 Zeilen. Wie erklären Sie, dass das Ergebnis nur 8 Zeilen enthält?

            TEIL 2: Landnutzungs- und Bodenwertmuster in East Boston

            Vorbereitung der Bewertungstabellen

            • verbindet die Bewertungstabelle mit mass_landuse, indem ptype mit stclass_txt abgeglichen wird
            • hat nur eine Zeile pro Bodenparzelle für jede East Boston-Parzelle,
            • behandelt Eigentumswohnungen, indem nur die Eigentumswohnung-Hauptzeile (Grundstück) ausgewählt wird und die folgenden Quadratmeter- und Steuerfelder durch die Summe aus den anderen Zeilen für diese Eigentumswohnung ersetzt werden: gross_area, living_area, fy2005_total, fy2005_land, fy2005_bldg, gross_tax
            • ruft die folgenden Spalten aus den beiden verbundenen Tabellen ab: PID, ST_NUM, ST_NAME, ST_NAME_SFX, PTYPE, LU, LOTSIZE, GROSS_AREA, LIVING_AREA, FY2005_TOTAL, FY2005_LAND, FY2005_BLDG, GROSS_TAX, NUM_FLOORS, LBCS und stclass_txt

            Zuordnung der Bewertungsdaten

            ArcMap hat manchmal Probleme mit Datentypen, wenn Daten direkt aus MS-Access-Abfragen importiert werden (ohne zuerst die Tabelle in MS-Access zu erstellen). Um diese Probleme zu vermeiden, möchten Sie möglicherweise Ihre Abfrage q_eb05new so ändern, dass sie eine Tabelle (nennen Sie sie eb05new) in MS-Access speichert.

            Öffnen Sie das ArcMap-Dokument mit dem Namen eboston05_lab2.mxd das ist drin gespeichert Ihre lokale Kopie des eboston05-Ordners. Fügen Sie die Tabelle eb05new hinzu, die Sie gerade in MS-Access erstellt haben. Verknüpfen Sie die Tabelle eb05new mit dem mapbaren Layer ebos_parcels05.

            Als nächstes benötigen wir das Farbschattierungsschema, das wir für die verschiedenen Landnutzungen verwenden möchten. Der Datenrahmen mit der Bezeichnung 'LBCS Color Scheme' zeigt die verschiedenen Farben, die die APA für Landnutzungskarten empfiehlt. Wir müssen in diesem Datenrahmen nichts manipulieren - sie sind nur da, damit Sie die Namen der Landnutzungskategorien und die wichtigsten Farben sehen können. (Wenn Sie interessiert sind, sehen Sie sich die APA-Spezifikationen (http://www.planning.org/lbcs) an, die den Standard beschreiben. Sie sollten eine Farbintensität auswählen, um innerhalb einer Kategorie zu unterscheiden. Zum Beispiel ist Wohnen Sie können eine dunklere Farbe für Wohnungen, die dichter sind, und ein helleres Gelb für Einfamilienhäuser auf großen Grundstücken die Symbolbeschreibungsschicht, die APA für die Schattierung der wichtigsten Landnutzungskategorien bereitstellt. Stellen Sie sicher, dass der Datenrahmen von East Boston Parcels aktiv und doppelklicken Sie auf den Layer ebos_parcels05. Klicken Sie auf die Registerkarte 'Symbology' und setzen Sie den Wert 'fields' auf 'eb05new.lbcs'. Next, click the 'Import' label and click the radio button that gets the layer definitions from an ArcView 3 legend file (*.avl). Navigate to the LBCS sub-folder and click on 'activity.avl'. Import the complete symbol definition and be sure to pick eb05new.lbcs as the field containing the land use code to be mapped. You may also want to set the properties for all symbols (click the 'symbol' label at the top of the legend) so that the parcel outlines are a light gray. The thematic map will now shade the parcels in a manner similar to that shown in the map above in this exercise.

            In subsequent labs, we will return to these East Boston datasets and examine land value and population density in more detail. Think about what you would have to do at this point to shade the parcel map in a way that usefully represented land value and density.

            PART 3: 3D Visualization of Land Use and Buildings in East Boston

            Before wrapping up this exercise, let us use ArcScene to visualize our land use map in 3D. Leave ArcMap open, and start ArcScene. Copy and paste each of the layers from the ArcMap 'East Boston Parcels' Data Frame into the ArcScene Scene Layer. You may have to edit the properties of the data layers after pasting them into ArcScene so that ArcScene can find the shapefiles.

            Even after resetting the data sources, you will find that there is a problem with the parcel layer. That is because Boston saves its GIS files in Mass State Plane coordinates (just like the State) but uses the North American Datum (NAD) from 1983 that uses feet instead of meters. (There is a difference in the origin and not just the scale.) Since the first layer that you copied into ArcScene was the building footprints (in NAD83 meters), that is the coordinate system that ArcScene uses.

            Go back to ArcMap, right click on the ebos_parcels05 layer and choose Data/Export and save all features using the coordinate system of the data frame into a local shapefile named ebos05_meters. Now, add this new shapefile (with all the joined attribute data) to ArcScene. You will see that the parcel layer is now visible and properly located within Boston!

            Although ArcScene can do 3D rendering, we have not given any relief to our datasets and the map features are shown in 'flatland'. Edit the properties of the ebos_buildings02 layer, click the 'extrusion' tab and check the 'extrusions features in layer' option. Click the icon to the right of the 'extrusion value or expression' area and choose the ROOF field. This is the average height above ground of the roof of each building in the building layer (as estimated using the LIDAR data from 2002). Multiply this roof value by 3 to exaggerate the heights for easy viewing and click OK twice to get back to ArcScene. The image will take a moment to be rendered, then you will see each building footprint extruded to the height of the roof providing a quick-and-dirty visualization of the building mass along each street. Practice using the mouse to zoom in/out and rotate the image.

            Finally, we would like to shade the parcels based on land use. Edit the properties of the ebos05_meters layer and import the same activity.avl definitions that we used earlier. Use these colors to shade the parcels based on their (approximate) LBCS code.

            What to turn in: We want you to turn in some evidence that you have gotten this far and are able to shade parcels based on land use with the building footprints extruded to the building height to give a sense of the built form of East Boston. Since we want you to turn in the exercise in electronic form, the easiest way is to use the desktop tools to do a screen capture and then use the windows 'Paint' software to save the image as a JPG for inclusion in your assignment.

            PART 4: Examining Parcel Land Values in Excel (optional)

            Now that we have prepared tables in MS-Access that summarize assessing information at the ground parcel level, we might want to move the table into Excel for some exploratory statistical analysis. Since this lab exercise is getting long, this part is optional! Try pulling eb05new into Excel and comparing the land value per square foot (of lot size) and the building value (using gross area or living area). You may want to further subset the data (in MS-Access or Excel) to focus only on residential properties or only on triple deckers on, say, lots under 12000 square feet (one quarter acre). Do you find any interesting relationship? (. either in Excel or when you map the indicators.)

            Later in the semester, we will explore land and building value patterns in more detail. This is enough for now to give us a sense of the issues, difficulties, and work-arounds associated with mixing and matching typical parcel-scale datasets in order to explore land use and land value patterns within urban areas.

            WHAT TO TURN IN

            You can use any text editor you wish to cut and paste your lab exercise answers (text, table, and images) into a single document that you turn in to me as an email attachment.

            For Part 1 - SQL exercises: Turn in the SQL queries (using the standard SQL that runs in Postgres) and the tabular output to the 9 short questions using the toy parcel database.

            For Part 2 - East Boston data preparation: Turn in the text of your queries q_noncondo and q_eb05new

            For Part 3 - Mapping East Boston Parcels and Building: Turn in the screen shot of ArcScene with the LBCS shading of parcels and the building footprints extruded to the roof heights. Orient the view so that it is similar to the 2D view shown above with parts of the airport (lower right) and residential neighborhoods (center) are visible and zoomed in enough to distinguish buildings and see the parcel shading.

            For Part 4 - Excel Exploration and Graphics (OPTIONAL): Screen print of eb05new in Excel and data subsets in MS-Access

            While not required, we encourage you to format your SQL statements on multiple lines to improve their readability. Use the examples we provide as a guide. Be careful to sort your results as stated in the questions. Upload your lab exercise results to the homework location on the Stellar site for the class: . We only need your answers in digital format (. save the trees!). Since the is no class next Tuesday (which follows a Monday schedule due to the Feb. 19 holiday), this problem set is not due until the start of class on Thursday, 22 February 2018.


            Bugs in flopy.mt3d.mt.Mt3dms.load() #743

            The attached file is a SSM file for MT3D. MT3D-USGS is OK with it. However, flopy cannot load it correctly. In the file, the loading starts at stress period 60. The flopy will see it starting from stress period 120.
            tran_v1.zip

            The text was updated successfully, but these errors were encountered:

            We are unable to convert the task to an issue at this time. Please try again.

            The issue was successfully created but we are unable to update the comment at this time.

            Emorway-usgs commented Nov 27, 2019

            @flydream0428 Notice that in the file you attached:

            Was the attached SSM file created with flopy? All the 0's are on dedicated lines and are being picked up as item NSS . The fact that the input varies starting at stress period 60, but you're seeing it as stress period 120, confirms that the 0's are being read as NSS . If you remove the lines containing only 0's, it should load for you. Please close on github if this fixes your issue.

            Flydream0428 commented Dec 1, 2019

            @emorway-usgs I have tried to remove the 0s. If I removed 0s, MT3D-USGS will not load the mass rightly, although it works of flopy. I also tried to replace 0s with an empty line. This works for MT3D, however, it doesn't work for flopy.

            Emorway-usgs commented Dec 2, 2019

            Does is crash near stress period 60? Could you upload your problem? To help keep file size down, would you mind making a copy of your model that only includes the first 10 (or so) stress periods? Or, alternatively, if the input is relatively small and you prefer to upload the whole thing, I'm happy to use that too.

            Emorway-usgs commented Dec 2, 2019

            @flydream0428 Please see my previous post here if you haven't seen it already. Because I forgot to reference you directly, I'm not sure you would have received my request for the model input.

            Flydream0428 commented Dec 3, 2019

            @emorway-usgs
            Hi Eric,
            Below is the input files. I have added two SSM files in the attached folder. The default one is the one with 0s removed. To reduce the file size, I have deleted the flow modelling results. So you need to run the flow model first. It takes about 30 minutes. The transport model takes about 10 minutes. The crash indeed happens around 31, It takes one of the -1 as NSS.

            Flydream0428 commented Dec 3, 2019 •

            @emorway-usgs I think I should also mention another issue I have found. I have tried to use the stress_period_data dictionary to generate the SSM object. It seems like Flopy can generate the object however, it doesn't write a write SSM file.

            Below is the dictionary data:
            spd_ssm.txt

            Emorway-usgs commented Dec 3, 2019

            @flydream0428 OK, I think I see what the issue is. In your flow model, you use the RCH package. When MF-NWT writes the linker file (.ftl in your case), the header information will inform MT3D-USGS that the concentration of recharge will specified in the SSM input file. However, your SSM file doesn't have entries for INCRCH (and CRCH as necessary). For example, you will need something like the following (you will need to adjust the entire file as you see fit, remembering to provide a recharge concentration if you want it to be something other than 0 as indicated in the input instructions:

            Corresponding input instruction:

            Also, one other thing I noticed. in your flow simulation, you set TSMULT = 1.0. However, in the transport simulation, you specify TSMULT = 1.2. But from the input instructions:

            Flydream0428 commented Dec 3, 2019 •

            @emorway-usgs Thanks for pointing out the inconsistency of the TSMULT between the flow and the transport model. I have fixed this. Below is the right one.
            tran_v1_btn.zip

            Meanwhile, even with this fix, the loading function still doesn't work as I expected.
            Let's load the model,

            After this, I checked the imported SSM data,
            mt3d.ssm.stress_period_data.data

            Below is what I got. The imported stress_period_data starts from sp 120, rather than 60. For the first 60 sps, I use 0 for NSS.


            Part II: Spatial Analysis and Mapping Using ArcGIS (54 Points + 4 bonus points)

            Question II-1 (38 points total)

            • Display the major highway exits on top of the thematic map and show a 2 km buffer around the highway exits. (Beware: It may take a while to compute the buffer and even take up to a minute or so before any message window appears indicating the buffering is in process).
            • Use a 50% transparency for the 2-km buffer so that the town boundaries and thematic shading are partly visible through the buffer areas. (Hint: A layer's transparency can be set with the transparency tool on the effects toolbar, or the 'Display' tab of a layer's 'Layer Properties' window.)
            • Include on your map, a symbol for the location of each highway exits whereby the size of the symbol marking the location of the exit is graduated depending on the road density (road_miles13 / landarea) for the municipality in which the exit is located.
            • Instead of showing all of Massachusetts, zoom in to Eastern Massachusetts so that your map focuses on the 164 towns in CTPS (that is, CTPS = 1 in ma_towns00type).
            • Explain briefly your choice of color schemes, symbol size, and other cartographic choices in order to make the map more readable and appropriate to demonstrate any pattern that you discuss in the next question.
            • The spatial pattern of road density and equalized property value per capita across Massachusetts?
            • Any relationship between the location of highway exits and either road density or equalized property value per capita?

            Question II-2 (4 points total)

            For this question, we would like to compare the relationship between per capita property values (EQV12_PER_CAPITA) and the percent of each municipality's budget that comes from state aid (STATE_PCT). Both values are availabble in MA_DOR_COMPARE. The median (50th percentile) value of EQV12_PER_CAPITA is $137677 and the median value of STATE_PCT is 10.79%.

            Part II-2A (2 points): What are the average values of EQV12_PER_CAPITA and STATE_PCT for municipalities in which the STATE_PCT is greater than the median value (10.79%)? average of EQV12_PER_CAPITA = __ $124963 __ and average of STATE_PCT = ____ 23.09% ____

            Part II-2A (2 points): What are the average values of EQV12_PER_CAPITA and STATE_PCT for municipalities in which the STATE_PCT is less than the median value (10.79%)? average of EQV12_PER_CAPITA = __ $279101____ a nd average of STATE_PCT = ____ 6.07% ____

            Question II-3 (4 points + 4 bonus points)

            In ArcMap, select those municipalities that are in the Boston metro area (as indicated by CTPS=1 in MA_COMM_TYPE) and overlap any part of your 2 km buffer of the highway exits. (Hint: When you do a selection in ArcMap, you usually have a check box to specify whether to do a brand new selection or to select from the currently selected set.)

            Part II-3A (2 points): How many polygons are in your selected set? The number of selected polygons = ____227 polygons within the 2 km buffer of exits and 144 polygons also in CTPS=1 municipalities_______________

            Part II-3B (2 points): How many unique municipalities are in your selected set? (Remember from Lab exercise #4 that some municipalities have more than one polygon in the ma_towns00type.) The number of selected municipalities = _132 unique municipalities____________

            Part II-3C (4 bonus points - beyond 100 points): Generate a scatterplot chart that plots EQV12_PER_CAPITA versus STATE_PCT for those selected municipalities (in the CTPS regions and overlapping the 2km buffer). (Be sure to show only one point per municipality.) Include a PDF of your chart in your test submission.


            To generate this chart, start by using 'select by location' to select the 227 polygons in ma_towns00type that intersect the 2km buffer of highway exits. Then 'summarize' this table based on the 'MUNICIPALI' column to get one row per unique municipality. Before saving this summary table, click on the 'First' choice for the DOR_CODE field and 'Minimum' choice for the CTPS field. (Do you understand what these choices do?) In this way, you will add columns for CTPS and DOR_CODE in the output summary table. Those extra fields will be helpful in order to select towns within CTPS and to join the table to MA_DOR_COMPARE later on. If you save the summary table into the personal geodatabase 11.188_test19gdb.mdb, then you can open it using MS-Access and join to MA_DOR_COMPARE and MA_COMM_TYPE to select only the CTPS=1 towns and to get the eqv12_per_capita and state_pct values. Here is the query design:


            The result of this query is named 'pv_by_state_for_ctps8' and pulled into ArcMap from the personal geodatabase in order to draw the chart. Note the enormous various in property values per capita across the 132 towns in the chart. Those towns with high property values per capita tend to receive a small fraction of their town budget from state aid, whereas towns with low property values per capita tend to have the highest fraction of their budget consist of state aid. This is intentional since the State aid formulas try to give more money to towns who are least able to collect money through property taxes. The high-valued town at the top left is Weston, a wealthy Boston suburb with 400k per capita in valuation, and the low-valued town on the lower right is Lawrence, with just under $40k per capita.

            Question II-4 (8 points): Coordinate Systems

            Census tract boundary files that are available online from the US Census Bureau are typically expressed in a geographic coordinate system that encodes lattitude and longitude in decimal degrees. However, most state GIS agencies (such as MassGIS) provide census tract boundary files (and many other boundary files of interest to state agencies) in a projected coordinate system such as the NAD83 [meters], Massachusetts [Mainland] State Plane coordinate system that has been used for many of the shapefiles we have used in this class. Explain briefly at least two reasons why MassGIS users might prefer boundary files in Massachusetts State Plane coordinates and at least one reason why a national agency such as the US Census Bureau might prefer to distribute datasets in geographic coordinates (i.e., lat/lon).


            First part: (1) Local agencies use projected coordinates with a projection method that keeps North straight up (2) Local agencies use projections that do a better job of preserving distance measurements or areal measurements in the local area that is their focus of attention, and thereby avoid some of the distorations that arise when lat/lon values are plotted on a flat surface.

            Second part: Latitude/Longitude measurement allows one consistent coordinate system to be used for measurements anywhere on Earth. However, plotting lat/lon as coordinates on a flat two-dimensional surface leads to distortions.

            Please note:

            • Before creating the PDFs, be sure to include your name and Athena ID somewhere on the map layouts
            • Please test your PDF files with Adobe Acrobat Reader before submitting them to us in order to be sure they are readable.
            • Keep a copy of your text output and PDFs file in your 11.188 user directory until your test is graded
            • Confirm with an instructor that your test files were received?
            • Turn in one text file (or Word or PDF document) with written answers to the questions, plus the map requested in Question II-1A and the chart in II-4C.

            Back to the 11.188 Home Page.
            Back to the CRN Home Page.


            Schau das Video: ArcGIS - Converting a geodatabase to shapefiles