Mehr

OpenLayers 3 - wie man ein einzelnes Feature neu zeichnet

OpenLayers 3 - wie man ein einzelnes Feature neu zeichnet


Ich möchte in der Lage sein, das erneute Rendern eines einzelnen Features auszulösen, nachdem ein Benutzer darauf geklickt hat. (Ich kann den Klick abfangen und die Metadaten aktualisieren, die die Styling-Funktion füttern, aber ich bin dann gezwungen, die gesamte Ebene neu zu rendern, damit das aktualisierte Styling angezeigt wird:

kmlSource.dispatchChangeEvent();

Die Leistung beim Neuzeichnen eines ganzen großen Layers ist schrecklich, wenn sich nur der Stil eines Features geändert hat. Gibt es eine Möglichkeit, nur ein Feature neu zu zeichnen?

Selbst wenn das Rendering nicht perfekt war (zum Beispiel war das neu gezeichnete Feature oben), wäre das in Ordnung.

Ich notiere diese ältere Frage in der vorherigen Version von OpenLayers, kann aber nichts finden, was das Problem auf OpenLayers 3 behebt.


Ihr Anwendungsfall sollte abgedeckt sein durchol.interaction.Select. Um das ausgewählte Feature mit einem anderen Stil zu zeichnen,ol.interaction.Selecterstellt einol.FeatureOverlaymit Ihrem alternativen Stil und fügt Ihr Feature zu dieser Überlagerung hinzu. Um das Original-Feature auszublenden, während Ihr Feature auf der Überlagerung angezeigt wird, verwendet es das interneol.Map#skipFeature()-Methode, um das ausgewählte Feature beim Wiedergeben der Rendersequenz auf der Originalebene zu überspringen.


Von den Geräuschen der Dinge würde ich vorschlagen, die zu versuchengeändert()Funktion für das Feature nach dem Aktualisieren des Stylings. Dies scheint zu funktionieren, wenn ich die Skalierung des Stils für ein Feature aktualisiert habe. Siehe die Dokumentation zu geänderten Funktionen


Kurze Beschreibung

GeoSciML Lite (früher GeoSciML-Portrayal genannt) ist eine Vereinfachung von Teilen von GeoSciML und Observations and Measurements (ISO 19156).

GeoSciML Lite entspricht Level 0 des Simple Features Profile für GML (OGC 10-100r, OGC 06-049).

Das Profil für einfache Features unterstützt nur eine begrenzte Teilmenge möglicher GML-Geometrietypen, die verwendet werden können, um die geografische Position und Form des Features zu beschreiben. Im Sinne der einfachen GeoSciML-Features umfassen diese GEO::Point, GEO::LineString, GEO::Curve, GEO::Polygon, GEO::Surface, GEO::MultiPoint, GEO::MultiCurve, GEO::MultiSurface und Typen mit mehreren Geometrien, die aus Sammlungen dieser Basistypen bestehen.

Im 4.1-Standard sind sieben GeoSciML-Lite-Ansichten beschrieben: GeologicUnitView, ShearDisplacmentStructureView, ContactView, BoreholeView, SiteObservationView, GeologicSpecimenView, GeomorphologicUnitView.


Stream A: Fortgeschrittene Methoden und Ansätze in der Umweltinformatik

Xiaohui Qiao, Brigham Young Universität
Daniel P. Ames, Brigham Young Universität
Zhiyu Li, Brigham Young Universität
E. James Nelson, Brigham Young Universität
Nathan R. Swain, Aquaveo

Die Entwicklung einer komplexen Webanwendung zur Modellierung von Wasserressourcen kann eine gewaltige Aufgabe sein, die die Integration verschiedener Modelle und Datenquellen mit sich ständig ändernden Internettechnologien erfordert. Die serviceorientierte Architektur (SOA) hat sich beim Aufbau komplexer Modellierungsworkflows als nützlich erwiesen. Im Vergleich zu anderen Arten von Webdiensten wie der Datenbereitstellung und Kartierung ist die Implementierung von Webverarbeitungsdiensten (WPS) für die Wasserressourcenmodellierung und Datenanalyse jedoch nicht sehr verbreitet. Tatsächlich fehlen Tools zur Vereinfachung der Entwicklung und Bereitstellung von WPS für allgemeine Modellierungsfälle. Wir werden die Entwicklung und das Testen einer gebrauchsfertigen WPS-Implementierung namens Tethys WPS Server vorstellen, die eine formalisierte Möglichkeit bietet, Webanwendungsfunktionen als standardisierte WPSs neben den grafischen Benutzeroberflächen einer App bereitzustellen. Unser WPS-Server ist Python-basiert und wird auf der Tethys-Plattform durch Nutzung von PyWPS erstellt. Eine Fallstudie wird bereitgestellt, um zu demonstrieren, wie Web-App-Funktionalität(en) mit unserem Open-Source-Paket als WPS bereitgestellt werden können, und zeigt, wie diese WPSs gekoppelt werden können, um eine komplexe Modellierungs-App zu erstellen. Zu den Vorteilen von Tethys WPS Server gehören: 1) Senkung der Barrieren für die Entwicklung und Bereitstellung von OGC WPS, 2) Bereitstellung von Webservice-basiertem Zugriff auf Apps, 3) Verbesserung der App-Interoperabilität und -Wiederverwendbarkeit und Erleichterung der Implementierung komplexer Modellierungen.

Dali Wang, Oak Ridge National Laboratory
Fengguang-Lied, Indiana University Purdue University Indianapolis
weijian zheng,, Indiana University Purdue University Indianapolis

Die Komplexität großer wissenschaftlicher Modelle, die für bestimmte Maschinenarchitekturen und Anwendungsanforderungen entwickelt wurden, ist zu einer echten Barriere geworden, die eine kontinuierliche Softwareentwicklung behindert. In dieser Studie nutzen wir Erfahrungen aus verschiedenen Praktiken, darunter Open-Source-Softwareentwicklung, Verständnis von Softwareabhängigkeiten, Compilertechnologien, analytische Leistungsmodellierung, Mikrobenchmarks und Funktionseinheitentests, um Software-Toolkits zur Verbesserung der Softwareproduktivität und -leistung zu entwickeln. Unsere Softwaretools sammeln die Informationen zu wissenschaftlichen Codes und extrahieren die gemeinsamen Merkmale dieser Codes. In diesem Papier konzentrieren wir uns auf das Front-End unseres Systems (Software-Röntgenscanner): ein System zur Erfassung metrischer Informationen zum besseren Verständnis der wichtigsten wissenschaftlichen Funktionen und der damit verbundenen Abhängigkeiten. Wir verwenden verschiedene wissenschaftliche Codes aus dem Programm Innovative and Novel Computational Impact on Theory and Experiment (INCITE), Exascale Computing Projects (ECPs), Subsurface Biogeochemical Research (SBR), um kosteneffiziente Ansätze für das Programmverständnis und die Code-Refactoring zu erforschen. Die Toolkits erhöhen die Softwareproduktivität für die IDEAS-Community (Interoperable Design of Extreme-scale Application Software), die sowohl von den Programmen Advanced Scientific Computing Research (ASCR) als auch Biological and Environmental Research (BER) des US-Energieministeriums unterstützt wird. Wir gehen davon aus, dass diese Toolkits breiteren wissenschaftlichen Gemeinschaften zugute kommen können, die vor ähnlichen Herausforderungen stehen.

Rohit Khattar, Brigham Young Universität
Mohit M. Khattar, Brigham Young Universität
Daniel Ames, Brigham Young Universität
E. James Nelson, Brigham Young Universität
Norman L. Jones, Brigham Young Universität

GIS-fähige Webanwendungen für Umweltdatenmanagement und -modellierung gewinnen an Bedeutung, da Webtechnologien und Cloud-Speicher kostengünstiger und leichter zugänglich werden. Dies hat zu einer Zunahme der veröffentlichten GIS-fähigen Webanwendungen geführt, die es politischen Entscheidungsträgern und Interessenvertretern ermöglichen, ansonsten komplexe Analysen durchzuführen, indem sie einfach eine Website besuchen und ein paar Klicks ausführen. Durch die Entwicklung einer Web App Nursery, d. h. einer Sandbox-Umgebung zum sicheren Entwickeln, Testen und Bereitstellen von GIS-fähigen Webanwendungen für das Umweltdatenmanagement und die Modellierung, ist es unser Ziel, das Entwickeln, Testen, Bereitstellen und Teilen solcher Tools erheblich zu vereinfachen. Dieses NASA-GEOGLOWS-Projekt adressiert den wachsenden Bedarf an flexiblen Datenanalyse- und Modellierungsumgebungen, die Benutzern die Möglichkeit bieten, Erdbeobachtungsdaten in einer webbasierten Software-as-a-Service-Umgebung zu erkunden, zu analysieren und zu modellieren. Wir verwenden die Cyberinfrastruktur der Tethys-Plattform – eine Reihe von Open-Source-GIS- und Web-Entwicklungstools –, um ein Warehouse für die schnelle Bereitstellung von Open-Source-Hydroinformatik-Apps zur Verwaltung und Nutzung wesentlicher Wasserressourcenvariablen zur Unterstützung von GEOGLOWS und anderen GEO-Arbeitsprogrammelementen zu erstellen . Die App Nursery wird im Rahmen des HydroShare-Datenaustauschprojekts bereitgestellt und ermöglicht Drittentwicklern, webbasierte Apps in einer sicheren Umgebung zu erstellen, zu testen und zu teilen. Letztendlich ist es unsere Absicht, mit diesem Web-App-Kindergarten eine Gemeinschaft von App-Entwicklern im Bereich Umweltdatenmanagement und -modellierung zu fördern, die Apps über einen kuratierten „App Store“ teilen. Diese Präsentation präsentiert die entstehende App Nursery, einschließlich der Demonstration vorhandener Apps und der Verwendung von Docker, Django, GeoServer und OpenLayers, um schnell GIS-fähige Web-Apps für Umweltdatenmanagement und -modellierung zu erstellen und bereitzustellen.

Dr. Md. Nazrul Islam, Associate Professor, Department of Geography and Environment, Jahangirnagar University, Savar, Dhaka-1342, Bangladesh
Dr. Daisuke Kitazawa, Associate Professor, Institute of Industrial Science, The University of Tokyo, De-207-209, 4-6-1 Komaba, Meguro-ku, Tokyo 1538505, Japan

Ein dreidimensionales Modell des Marine Environmental Committee (MEC) wurde durchgeführt, um die spezifischen Zirkulationsmuster von Strömungen, Temperatur und Salzgehalt zu beschreiben, die durch Wind- und Gezeitenantrieb in der Kamaishi-Bucht in der Präfektur Miyagi im Großen Osten Japans angetrieben werden. Das Hauptanliegen dieser Studie ist die Verbreitung von Schadstoffen, die durch die Auswirkungen der Erdbeben- und Tsunami-Katastrophe 2011 auf das Meeresökosystem verursacht wurden. In dieser Studie simulieren wir auch die Veränderungen der Wasserqualität und der Ökosystemstruktur von Januar 2009 bis Dezember 2012. Das MEC-Modell wurde verwendet, um die Verteilung verschiedener wichtiger Wasserqualitätsindikatoren und Gezeitenströmungen in den verschiedenen Schichten der Kamaishi-Bucht vorherzusagen. Es wird eine hohe Korrelation zwischen simulierten abgeleiteten und aus Messungen abgeleiteten Gezeiteneigenschaften erhalten. Wir haben auch die Auswirkungen von Brechwassereffekten auf Gezeiten, Strömungen und die Integration von Aquakultur und Fischerei simuliert. Die windgetriebene Strömung unter Verwendung des mittleren saisonalen Windantriebs (NO, SE und SW) erzeugt unterschiedliche Zirkulationen über der Kamaishi-Bucht. Die aktuelle Variabilität in flachen Gebieten wird durch die vorherrschenden Winde beeinflusst. Ebenso ist die Temperatur- und Salzgehaltsverteilung der Gewässer der Kamaishi-Bucht durch starke jahreszeitliche Schwankungen gekennzeichnet. Die Wasserqualität ist stark von Schadstoffen beeinflusst und hat sich durch vermehrte Einleitungen von Haus- und Gewerbeabfällen sowie einer erhöhten Belastung der Bucht mit anthropogenen Verunreinigungen kontinuierlich verschlechtert. Die Ergebnisse zeigten, dass gemessene und simulierte Schadstoffbelastungen unter den Umweltstandards in Japan lagen. Beobachtete und simulierte DO-, T-N- und T-P-Konzentrationen unterschieden sich nicht so stark von denen vor der Katastrophe.

Wade Roberts, Brigham Young Universität
Gustavious P. Williams, Brigham Young Universität
Jim Nelson, Brigham Young Universität
Elise Jackson, Brigham Young Universität
Daniel Ames, Brigham Young Universität

Fehlermetriken sind statistische Maße, die verwendet werden, um den Fehler oder die Verzerrung von prognostizierten Modelldaten im Vergleich zu beobachteten Daten zu quantifizieren. Fehlermetriken werden in der Wasserressourcentechnik häufig verwendet, wenn hydrologische Modelle bewertet werden, um die Genauigkeit und Anwendbarkeit des Modells zu bestimmen. Die Literatur berichtet über eine große Anzahl von Fehlermetriken, jedoch ist nicht immer klar, welche Metrik verwendet werden soll und welche Metriken auf Zeitreihendaten anwendbar sind, da unterschiedliche Metriken unterschiedliche Verzerrungen oder Fehler hervorheben. Wir haben ein Python-Paket für hydrologische Zeitreihendaten mit über 50 verschiedenen häufig verwendeten Fehlermetrikfunktionen sowie Visualisierungs- und Datenmanagement-Tools erstellt. Die Funktionen umfassen Fehlerprüfungen, um sicherzustellen, dass die Eingabedaten den Anforderungen entsprechen und echte Werte zurückgeben. Das Paket enthält Referenzen, Erklärungen und Quellcode. In diesem Papier stellen wir eine Einführung in das Paket vor, einschließlich Beschreibungen der implementierten Fehlermetriken und Empfehlungen für die Verwendung sowie Anwendungsbeispiele mit Beispieldaten.

Rob Knapen, Universität Wageningen und Forschung

Big-Data-Methoden und -Werkzeuge werden von der IKT-Branche weithin übernommen und schaffen neue Möglichkeiten für die datenintensive Wissenschaft im Agrarumweltbereich. Allerdings steckt die Einführung von Big Data für landwirtschaftliche Informationssysteme noch in den Kinderschuhen, und es bestehen noch viele Hindernisse für eine breitere Nutzung der Big Data-Analyse in der Agrarforschung. Außerdem fehlen derzeit im Wesentlichen Sammlungen von Big Data für die Landwirtschaft, was die Möglichkeiten verringert, Big Data-Analysen basierend auf maschinellen Lerntechniken für die Landwirtschaft zu nutzen.

Der AgroDataCube ist bestrebt, diese Lock-in-Situation zu durchbrechen, indem er Forschern, Praktikern und der Industrie ein Referenz-Data-Warehouse für die Arbeit mit einer Reihe großer räumlicher offener Datensätze bietet, die für die Landwirtschaft relevant sind. Es wird iterativ entwickelt und getestet, indem es in einer Reihe von FarmHacks gefördert wird, Hackathons, die speziell auf die Verwendung von Open Data und Open Source im Agrarumweltbereich abzielen. Darüber hinaus werden im europäischen Forschungsprojekt AgInfra Plus zwei mögliche Anwendungsfälle für eine stärker datengesteuerte Landwirtschaft untersucht. AgInfra Plus ist das Testbed-Schwesterprojekt von eRosa, einem Projekt, das einen Fahrplan für den Einsatz von e-Infrastruktur in der Agrarforschung definiert. Ein Anwendungsfall zur Pflanzenmodellierung untersucht den Einsatz virtueller Forschungsumgebungen und Cluster-Computing für die Pflanzensimulation, während der andere Anwendungsfall die Schätzung und Vorhersage der Pflanzenphänologie untersucht.

Dieser Beitrag gibt einen Überblick über die laufenden Arbeiten an AgroDataCube und AgInfra Plus, beschreibt bisher aufgetretene Engpässe und beschrittene Wege, um diese aufregenden neuen Möglichkeiten für eine intelligente Landwirtschaft zu ermöglichen.

Zoheir Sabeur Dr, University of Southampton, IT Innovation Centre, School of Electronics and Computer Science
Gianluca Correndo Dr, University of Southampton, IT Innovation Centre, School of Electronics and Computer Science
Fabien Castel Mr, Atos-Integration
Geoffrey Neumann Dr, IT-Innovationszentrum der University of Southampton, School of Electronics and Computer Science
Galina Veres Dr, University of Southampton, IT Innovation Centre, School of Electronics and Computer Science
Banafshe Arbab-Zavar Dr, University of Southampton, IT Innovation Centre, School of Electronics and Computer Science

Die Auswirkungen des Klimawandels werden seit Jahrzehnten beobachtet, da wir auf mehrere Methoden der Erdbeobachtung (EO) zugreifen können, die in-situ-, luft- und weltraumgestützte Sensoren verwenden. Die aus diesen Quellen generierten EO-Big Data sind für Wissenschaftler von größter Bedeutung, um die Auswirkungen des Klimawandels und die spezifischen erzeugten natürlichen (und anthropogenen) Prozesse zu verstehen, die wahrscheinlich das sich ändernde Verhalten von Arten auf der Erde auslösen. Im EO4wildlife-Projekt (http://www.copernicus.eu/projects/eo4wildlife) haben wir Zugriff auf Copernicus und Argos EO Big Data, um die Veränderungen von Lebensräumen für eine Vielzahl von Meeresarten zu untersuchen. Die Herausforderung besteht darin, die Lebensräume vorherzusagen, indem die kausalen Beziehungen zwischen der Anwesenheit von Tieren und den Umweltfronten des Metozeans identifiziert werden. Dies wird durch die Verarbeitung von Daten über die Anwesenheit von Tieren, die relativ klein und spärlich sind, und deren Korrelation mit Umweltdatensätzen erreicht, die groß und dicht im Merkmalsraum sind. Dies stellt Big-Data-Herausforderungen in Bezug auf Ressourcenoptimierung, Mining und Feature-Auswahl. Sobald es überwunden ist, verbessert es die Leistung der Prognosemodelle. Die Verfügbarkeit großer Geoinformationen, Satellitendaten und In-Situ-Beobachtungen ermöglichte es uns, die Skalierbarkeit unserer verteilten Datenspeichertechnologien und Analysedienste in der Cloud zu testen. Wir haben die Cluster-Infrastruktur über Spark speziell für eine belastbare Verteilung der Verarbeitung auf mehrere Knoten bereitgestellt. Die Testbed-Experimente unserer Big-Data-Verarbeitungsleistung werden unter drei Arten ausgewählter Arbeitsabläufe zur Lebensraumvorhersage validiert. Diese werden in der fertigen Version dieses Papiers ausführlich beschrieben.

In diesem Whitepaper werden aktuelle Erfahrungen mit dem Packen einer bestehenden Open-Source-Simulations-Engine zur Verwendung in der R-Umgebung geteilt. R ist in vielen Bereichen populär geworden, einschließlich der Umweltanalyse, und die Zahl der Pakete, die Zusatzfunktionen bereitstellen, wächst weiterhin schnell. R-Pakete entsprechen einer bestimmten Struktur und haben daher gemeinsame Attribute in Bezug auf Wiederverwendung und Interoperabilität. Diese Eigenschaften machten R zu einer guten Lösung für die vier Ziele unseres Projekts: (1) Die Software sollte auf mehreren Computerplattformen, insbesondere Windows, Mac und Linux, einfach zu beziehen und zu betreiben sein. (2) Um die Wiederverwendung zu fördern, sollte die Software über eine Dokumentation verfügen, die alle für den Benutzer sichtbaren Funktionen abdeckt und einige Beispiele enthält. (3) Die Software sollte in mehreren kommerziellen Cloud-Computing-Umgebungen erhältlich und nutzbar sein. (4) Schließlich sollte es möglich sein, ein gewisses Maß an Parallelisierung der Simulationen zu erreichen. Der Prozess des Packens einer Simulations-Engine für R hat mehrere Lehren für die Praxis der Umgebungssoftwareentwicklung ergeben. Wir teilen diese Erkenntnisse und bewerten die Vorzüge und Grenzen der Versandumgebungssoftware für R.

Hector Muro Mauri, Universität Wageningen und Forschung
Rob Knapen, Universität Wageningen und Forschung
Arend Ligtenberg, Universität Wageningen und Forschung
Sander Janssen, Universität Wageningen und Forschung
Ioannis N. Athanasiadis, Universität Wageningen und Forschung

Apache Spark ist eines der am weitesten verbreiteten und sich am schnellsten entwickelnden Cluster-Computing-Frameworks für Big Data. Diese Forschung untersucht den Stand der Praxis im Apache Spark-Ökosystem zur Verwaltung von Geodaten, mit besonderem Fokus auf räumliche Vektordaten. Apache Spark ist eine relativ neue Plattform, und die zugehörigen Bibliotheken für Geodatenerweiterungen sind noch in Arbeit. In dieser Arbeit wurden drei Bibliotheken zur Verwaltung von Geoinformationen in Apache Spark untersucht, nämlich GeoSpark, GeoPySpark und Magellan. Zuerst haben wir eine Reihe von Funktionstests entworfen und durchgeführt, um herauszufinden, wie viel damit getan werden kann. Dann haben wir die Leistung der Bibliotheken für die Ausführung allgemeiner räumlicher Aufgaben mit nervig großen Geodatensätzen verglichen. Schließlich vergleichen wir die Leistung der drei Bibliotheken im Gegensatz zu einem traditionellen geografischen Informationssystem, das eine relationale Datenbank zur Speicherung verwendet. Unsere Erkenntnisse über den Reifegrad der Bibliotheken und die Skalierbarkeit der Lösungen in Apache Spark sind gemischt, da wichtige Funktionalitäten noch fehlen, aber die Gewinne in der verstrichenen Echtzeit für die Beantwortung von Anfragen können bis zu zwei Größenordnungen schneller sein.

Celray James CHAWANDA, Vrije Universiteit Brussel
Ann van GRIENSVEN, Vrije Universiteit Brussel, IHE Delft Institute for Water Education
Wim THIERY, Vrije Universiteit Brussel, ETH Zürich
Chris GEORGE, Ehemals United Nations University International Institute for Software Technology, Macau, China

Hydrologische Modelle im Einzugsgebietsmaßstab haben eine Vielzahl von Benutzern mit unterschiedlichen technischen Hintergründen. Diese Benutzer müssen ihr Modell häufig anpassen, bevor es auf ihre Fallstudie angewendet werden kann. Zu diesem Zweck verwenden die meisten Einzugsgebietsmodelle eine grafische Benutzeroberfläche (GUI), um eine direkte Manipulation der Modelle zu ermöglichen. Während eine GUI im Allgemeinen für unerfahrene Benutzer einfach zu verwenden ist, eröffnet sie der wissenschaftlichen Gemeinschaft viele Quellen für nicht reproduzierbare Forschung. Hier präsentieren wir einen Workflow für das Soil and Water Assessment Tool (SWAT), das reproduzierbare Modellstudien fördert und dabei sowohl für Anfänger als auch für Experten benutzerfreundlich bleibt.Der Python-basierte Wrapper verwendet vorverarbeitete Eingabedaten und eine Namenslistendatei, um das QSWAT-Modell zu erstellen und es ohne weitere Benutzerinteraktion auszuführen. Wir wenden diese Umgebung dann auf das Einzugsgebiet des Blue Nile an und zeigen, dass sie fast die gleichen Ergebnisse liefert wie die Erstellung des QSWAT-Modells über die GUI. Unsere Ergebnisse zeigen die Vorteile der Verwendung des automatisierten Workflows über die GUI bei der Reproduktion früherer Ergebnisse und der Implementierung von Änderungen an einem bestehenden Setup bei gleichzeitiger Zeitersparnis beim Modellerstellungsprozess. Währenddessen kann die Modellkonfiguration weiterhin in der GUI angezeigt und geändert werden. Wir kommen zu dem Schluss, dass Arbeitsabläufe dazu beitragen können, Fälle von nicht reproduzierbarer Forschung bei der Modellierung von Einzugsgebieten zu reduzieren und Vorteile für Forscher bieten, die auf bestehenden Modellkonfigurationen aufbauen. Workflows eröffnen auch die Möglichkeit, eine Hochleistungsinfrastruktur für die Einrichtung großer Einzugsgebiete zu verwenden, ohne die Interoperabilität mit GUIs zu verlieren. (Dieser Workflow ist öffentlich auf GitHub verfügbar: https://github.com/VUB-HYDR/2018_Chawanda_etal_EMS)

Michael Berg-Mohnicke, Leibniz-Zentrum für Agrarlandschaftsforschung
Claas Nendel, Leibniz-Zentrum für Agrarlandschaftsforschung

In der Agrar- und Umweltforschung werden unterschiedliche Modelle verwendet und gegenwärtig versucht, diese zu immer komplexeren Systemen zusammenzusetzen, um Entscheidungsfindungen zu unterstützen, Anpassungsstrategien an den Klimawandel zu bewerten oder mögliche Auswirkungen von Landnutzungsänderungen zu erfahren. Während diese Systeme in der Vergangenheit meist monolithisch aufgebaut waren, ermöglicht uns die vernetzte Welt von heute, diesen Ansatz zu überdenken. An zwei Beispielen aus dem Agrarbereich zeigen wir, wie durch die Integration von Modellen über Message-Passing-Schnittstellen komplexe Systeme flexibel gestaltet werden können. Wir diskutieren unsere Erfahrungen mit der ZeroMQ-Bibliothek, um unseren Wissenschaftlern zu ermöglichen, große Simulationen im regionalen Maßstab auf Hochleistungscomputern durchzuführen, Simulationsprotokolle schnell einzuhalten, Fristen einzuhalten und trotzdem in der Lage zu sein, ihre Software zu debuggen. Ein zweites Beispiel zeigt, wie die gleiche Architektur verwendet werden kann, um ein komplexes Agrarökosystemmodell (MONICA) mit einem Bewässerungsberatungssystem (WEB-BEREST) ​​zu koppeln. Mit Blick in die Zukunft und Extrapolation der Konsequenzen aus der Anwendung des Message Passing/Flow-based Paradigmas auf den Bereich Umweltsoftware identifizieren wir Möglichkeiten für eine verbesserte wissenschaftliche Zusammenarbeit zwischen Forschungseinrichtungen und Arbeitsgruppen.

Andreas Enders, Universität Bonn
Pierre Martre, INRA
Helene Raynal, INRA
Ioannis Athanasiadis, WUR
Marcello Donatelli, CREA
Davide Fumagalli, GFS
Dekan Holzworth, CSIRO
Claudio Stöckle, WSU
Gerrit Hoogenboom, UFL

Die Modellentwicklung verwalteter Umweltsysteme und insbesondere landwirtschaftlicher Systeme ist komplex und wird sowohl von biophysikalischen als auch sozioökonomischen Prozessen angetrieben. Es entsteht zusätzliche Komplexität, die die Kontext- und Skalenabhängigkeit der Haupttreiber widerspiegelt. Es muss dem Wissenschaftler die Möglichkeit bieten, sehr unterschiedliche Modelle (Modellierungslösungen) zu erstellen, die Modellkomponenten aus verschiedenen Domänen nahtlos kombinieren. Die AgMIP-Initiative konnte zeigen, dass es nicht ausreicht, ein Modell zu betreiben, um Veränderungen in landwirtschaftlichen Systemen abzuschätzen.

Ziel des AMEI ist es, verschiedene Herausforderungen durch den Austausch von Modellkomponenten zu meistern

- Definition von Standards zur spezifischen Beschreibung des Austauschformats von Modellkomponenten

- Entwicklung einer (Web-)Plattform zum Veröffentlichen, Zitieren und Austauschen von Code und Modellalgorithmen

- Überprüfung und Veröffentlichung verschiedener Qualitätsstufen in der Dokumentation der enthaltenen Algorithmen

- inklusive Unit-Tests und Standard-Parametrierungen

Die Organisationen des Autors haben in den letzten Jahren investiert, damit ihre Modellierungsplattformen mit diesem Austauschansatz interagieren können. Dies geschieht durch die Integration von Wrappern und/oder Komponenten-Import-Export-Konvertern.

Kürzlich interagierende Partnerplattformen sind: APSIM, BioMA, CropSyst, DSSAT, OpenAlea, RECORD, SIMPLACE, SiriusQuality, STICS

Der Vortrag gibt in soziologischer, naturwissenschaftlicher und technischer Hinsicht einen konzeptionellen Überblick über den Stand ihrer Arbeit. Der Referent wird praktische Beispiele für den erfolgreichen Komponentenaustausch in unterschiedlichen Rahmen geben und die Möglichkeit geben, sich in die AMEI-Gruppe zu integrieren.

Sukriti Bhattacharya, Luxemburgisches Institut für Wissenschaft und Technologie
Ulrich Leopold, Luxemburgisches Institut für Wissenschaft und Technologie
Christian Braun, Luxemburgisches Institut für Wissenschaft und Technologie
Francesco Bongiovanni, Luxemburgisches Institut für Wissenschaft und Technologie

Die jüngsten technologischen Fortschritte bei der massiven Erfassung von Geodaten, die sowohl die zeitliche als auch die räumliche Dimension von Daten bewerten, machen den Datenanalyseprozess erheblich komplexer und bieten neue Dimensionen für die Dateninterpretation. Dementsprechend müssen sich geografische Informationssysteme (GIS) weiterentwickeln, um große raumzeitliche Daten skalierbar und integriert darzustellen, darauf zuzugreifen, sie zu analysieren und zu visualisieren. Die gemeinsame Nutzung und Übertragung solcher Informationen durch tiefgreifende und automatisierte Analysen verursacht häufig Skalierbarkeitsprobleme auf Softwareebene, die sich auf die Gesamtleistung, den Durchsatz und andere Leistungsparameter auswirken. In diesem Papier haben wir die gesamte Implementierung demonstriert und einige praktische Schritte zur Skalierung von Sonneneinstrahlungsberechnungen für ganze Städte mit sehr hoher Raum-Zeit-Auflösung unter Verwendung einer skalierbaren Tensor-Datenstruktur und inhärenter Parallelität erläutert, die eine datenflussbasierte Implementierung bietet. Wir versuchen, das Verständnis der zugrunde liegenden Gleichungen und Datenstrukturen aus analytischer, geometrischer und dynamischer Systemperspektive zu verbessern. Das gesamte Modell ist in Tensorflow implementiert, einer vom Google Brain Team entwickelten Open-Source-Softwarebibliothek, die Datenflussdiagramme und die Tensor-Datenstruktur verwendet. Um die Leistung und Genauigkeit unserer TensorFlow-basierten Implementierung zu bewerten, haben wir die bekannte r.sun von GRASS GIS und PVLIB von National Renewable Energy Laboratories (USA) für Sonneneinstrahlungssimulationen verglichen. Die Ergebnisse zeigen, dass wir spürbare und signifikante Verbesserungen der Gesamtleistung erzielt haben, um die Genauigkeit bei vernachlässigbaren Unterschieden zu halten.

Gregory E. Tucker, University of Colorado Boulder
Katherine R. Barnhart, University of Colorado Boulder
Christina Bandaragoda, Universität von Washington
Nicole M. Gasparini, Tulane Universität
Daniel E. J. Hobley, Universität Cardiff
Eric Hutton, University of Colorado Boulder
Erkan Istanbulluoglu, Universität von Washington
Margaux Mouchene, University of Colorado Boulder
Sai Siddhartha Nudurupati, Universität von Washington

Modellierungssoftware drückt in numerischer Form unsere Vorstellungen von der Funktionsweise von Umweltsystemen aus. Die Codes, die wir verwenden, um diese Ideen auszudrücken, sollten idealerweise flexibel genug sein, um sich mit der Entwicklung der Ideen selbst zu entwickeln, aber allzu oft wird die Softwareentwicklung zu einem Hindernis für den Fortschritt. In diesem Papier stellen wir die Designkonzepte hinter Landlab Toolkit vor, einer Python-Programmierbibliothek, die den Prozess der Erstellung und Änderung zweidimensionaler, gitterbasierter numerischer Modelle beschleunigen soll. Zu den Designzielen von Landlab gehörten: (1) die einfache Erstellung und Konfiguration von 2D-Rastern verschiedener Typen, (2) die Unterstützung wiederverwendbarer Komponenten, (3) die gemeinsame Nutzung mehrerer Komponenten für ein gemeinsames Raster und Daten-Arrays, (4) den Betrieb in eine High-Level-Open-Source-Sprache, die eine Vielzahl von Bibliotheken bietet. Das erste Ziel wird erreicht, indem mehrere Gitterklassen bereitgestellt werden, aus denen ein Gitter mit gewünschtem Maßstab und gewünschten Abmessungen konstruiert werden kann. Ein Rasterobjekt enthält eine Reihe von Diagrammelementen (wie Knoten, Links und Patches) zusammen mit Datenstrukturen, die die Konnektivität zwischen ihnen beschreiben. Um Ziel 2 zu erreichen, verwendet Landlab ein Standarddesign für Komponenten, die auch als Klassen implementiert werden. Ziel 3 wird erreicht, indem es Komponenten ermöglicht wird, Felder an das Raster anzuhängen, wobei ein Feld ein Datenarray ist, das an einen bestimmten Typ von Rasterelement gebunden ist. Schließlich erreicht die Implementierung von Landlab in Python Ziel 4. Um zu veranschaulichen, wie diese Funktionalität in der Praxis funktioniert, präsentieren wir mehrere Beispiele von Landlab-erstellten Modellen, einschließlich Anwendungen in der Überlandströmungsdynamik, der Landformentwicklung und zellulären Automaten.

Eric Hutton, University of Colorado Boulder
Mark Piper, University of Colorado Boulder
Greg Tucker, University of Colorado Boulder

Die aktuelle Landschaft geowissenschaftlicher Modelle ist nicht nur wissenschaftlich, sondern auch typologisch breit gefächert. Spannend ist einerseits die Modellvielfalt, die einen fruchtbaren Boden für die Erweiterung oder Verknüpfung von Modellen zur Beantwortung wissenschaftlicher Fragestellungen bietet. Auf der anderen Seite werden Modelle in einer Vielzahl von Programmiersprachen geschrieben, arbeiten auf verschiedenen Grids, verwenden ihre eigenen Dateiformate (sowohl für die Eingabe als auch für die Ausgabe), haben unterschiedliche Benutzeroberflächen, haben ihre eigenen Zeitschritte usw. Jeder dieser Faktoren wird Hindernisse für Wissenschaftler, die bestehende Modelle koppeln, erweitern oder einfach ausführen möchten. Und all dies, bevor die wissenschaftlichen Schwierigkeiten der Kopplung oder des Betriebs von Modellen angesprochen werden.

  • Werkzeuge zur Kopplung von Modellen unterschiedlicher Zeit- und Raumskalen (einschließlich Grid Mapper)
  • Zeitschrittmacher, die die Sequenzierung gekoppelter Modelle koordinieren
  • Datenaustauscher zwischen Modellen
  • Wrapper, die Modelle automatisch in das PyMT-Framework laden
  • Dienstprogramme, die Open-Source-Schnittstellen unterstützen (UGRID, SGRID, CSDMS-Standardnamen usw.)
  • Eine Plug-in-Architektur zum Hinzufügen zusätzlicher Modelle zum Framework

Hier stellen wir die Grundlagen der aktuellen Beta-Version von PyMT vor und geben ein Beispiel für Kopplungsmodelle verschiedener Domänen und Gittertypen.

Francesco Serafin, Universität Trient
James D. Westervelt, CERL
Charles R. Ehlschläger, CERL
Olaf David, Colorado State University - Fort Collins
Liqun Lu, Universität von Illinois in Urbana-Champaign
Antoine Petit, Universität von Illinois in Urbana-Champaign
Zhouong Jiang, Universität von Illinois in Urbana-Champaign
Yanfeng Ouyang, Universität von Illinois in Urbana-Champaign

OMS3 ist ein Rahmen für die Umweltmodellierung, der entwickelt wurde, um die Entwicklung wissenschaftlicher Umweltmodelle zu unterstützen und zu erleichtern. Es ist in Java implementiert, einer Programmiersprache, die das Framework flexibel und nicht invasiv macht. Java ist somit die natürliche Sprache für die Entwicklung von OMS-konformen Komponenten. OMS3 gewährleistet jedoch die Langlebigkeit von Implementierungen alter Modelle, die C/C++- und Fortran-Bindungen bereitstellen, die es ermöglichen, leicht modifizierte Legacy-Software mit neu entwickelten Java-Komponenten zu verbinden.

Vor kurzem haben drei wissenschaftliche Programmiersprachen die Aufmerksamkeit der Modellierungs-Community auf sich gezogen: R und Python sowie NetLogo. Sie haben eine flache Lernkurve und das Fehlen deklarierter Datentypen macht sie zur perfekten Lösung für schnelles Scripting. Darüber hinaus verlassen sie sich auf eine aktive Entwicklergemeinschaft, die wissenschaftliche Open-Source-Pakete ständig veröffentlicht und verbessert. Dies ist ein relevanter Aspekt, wenn es darum geht, die Implementierung wissenschaftlicher Algorithmen zu erleichtern und zu beschleunigen. Die OMS3-Funktionen wurden verbessert, um R-, Python- und NetLogo-Bindungen bereitzustellen. Als Ergebnis sind mehrsprachige Modellierungslösungen vollständig interoperabel. Dank der Nicht-Invasivität des Frameworks müssen R-, Python- und NetLogo-Skripte nur geringfügig mit Quellcode-Annotationen modifiziert werden, um OMS-konforme Komponenten zu werden. Die resultierenden Komponenten sind dennoch innerhalb der ursprünglichen Umgebungen lauffähig. Dieser Beitrag zeigt zwei aktuelle Anwendungen von R- und Python-Bindungen: das in R implementierte Regional Urban Growth (RUG) und TRansportation ANalysis SIMulation System (TRANSIMS)-Modelle, die das RTE-Python-Modul erfordern.

Um den Aufwand für die Installation erforderlicher Software-Stacks zu vermeiden, wurde OMS3 in ein Docker-Image gebündelt. Die erhöhte Flexibilität im Workflow ist etabliert.

Takuya Iwanaga, Australische Nationaluniversität
Joel Rahman, Flussangelegenheiten
Daniel Partington, Flinders-Universität
Barry Croke, Australische Nationaluniversität
Anthony J. Jakeman, Australische Nationaluniversität

Integrierte Modelle bestehen oft aus kleineren Komponentenmodellen, die jeweils eine bestimmte Domäne darstellen, die miteinander gekoppelt sind. Solche Modelle sind Software für wissenschaftliche Zwecke, und es bestehen Ähnlichkeiten zwischen Modell- und Softwareentwicklung. Diese Modelle werden in der Regel von Forschern entwickelt, die eine Doppelrolle als Wissenschaftler und Softwareentwickler einnehmen.

Trotz der Ähnlichkeiten in den Entwicklungsansätzen können viele Best Practices im Bereich der Softwareentwicklung nicht angewendet werden. Dies führt zu Problemen, die sich um die Wiederverwendbarkeit, Interoperabilität und Zuverlässigkeit (in Bezug auf Modellanwendung und Ergebnisse) von Modellen drehen, die für die integrierte Bewertung entwickelt wurden. Um diese Bedenken anzugehen, wurden in den letzten Jahren komponentenbasierte Implementierungsansätze, Repositorys, die als Speicher für wiederverwendbare Modelle dienen, und Modellentwicklungs-Frameworks entwickelt und verbreitet.

Diese Ansätze an sich sind kein Allheilmittel für Probleme der Modellentwicklung. Komponentenmodelle können aufgrund des oben erwähnten Mangels an Best Practices schwer zu integrieren und fehleranfällig sein. Die Struktur von Komponenten- und integrierten Modellen in Repositorys kann es schwierig machen, sie in einem anderen Kontext wiederzuverwenden/wieder anzuwenden. Modellentwicklungs-Frameworks können die allgemeine technische Belastung der Modellentwicklung und -integration verringern, sie haben jedoch oft eine eigene steile Lernkurve, die ihre effektive Nutzung behindern kann. Dies kann wiederum Probleme hinsichtlich der Wiederverwendbarkeit und Interoperabilität von Modellen verschärfen. In diesem Papier schlagen wir einige Richtlinien und allgemeine Anweisungen vor, die durch Literaturrecherche und Expertenwissen identifiziert und unterstützt werden, um die Lücke zwischen Software- und Modellierungsparadigmen zu schließen.

DARIO TORREGROSSA, Luxemburgisches Institut für Wissenschaft und Technologie
Ulrich Leopold, Luxemburgisches Institut für Wissenschaft und Technologie

Die Verfügbarkeit von Echtzeitmessungen in Kläranlagen (WWTPs) kann ökologische und wirtschaftliche Vorteile bringen. Da eine Kläranlage bis zu 300.000 Datensätze pro Tag erstellen kann, ist für eine effiziente Entscheidungsfindung eine rechnergestützte Analyseunterstützung erforderlich. Vor kurzem wurde ein Shared Knowledge Decision Support System (SK-DSS) mit spezifischen Anwendungen zur Energieeinsparung in Pumpen und Gebläsen vorgestellt. Das SK-DSS basiert auf Fuzzy-Analysen, identifiziert die Betriebsbedingungen von Geräten und bietet fallbezogene Lösungen. Bei einer großen Anzahl überwachter Geräte ist es notwendig, einen globalen synthetischen Index bereitzustellen, der die Leistung der Anlage und die unterschiedliche Bedeutung der Geräte darstellen kann. In diesem Papier wurde der globale Index vorgeschlagen und Berechnungen mit einer mehrstufigen Fuzzy-Logik-Engine durchgeführt. In der untersten Schicht dieser mehrstufigen Fuzzy-Logic-Engine werden Pumpen und Gebläse einzeln bewertet. Die oberste Ebene ermöglicht die Berechnung eines Scores im Bereich [0-100], indem die Ausgaben der einzelnen Gerätebewertungen verarbeitet werden, ohne dass die auf der untersten Ebene gespeicherten Detailinformationen verloren gehen. Bei der Kalibrierung des Fuzzifizierungsprozesses der obersten Schicht werden den Geräten unterschiedliche Gewichte zugeschrieben. Die Ausgabeergebnisse werden visualisiert, um die Quelle der Ineffizienz besser zu identifizieren. Die Ergebnisse zeigen das Potenzial solcher Indikatoren bei einer größeren Anzahl von Anlagengeräten und in Zukunft wird der globale Index ein Alarmsystem für den Anlagenleiter auslösen.

Daniel Garijo, Universität von Südkalifornien
Deborah Khider, Universität von Südkalifornien
Yolanda Gil, Universität von Südkalifornien
Lucas Augusto Carvalho, Universität von Südkalifornien
Bakinam T. Essawy, Universität von Virginia
Suzanne Pierce, University of Texas Austin
Daniel H. Lewis, University of Texas Austin
Varun Ratnakar, Universität von Südkalifornien
Scott Peckham, University of Colorado Boulder
Christopher J. Duffy, Die Pennsylvania State University
Jonathan L. Goodall, Universität von Virginia

ZIELE: Modellrepositorien sind Schlüsselressourcen für Wissenschaftler in Bezug auf die Entdeckung und Wiederverwendung von Modellen, konzentrieren sich jedoch nicht auf wichtige Aufgaben wie Modellvergleich und -zusammenstellung. Modellrepositorys erfassen normalerweise keine wichtigen vergleichenden Metadaten, um Annahmen und Modellvariablen zu beschreiben, die es einem Wissenschaftler ermöglichen, zu erkennen, welche Modelle für ihre Zwecke besser geeignet sind. Sobald ein Wissenschaftler ein Modell aus einem Repository auswählt, erfordert es außerdem erhebliche Anstrengungen, das Modell zu verstehen und zu verwenden. Unser Ziel ist es, Modellrepositorys mit maschinell verwertbaren Modellmetadaten zu entwickeln, mit denen Wissenschaftler bei der Modellauswahl und -wiederverwendung intelligent unterstützt werden können.

METHODIK: Wir erweitern das OntoSoft-Metadatenregister für semantische Software (http://www.ontosoft.org/) um maschinenlesbare Metadaten. Diese Arbeit umfasst: 1) die Darstellung von Modellvariablen und deren Beziehungen 2) die Annahme einer standardisierten Darstellung von Modellvariablen basierend auf den Konventionen der Geoscience Standard Names Ontology (GSN) (http://www.geoscienceontology.org/) 3) die Erfassung der semantische Struktur von Modellaufrufsignaturen basierend auf funktionalen Eingaben und Ausgaben und deren Entsprechung zu Modellvariablen 4) Assoziieren von Modellen mit leicht wiederverwendbaren Arbeitsablauffragmenten zur Datenvorbereitung, Modellkalibrierung und Visualisierung der Ergebnisse.

ERGEBNISSE: Wir haben OntoSoft erweitert, um Modellvariablen zu exponieren und GSN-Ontologien zu verwenden, um Hydrologiemodelle zu beschreiben. Wir entwerfen Repräsentationen, um die semantische Struktur von Modellaufrufsignaturen zu erfassen, die Modellvariablen Datenanforderungen zuordnen, um das Auffinden und den Vergleich von Modellen zu erleichtern.

BEDEUTUNG: Das erweiterte OntoSoft-Framework würde die Zeit zum Auffinden, Verstehen, Vergleichen und Wiederverwenden von Modellen reduzieren.

Imeshi N. WEERASINGHE, Vrije Universiteit Brussel
Celray James CHAWANDA, Vrije Universiteit Brussel
A. Griensven, Vrije Universiteit Brüssel (VUB), UNESCO-IHE

Komplexe Agrarumweltmodelle haben eine Vielzahl von Parametern, die bei der Kalibrierung problematisch sind. Eine Sensitivitätsanalyse kann helfen, die empfindlichsten Parameter zu identifizieren, die in den Kalibrierungsprozess einbezogen werden sollten. Abhängig von der Anzahl der analysierten Parameter und der verwendeten Methode variiert die erforderliche Anzahl von Simulationen von mäßig bis sehr groß. Folglich beeinflussen die Anzahl der Simulationen, die Anzahl der Laufjahre und die Größe des Modells die Rechenleistung und damit die benötigte Rechenzeit. Dies begrenzt oft die Anzahl der Parameter und/oder die Anzahl der Simulationen, daher die Robustheit der Analyse. Eine mögliche Lösung besteht darin, ein erstes Screening von Parametern mit einer Methode durchzuführen, die weniger Simulationen erfordert und daher mehr Parameter umfassen kann. Anschließend kann mit wesentlich mehr Simulationsläufen ein robusteres Verfahren an den erhaltenen weniger sensitiven Parametern durchgeführt werden. Zusätzlich können Cloud Computing und Parallelisierung genutzt werden, um die Rechenzeit zu reduzieren.SWAT, ein komplexes hydrologisches Modell, hat eine Vielzahl von Parametern, die die Schätzungen der Wasserproduktivität (WP) beeinflussen, definiert als das Verhältnis der Produktion (berechnet als Biomassezuwachs oder landwirtschaftlicher Ernteertrag) zum Wasserverbrauch (berechnet als Evapotranspiration). Um den Kalibrierungsprozess zu unterstützen, wurde eine Sensitivitätsanalyse für WP-Variablen auf der Beckenebene durchgeführt, um die möglichen Vorteile der Verwendung von: einer zweistufigen Methode mit einem anfänglichen Screening (LH-OAT) vor der Durchführung einer fortgeschritteneren quantitativen Methode (SOBOL) zu untersuchen. Parallelisierung und Cloud-Computing. Erste Ergebnisse zeigen erhebliche Zeitvorteile durch die zweistufige Methode inklusive Parallelisierung und Cloud Computing.

Yolanda Gil, Universität von Südkalifornien
Kelly Cobourn, Virginia Tech
Ewa Deelman, Universität von Südkalifornien
Chris Duffy, Die Pennsylvania State University
Rafael Ferreira da Silva, Universität von Südkalifornien
Armen Kemanian, Die Pennsylvania State University
Craig Knoblock, Universität von Südkalifornien
Vipin Kumar, Universität von Minnesota
Scott Peckham, University of Colorado Boulder
Lucas Augusto Carvalho, Universität von Südkalifornien
Yao-Yi Chang, Universität von Südkalifornien
Daniel Garijo, Universität von Südkalifornien
Ankush Khandelwal, Universität von Minnesota
Deborah Khider, Universität von Südkalifornien
Minh Pahm, Universität von Südkalifornien
Jay Pujara, Universität von Südkalifornien
Varun Ratnakar, Universität von Südkalifornien
Maria Stoica, University of Colorado Boulder
Binh Vu, Universität von Südkalifornien

Große gesellschaftliche und ökologische Herausforderungen erfordern die Vorhersage, wie sich natürliche Prozesse und menschliche Aktivitäten gegenseitig beeinflussen. Die Modellintegration zwischen natur- und sozialwissenschaftlichen Disziplinen zur Untersuchung dieser Probleme erfordert das Auflösen von semantischen, räumlich-zeitlichen und Ausführungsinkongruenzen, die heute weitgehend von Hand durchgeführt werden und mehr als zwei Jahre menschlicher Anstrengung erfordern können. Wir entwickeln das Model INTegration (MINT)-Framework, das umfassendes Wissen über Modelle und Daten mit mehreren innovativen Komponenten enthält: 1) Neue prinzipienbasierte Ontologie-Generierungswerkzeuge zur Modellierung von Variablen, die zur Beschreibung von Modellen und Daten verwendet werden 2) Ein neuartiges Workflow-System, das wählt relevante Modelle aus einem kuratierten Register aus und verwendet abduktives Denken, um neue Modelle und Datentransformationsschritte zu hypothetisieren 3) Ein neues Data Discovery- und Integrations-Framework, das neue Datenquellen findet und kategorisiert, lernt, Informationen sowohl aus Online-Quellen als auch aus Fernerkundungsdaten zu extrahieren, und transformiert die Daten in das von den Modellen erforderliche Format 4) Neue wissensgesteuerte maschinelle Lernalgorithmen für die Modellparametrisierung zur Verbesserung der Genauigkeit und Schätzung der Unsicherheit 5) Ein neuartiges Framework für die multimodale skalierbare Workflow-Ausführung. Wir beginnen, Modelle und Datensätze mit Standardontologien zu kommentieren und Modellworkflows zu erstellen und auszuführen, die Klima, Hydrologie, Landwirtschaft und Wirtschaft umfassen. Wir bauen auf vielen bereits existierenden Tools auf, darunter CSDMS, BMI, GSN, WINGS, Pegasus, Karma und GOPHER. Eine schnelle Modellintegration würde eine effiziente und umfassende gekoppelte Modellierung von Mensch und Natur ermöglichen.

Scott Dale Peckham, University of Colorado, Boulder
Maria Stoica, University of Colorado, Boulder

Jeder Datensatz und jedes Computermodell hat sein eigenes internes Vokabular (d. h. Namen oder Labels), um auf seine Eingabe- und/oder Ausgabevariablen zu verweisen. Es ist daher selbst für einen Experten schwer zu wissen, ob eine in einer gegebenen digitalen Ressource gespeicherte/berechnete Variable einer von einer anderen Ressource benötigten äquivalent ist. Experten können dies in der Regel durch einen Prozess herausfinden, der das Untersuchen der verwendeten Gleichungen, das Kennenlernen des Domänenjargons, das Lesen von Dokumentation (z. B. Quellcode, Handbücher und Papiere) oder das Gespräch mit dem Entwickler der Ressource umfassen kann. Dies ist jedoch zeitaufwendig, frustrierend und ineffizient. Die einzige Möglichkeit, diese semantische Vermittlungsaufgabe zu automatisieren, besteht in einer genauen, einmaligen Abbildung dieser internen Namen auf Variablennamen in einem standardisierten, maschinell nutzbaren Vokabular (d. h. Zugriff über Funktionsaufrufe in einem Programm). Diese Aufgabe, interne Variablennamen standardisierten Namen zuzuordnen, wird als "semantische Annotation" bezeichnet. Nach Abschluss ist es möglich, jedes Mal, wenn diese Ressource zur Verwendung in einem Arbeitsablauf ausgewählt wird, automatisch eine "semantische Ausrichtung" durchzuführen, sodass Variablen korrekt zwischen gekoppelten Ressourcen übergeben werden können.

Wir werden Bemühungen beschreiben, halbautomatisch standardisierte Variablennamen für verschiedene Domänen zu generieren, indem wir auf den grundlegenden und regelbasierten Prinzipien der Geoscience-Standardnamen-Ontologie (geoscienceontology.org) aufbauen. Unser Fokus liegt zunächst auf Messkonzepten in den Bereichen Landwirtschaft, Sozialwissenschaften, Ökonomie, Verkehrsnetze und Demografie. Diese Arbeit wird durch ein Projekt namens MINT (Model INTegration) finanziert, das Teil des World Modelers-Programms ist.

Rafael Ferreira da Silva
Daniel Garijo, Universität von Südkalifornien
Scott Peckham, University of Colorado Boulder
Yolanda Gil, Universität von Südkalifornien
Ewa Deelman, Universität von Südkalifornien
Varun Ratnakar, Universität von Südkalifornien

Workflows bieten eine solide Grundlage, um Herausforderungen bei der Modellintegration zu bewältigen. Integrierte Modelle können einfach verkettet sein oder müssen in einer verschachtelten (engen gekoppelten) Weise ausgeführt werden. Datenaustauschformate können sich erheblich unterscheiden (z. B. skalieren), und es können Datentransformationen erforderlich sein, um verfügbare Daten in die von den Modellen benötigten Formate zu konvertieren. In dieser Arbeit schaffen wir die MINT-Umgebung (Modeling INTegration) für die Workflow-Komposition und -Ausführung, indem wir die etablierten Workflow-Kompositions- (WINGS) und -Ausführungssysteme (Pegasus) um ein Framework zur Modellkopplung für das Execution-Interleaving (EMELI/BMI) erweitern. . WINGS bietet ein semantisches Workflow-System, das Einschränkungen darstellen und propagieren kann, um Workflows zu validieren, während Pegasus eine verteilte Workflow-Ausführung über Infrastrukturen hinweg ermöglicht und automatisiertes Datenmanagement und Fehlertoleranz bietet. BMI bietet standardisierte, nicht-invasive und Framework-unabhängige APIs für Modelle. Modelle für die Integration werden aus einem Modellkatalog basierend auf interessierenden Variablen (und basierend auf Ontologien von Standardvariablennamen) ausgewählt. Mittels abduktiver Argumentation wird MINT die Durchführbarkeit von Arbeitsabläufen bewerten, indem es Datentransformationsaufgaben für die Konvertierung der verfügbaren Daten in die von den Modellen benötigten Formate aufstellt. Datentransformationsdienste generieren mehrstufige Skripte, um die hypothetischen Datentransformationsaufgaben zu erfüllen. Die skalierbare Modellausführung mit mehreren Methoden von MINT wird dann die Ausführung der engen Modellkopplung (mit EMELI/BMI) und der unabhängigen Modellverkettung durchführen, die bei Bedarf die erforderlichen Transformationen anwendet. Die integrierte MINT-Modellierungsumgebung würde die Modellierungsanalyse erleichtern und beschleunigen, indem sie neue Datentransformationen über abduktives Denken generiert und eine skalierbare Ausführung von Verkettungs- oder eng gekoppelten Modellen bereitstellt.

Jeff Jeffrey Starn, USGS NAWQA-Programm, East Hartford, CT

Grundwasser-Verweilzeitverteilungen (RTDs) sind entscheidend für das Verständnis der Verzögerungszeiten zwischen der Neubildung am Grundwasserspiegel und der Grundströmung in Bächen. RTDs können jedoch nicht direkt gemessen werden, sondern müssen aus einer Datenanalyse mit Modellen abgeleitet werden. Gletschergrundwasserleiter stellen Modellierungsansätze vor Herausforderungen, da sie räumlich diskontinuierlich sind und sehr variable Eigenschaften aufweisen. Ein innovativer Ansatz des USGS verwendet maschinelles Lernen in Verbindung mit numerischen Modellen, was zu einer schnellen und robusten Methode zur Generierung von RTDs führt. Um die Methode zu demonstrieren, wurden Computerprogramme verwendet, um automatisch verallgemeinerte Finite-Differenzen-Grundwasserströmungsmodelle in 30 Wassereinzugsgebieten in den nordöstlichen vergletscherten USA zu erstellen. RTDs wurden aus diesen Modellen mit flussgewichteter Partikelverfolgung berechnet. Ziele für maschinelles Lernen wurden aus den simulierten RTDs durch Anpassen von 3-Parameter-Weibull-Verteilungen erstellt. Eine Form der bestraften linearen Regression namens Multitask LASSO (Least Absolute Shrinkage and Selection Operator)-Regression wurde an den Weibull-Parametern unter Verwendung hydrogeographischer Variablen der modellierten Domänen als erklärende Merkmale trainiert. Da LASSO-Features standardisiert sind, können Koeffizientengrößen verglichen werden, um die relative Bedeutung der Features zu bestimmen. Multitask-LASSO wurde verwendet, um die drei Weibull-Parameter gleichzeitig zu schätzen, wodurch sichergestellt wurde, dass die gleichen Merkmale verwendet wurden, um alle Parameter zu schätzen. Die Ergebnisse zeigen, dass die Heterogenität des Grundwasserleiters und der Wasseraustausch zwischen Gletscherablagerungen und Grundgestein und Oberflächenwasser wichtig für die Abschätzung von RTDs sind. Das aus dem LASSO gewonnene quantitative Verständnis ermöglicht die Schätzung von RTDs in der gesamten vergletscherten Region.

Faizal Rohmat, Colorado State University
John W. Labadie, Colorado State University
Timothy K. Gates, Colorado State University

Die Produktivität der Bewässerungslandwirtschaft im Lower Arkansas River Basin (LARB) in Colorado, zusammen mit ähnlichen Becken im Westen der USA, wird durch Salzgehalt und Staunässe bedroht, was zu geringeren Ernteerträgen und aufgegebenem Ackerland führt. Darüber hinaus hat Überbewässerung und Versickerung aus ungefütterten Kanälen zu erhöhten Konzentrationen von Nährstoffen und Spurenelementen wie Selen aus darunter liegenden Meeresschiefer in das Grundwasser und den Fluss geführt, die die Umweltstandards übertreffen. Intensive Datenerhebungs- und Modellierungsbemühungen der Colorado State University im LARB in den letzten 20 Jahren haben zur Entwicklung des Flussgebietsmanagementmodells GeoMODSIM sowie einer kalibrierten, räumlich verteilten Grundwassermodellierung auf Basis von MODFLOW-UZF zur Bewertung von Best Management Practices (BMPs) zur Verbesserung der Wasserqualität und Steigerung der Produktivität. GeoMODSIM simuliert einzugsgebietsweite Wassermanagementstrategien, um die Auswirkungen veränderter Rückflussmuster aufgrund der BMP-Implementierung auszugleichen. Dies ist erforderlich, um die Einhaltung der Wasserrechtsprioritäten von Colorado und des Colorado-Kansas Interstate Compact zu gewährleisten. Für eine genaue Modellierung des komplexen Bach-Aquifer-Systems des LARB ist die Verknüpfung des Modells mit MODFLOW-UZF unerlässlich. Leider wird die Integration von MODFLOW-UZF mit GeoMODSIM durch die intensiven Rechenanforderungen behindert, die eine direkte Verknüpfung unhandlich machen. Ein künstliches neuronales Netz (KNN) wurde erfolgreich entwickelt, trainiert und getestet, um als genaues und recheneffizientes Surrogat für MODFLOW-UZF zu dienen, das direkt mit GeoMODSIM verknüpft werden kann. Dies ermöglicht die Bewertung der Auswirkungen verschiedener BMP-Szenarien auf Beckenebene unter Verwendung von Input-Output-Datensätzen, die aus zahlreichen MODFLOW-UZF-Simulationen im LARB generiert wurden.

Tomasz E. Koralewski, Texas A&M University
John K. Westbrook, USDA, ARS, SPARC
William E. Grant, Texas A&M University
Hsiao-Hsuan Wang, Texas A&M University

Spezifische fragengetriebene ökologische Modelle erfordern oft die Darstellung allgemeiner physikalischer Umweltprozesse, für die komplexe, weithin anerkannte meteorologische, hydrologische und ozeanographische Modelle zur Verfügung stehen. Obwohl die konzeptionelle Kopplung von physikalischen Umwelt- und ökologischen Modellen einfach ist, stellen rechnerische Verknüpfungen ökologische Modellierer mit begrenztem Zugang zu Software-Engineering-Know-how oft vor unüberwindbare Probleme. Besonders problematisch kann es sein, im Zuge einer Simulation einen kontinuierlichen Dialog zwischen georeferenzierten physikalischen Umweltmodellen und räumlich expliziten ökologischen Modellen herzustellen. Wir beschreiben ein allgemeines Kopplungsframework, das eine modulare Struktur durch eine Zwischenschicht zwischen den bestehenden physikalischen Modellen und den kundenspezifischen räumlich-expliziten ökologischen Modellen ermöglicht. Wir demonstrieren die Anwendbarkeit dieses allgemeinen Rahmens, indem wir HYSPLIT rechnerisch mit einem in NetLogo implementierten räumlich expliziten ökologischen Modell verknüpfen. HYSPLIT ist ein weit verbreitetes komplexes meteorologisches Modell, dessen Anwendungen die Simulation von Luftpartikeltransport, -dispersion und -ablagerung umfassen. In Bezug auf ökologische Anwendungen können die „Luftpartikel“ luftgetragene Insekten wie Blattläuse darstellen. NetLogo ist eine beliebte Programmierplattform für räumlich-explizite, individuell-basierte ökologische Modellierung, die wir mit HYSPLIT gekoppelt haben, um das regionale Wachstum und die Verbreitung von Blattläusen zu simulieren. Wir beschreiben ein maßgeschneidertes Programm, das einen kontinuierlichen Dialog zwischen diesen beiden Modellen ermöglicht. Der Dialog findet auf einer zeitlichen Skala auf täglicher Basis für einen Zeitraum statt, der nur durch das Studienziel begrenzt ist. Das Programm sollte leicht anpassbar sein, um andere Sätze von physikalischen Umwelt- und Umweltmodellen mit Anpassungen für die verwendete Programmiersprache und die Spezifität der Eingabe-/Ausgabedateien zu koppeln.

Christopher Mutel
Stefan Pauliuk, Universität Freiburg

Die Industrieökologie ist eine vielfältige Gemeinschaft, die in einigen Bereichen viele Forschungsbereiche und Anwendungsdomänen abdeckt, wie z. B. die Ökobilanz (LCA), gemeinsame Datenbanken und Datenformate sind weit verbreitet, während in anderen Bereichen, wie der Materialflussbewertung (MFA), es keine gängigen Datenformate oder Datenbanken. Jüngste Arbeiten haben gezeigt, dass in den meisten Bereichen der Industrieökologie ein gemeinsames zugrunde liegendes Wissensmodell existiert. Dieser gemeinsame sozioökonomische Metabolismus ist ein räumlich und zeitlich aufgelöster Graph der Produkt- und Dienstleistungsströme in der gesamten Wirtschaft, einschließlich in und aus Lagerbeständen. In dieser Präsentation überprüfen wir frühere Arbeiten zur Entwicklung einer gemeinsamen Ontologie für LCA und MFA und beschreiben einen Entwurf eines einfachen gemeinsamen Formats und einer Ontologie für industrielle Ökologiedaten unter Verwendung von JSON-Linked Data. Wir zeigen, wie dieses Format auf bestehende Datenquellen angewendet werden kann und wie die Kombination einer gemeinsamen Ontologie mit bestehenden gemeinsamen Nomenklatursystemen zu einer radikalen Reduzierung des Aufwands für den Datenaustausch führen kann. Während weitere Anstrengungen erforderlich sind, um ein vollständiges Datenformat zu erstellen, einschließlich z. Materialeigenschaften und Details zur Dateneingabe und -überprüfung kann unser einfaches Datenformat bereits in Open-Source-Software wie Brightway (https://brightwaylca.org/) verwendet werden.

Francesco Serafin, Universität Trient
Olaf David, Colorado State University - Fort Collins
André Dozier, Colorado State University
Jack Carlson, Colorado State University - Fort Collins

Anwendungen von physikalisch basierten Umweltmodellen aus der Forschung sollten sowohl in Forschungs- als auch in Planungs-/Beratungsumgebungen allgegenwärtig sein. Aufgrund ihrer Komplexität, Anforderungen an die Datenauflösung, Parameternummer, Plattformaffinität und anderer Kriterien sind sie jedoch selten „out-of-the-box“ für Feldanwendungen geeignet. Ergebnisse von physikalisch basierten Modellen gelten als die genauesten, aber der Betrieb eines gesamten Systems erfordert spezielles Wissen, umfangreiche Einrichtung und manchmal beträchtliche Rechenzeit. Fragen aus der Feldanwendung erfordern dagegen einfach zu erhaltende, schnelle und „ausreichend genaue“ Ergebnisse. Die Verwendung von Web-Services könnte einige der Auswirkungen für Modellbenutzer mildern, aber letztendlich die Verantwortung und die Arbeitsbelastung auf die Hosting-Umgebung verlagern.

Um die Lücke zwischen Forschungs- und Feldmodellen zu schließen, schlagen wir einen auf Machine Learning (ML) basierenden Metamodell-Ansatz vor, der darauf abzielt, das intrinsische Wissen eines physikalischen Modells in einem Ensemblesystem künstlicher neuronaler Netze zu erfassen und für vereinfachte Antworten zur Verfügung zu stellen auf das Feld problemspezifische Fragen. Es wurde ein Metamodellierungsansatz entwickelt, um den Übergang von der Forschung zum Feld zu erleichtern, indem ein Modellierungsframework mit ML-Bibliotheken interagieren kann, um Modellersatze für eine (jede) Modellierungslösung zu entwickeln. Die Cloud Services Integration Platform CSIP/OMS wurde erweitert und verwendet, um Daten zu sammeln und das Metamodell abzuleiten. Hier werden hauptsächlich NeuroEvolution of Augmenting Topology (NEAT)-Techniken in einer Ensemble-Anwendung in Kombination mit ANN-Unsicherheitsquantifizierung verwendet. Zwei Anwendungsbeispiele wurden als Prototypen erstellt und werden vorgestellt, ein Erosionsmodell für Platten und Bäche und ein Modell für den täglichen Abfluss.

Holger R. Maier, Universität von Adelaide
Eva H. Y. Beh, Universität von Adelaide
Feifei Zheng, Zhejiang-Universität
Graeme C. Dandy, Universität von Adelaide
Zoran Kapelan, Universität Exeter

Die optimale langfristige Abfolge der Wasserinfrastruktur wird durch die Notwendigkeit erschwert, Unsicherheiten aufgrund von Faktoren wie Klimawandel und Demografie zu berücksichtigen. Dies erfordert die Berechnung von Robustheitsmetriken, um die Systemleistung zu bewerten, wodurch rechenaufwendige Simulationsmodelle innerhalb jeder Optimierungsiteration viele Male ausgeführt werden müssen, was zu nicht durchführbaren Laufzeiten führt. Um dieses Manko zu überwinden, wird ein Ansatz entwickelt, der bei Robustheitsberechnungen Metamodelle anstelle von rechenintensiven Simulationsmodellen verwendet. Der Ansatz wird für die optimale Sequenzierung von Optionen zur Erweiterung der Wasserversorgung für den südlichen Teil der Wasserversorgung von Adelaide, Südaustralien, demonstriert. Ein Planungshorizont von 100 Jahren wird in zehn gleiche Entscheidungsstufen unterteilt, um verschiedene Optionen zur Erweiterung der Wasserversorgung, einschließlich Entsalzung, Regenwassernutzung und Haushalts-Regenwassertanks, zu sequenzieren. Zu den Zielen gehören die Minimierung des durchschnittlichen Barwerts der Angebotssteigerungskosten, die Minimierung des durchschnittlichen Barwerts der Treibhausgasemissionen und die Maximierung der Angebotsrobustheit. Die unsicheren Variablen sind Niederschlag, Wasserverbrauch pro Kopf und Bevölkerung. Entscheidungsvariablen sind die Umsetzungsstufen der verschiedenen Optionen zur Erweiterung der Wasserversorgung. Künstliche neuronale Netze werden als Metamodelle verwendet, um eine recheneffiziente Berechnung aller Ziele in jeder der Entscheidungsstufen zu ermöglichen. Die Ergebnisse veranschaulichen, dass die KNN-Modelle in der Lage sind, die Ergebnisse der Simulationsmodelle mit einer Genauigkeit von 5 % zu replizieren und gleichzeitig den Gesamtrechenaufwand von geschätzten 33,6 Jahren auf 50 Stunden zu reduzieren.

Ievgen Ievdin, Abschnitt SW 2.2. - Decision Support Systems, Bundesamt für Strahlenschutz, Neuherberg, Deutschland
Dmytro Trybushnyi, Unfallfolgegruppe, Institut für Nuklear- und Energietechnik, Karlsruher Institut für Technologie, Deutschland
Wolfgang Raskob, Unfallfolgegruppe, Institut für Nuklear- und Energietechnik, Karlsruher Institut für Technologie, Deutschland
Tim Müller, Unfallfolgegruppe, Institut für Nuklear- und Energietechnik, Karlsruher Institut für Technologie, Deutschland
Oleksandr Pylypenko, Institut für Mathematische Maschinen und Systemprobleme, Nationale Akademie der Wissenschaften, Kiew, Ukraine
Oleksandr Mykhalskyi, Institut für Mathematische Maschinen und Systemprobleme, Nationale Akademie der Wissenschaften, Kiew, Ukraine
Mark Zheleznyak, Institut für Umweltradioaktivität, Universität Fukushima, Japan

Entscheidungsunterstützungssysteme für das Notfallmanagement außerhalb des Standorts im Falle eines nuklearen Unfalls sollten unter anderem Echtzeit-Überwachungssysteme rund um ein Kernkraftwerk, regionale GIS-Informationen, Quellbegriffsdatenbanken und Geodaten für Bevölkerungs- und Umweltmerkmale integrieren. Sie sollten Modelle nach dem Stand der Technik umfassen, um den Verbleib versehentlich freigesetzter Radionuklide in Luft, Wasser, Vegetation und Boden zu simulieren, um die Exposition der Bevölkerung über alle relevanten Expositionspfade abzuschätzen. Das Echtzeit-Online-Entscheidungsunterstützungssystem RODOS wird seit 1992 im Rahmen der FTE-Rahmenprogramme der Europäischen Kommission entwickelt, um die oben formulierten Ziele zu erreichen. RODOS wurde im letzten Jahrzehnt als Multiplattform-Softwaresystem JRODOS in einer Java-Umgebung neu entwickelt. Die Softwarearchitektur von JRODOS organisiert den Datenfluss zwischen verschiedenen Quellen und Empfängern, z. B. Datenbanken, numerische Modelle, Benutzeroberfläche, über einheitliche Datenobjekte. Diese Objekte (Datenelemente) sind in einem erweiterbaren hierarchischen Baum von Java-Klassen unter Verwendung der Vorteile objektorientierter Programmierprinzipien organisiert. Die numerische Modellintegration erfolgt durch verteilte Wrapper-Objekte (DWO), die eine logische, visuelle und technische Integration von Rechenmodellen und dem Systemkern ermöglicht, auch wenn Modelle unterschiedliche Programmiersprachen wie FORTRAN, C und JAVA verwenden. Die DWO-Technologie unterstützt verschiedene Ebenen der Interaktivität, die von verschiedenen Rechenmodellen benötigt werden, einschließlich Pull- und Push-gesteuerte Ketten, Benutzerinteraktionsunterstützung, Untermodellaufrufe. Die DWO- und Data Item-Ansätze sind für die Integration der Sätze der verschiedenen Rechenmodelle, die Skalare und Arrays lesen und erzeugen, in DSS anwendbar.

Chenda Deng
Ryan Bailey, Colorado State University - Fort Collins

Regionen mit bewässertem Ackerland im South Platte River Basin (SPRB) im Nordosten Colorados haben in letzter Zeit Bedingungen extrem geringer Wasserspiegeltiefen erlebt (

TianXiang Yue, Institut für Geographische Wissenschaften und Naturressourcenforschung, Universität der Chinesischen Akademie der Wissenschaften Science
Na Zhao, Institut für Geographische Wissenschaften und Naturressourcenforschung, Universität der Chinesischen Akademie der Wissenschaften
ZhengPing Du, Institut für Geographische Wissenschaften und Naturressourcenforschung, Universität der Chinesischen Akademie der Wissenschaften
ZeMeng-Fan, Institut für Geographische Wissenschaften und Naturressourcenforschung, Universität der Chinesischen Akademie der Wissenschaften

Im Sinne des fundamentalen Theorems der Erdoberflächenmodellierung ist eine Erdoberfläche oder eine Teiloberfläche der Erdoberflächenumgebung eindeutig sowohl durch extrinsische als auch durch intrinsische Invarianten der Oberfläche definiert, die mit einem geeigneten Verfahren zur Integration der extrinsischen und intrinsischen simuliert werden können Invarianten, wie das Verfahren zur hochgenauen Oberflächenmodellierung (HASM), wenn die räumliche Auflösung der Oberfläche fein genug ist, um das/die interessierende(n) Attribut(e) zu erfassen. HASM wurde initiativ entwickelt, um Lösungen für Fehlerprobleme bei der Modellierung von Umweltsystemen zu finden. HASM hat jedoch einen enormen Rechenaufwand, da es einen Gleichungssatz zum Simulieren jedes Gitters einer Oberfläche verwenden muss. Um die Berechnung von HASM zu beschleunigen, haben wir eine Mehrgittermethode von HASM (HASM-MG), einen vorkonditionierten konjugierten Gradientenalgorithmus von HASM (HASM-PCG), eine adaptive Methode von HASM und eine Anpassungsberechnung von HASM (HASMAC ). Die Mehrgittermethode ist die schnellste numerische Methode zur Lösung partieller Differentialgleichungen, die auf zwei Prinzipien basiert, nämlich Fehlerglättung und Grobgitterkorrektur. Der vorkonditionierte konjugierte Gradientenalgorithmus kann durch Einführung eines Vorkonditionierers entwickelt werden, um eine schnellere Konvergenz des konjugierten Gradientenverfahrens sicherzustellen. Das Prinzip des adaptiven Verfahrens besteht darin, dass Gitterzellen mit großem Fehler zur Verfeinerung markiert werden, während Gitterzellen mit einer zufriedenstellenden Genauigkeit unverändert bleiben. Die Ausgleichsrechnung ermöglicht es, alle Beobachtungen in die Ausgleichung einzugeben und mittels der Methode der kleinsten Quadrate gleichzeitig in den Berechnungen zu verwenden.

Matthew E. Peacock, Colorado State University - Fort Collins
John W. LabadieDr., Colorado State University - Fort Collins

Die dynamische Programmierung (DP) gilt als die ideale Optimierungsmethode zur Lösung von Betriebsproblemen von Mehrzweck-Lagerstättensystemen, da sie ihre komplexen nichtlinearen, dynamischen und stochastischen Eigenschaften realistisch anspricht. Der einzige Nachteil von DP ist der sogenannte „Fluch der Dimensionalität“, der die Methode seit ihrer Einführung durch Richard Bellman in den 1950er Jahren plagt. Dimensionalitätsprobleme ergeben sich aus der Notwendigkeit, den Zustands-Aktions-Raum und Zufallsvariablen zu diskretisieren, was zu einer Explosion der Rechen- und Speicheranforderungen mit erhöhter Zustandsraum-Dimensionalität führt. DP erfordert auch die Entwicklung von räumlich-zeitlichen stochastischen hydrologischen Modellen für den Betrieb von Speichersystemen, die unter komplexen klimatischen und meteorologischen Bedingungen schwierig sein können. Ein Deep Reinforcement Learning Algorithmus wird zur Lösung von DP-Problemen für den Betrieb von Lagerstättensystemen angewendet, der Dimensionierungsprobleme effektiv überwindet, ohne dass Modellvereinfachungen erforderlich sind oder die einzigartigen Vorteile von DP geopfert werden. Der Algorithmus verwendet einen iterativen Lernprozess, der verzögerte Belohnungen berücksichtigt, ohne ein explizites probabilistisches Modell der hydrologischen Prozesse zu erfordern. Der Algorithmus wird in einer modellfreien stochastischen Umgebung ausgeführt, wobei der Algorithmus implizit lernt das zugrunde liegende stochastische Verhalten des Systems zur Entwicklung dynamischer, optimaler Rückkopplungsbetriebsrichtlinien. Dimensionalitätsprobleme werden durch die Verwendung genauer Funktionsapproximatoren für die Zustandswert- und Richtlinienfunktionen basierend auf tiefen neuronalen Netzen angegangen. Der Deep Reinforcement Learning-Algorithmus wird angewendet, um optimale Betriebsstrategien für Lagerstätten im Upper Russian River-Becken in Nordkalifornien zu entwickeln, wenn mehrere nicht angemessene Ziele vorhanden sind, darunter Hochwasserschutz, häusliche und landwirtschaftliche Wasserversorgung und umweltbedingte Abflussanforderungen.

Caleb A. Buahin
Jeffery S. Horsburgh, Utah State University
Bethany T. Neilson, Utah State University

Der Übergang vom traditionellen Ansatz der Ausführung von Wasserressourcenmodellen auf einzelnen Desktop-Computern zu einer zunehmend allgegenwärtigen High Performance Heterogeneous Computing (HPC)-Infrastruktur führt zu Effizienzen, die dazu beitragen könnten, die Genauigkeit der Modelle gegenüber den zugrunde liegenden physikalischen Prozessen, die sie simulieren, zu verbessern. Modellentwickler können beispielsweise in der Lage sein, mehr physikalisch basierte Formulierungen zu integrieren, Berechnungen über feinere räumliche und zeitliche Maßstäbe durchzuführen und Simulationen durchzuführen, die lange Zeiträume mit angemessenen Ausführungszeiten umfassen. Darüber hinaus können rechenintensive Simulationen einschließlich Parameterschätzung, Unsicherheitsbewertung, Multi-Szenario-Bewertungen usw. handhabbarer werden. Die Verwendung von HPC zur Ausführung dieser Arten von Simulationen innerhalb von komponentenbasierten Modellierungsframeworks ist ein Ansatz, der im Bereich der Wasserressourcenmodellierung noch weitgehend unzureichend genutzt wird. In dieser Zusammenfassung beschreiben wir Fortschritte, die wir im komponentenbasierten Modellierungsframework HydroCouple implementiert haben, um es Wassermodellentwicklern zu ermöglichen, heterogene Multi-Beschleuniger-Cluster zu nutzen. HydroCouple verwendet weitgehend die OpenMI-Schnittstellendefinitionen, fügt jedoch neue Schnittstellen hinzu, um standardisierte geo-temporale Datenstrukturen, anpassbare gekoppelte Modelldatenaustausch-Workflows und verteilte Berechnungen in der HPC-Infrastruktur besser zu unterstützen. Wir beschreiben auch, wie einige dieser Fortschritte verwendet wurden, um gekoppelte Modelle für zwei Anwendungen zu entwickeln: 1) Kopplung eines eindimensionalen Regenwasserkanalmodells mit einem hochauflösenden, zweidimensionalen Überland-Flussmodell für ein städtisches Regenwassertransportsystem, und 2) Kopplung einer Reihe von Modellkomponenten, die entwickelt werden, um den Wärmetransport in heterogenen Flüssen mit signifikanter Längsströmungsvariabilität zu simulieren.

Rajbir Parmar, US-Umweltschutz
Chris Knightes, Umweltschutzbehörde
Deron Smith, Unabhängiger Auftragnehmer
Kurt Wolfe, Amt für Forschung und Entwicklung der US-Umweltschutzbehörde
Mike Galvin, US-Umweltschutzbehörde
Josh Koblich, Oak Ridge Assoziierte Universitäten
Jan Sitterson, Oak Ridge Assoziierte Universitäten
John M. Johnston, US-Umweltschutzbehörde
Tom Purucker, Amt für Forschung und Entwicklung der US-Umweltschutzbehörde

Die United States Environmental Protection Agency (EPA) hat eine Sammlung von Mikrodiensten namens Hydrologic Micro Services (HMS) entwickelt, um hydrologische und Wasserqualitätsmodellierungsworkflows zu erstellen. HMS-Komponenten sind sowohl als RESTful-Webservices als auch als Desktop-Bibliotheken verfügbar. Eine HMS-Komponente kann mehrere Implementierungen aufweisen, die sich mit unterschiedlichen Ebenen von zugrunde liegenden physikalischen Prozessdetails und Annahmen befassen. HMS-Komponenten können in Desktop- und webbasierten Workflows verwendet werden. Ein Workflow kann eine bestimmte Implementierung einer HMS-Komponente aufrufen, abhängig von den Details, die für die vom Workflow behandelte Problemstellung geeignet sind. Der Aufbau eines Arbeitsablaufs aus HMS-Komponenten ermöglicht es Modellierern, hydrologische und Wasserqualitätsproblemstellungen genauer zu behandeln, im Gegensatz zum aktuellen Modellierungsstand, bei dem die Verwendung vorhandener Modelle Modellierer in einen potenziell suboptimalen Arbeitsablauf zwingt. Die Modellauswahl zur Behandlung einer Problemstellung hat mehrere Nachteile: Das ausgewählte Modell weist möglicherweise nicht den angemessenen Komplexitätsgrad auf, das Modell berücksichtigt möglicherweise nicht alle Teile der Problemstellung, ohne weniger wünschenswerte Annahmen zu treffen, oder das Modell hat möglicherweise mehr Funktionen und Anforderungen als notwendig. HMS-Komponenten umfassen Datenbereitstellung und Simulationsalgorithmen für die Modellierung von Wasserquantität und -qualität. Workflows, die mit HMS-Komponenten erstellt wurden, können wiederum als Komponenten in größeren Workflows verwendet werden. Beispielsweise können Komponenten zur Bereitstellung von Niederschlagsdaten Daten aus verschiedenen Datenquellen wie NLDAS, GLDAS, DAYMET, NCDC, PRISM und WGEN herunterladen. Als HMS-Komponente wurde ein einfacher Workflow entwickelt, um Niederschlagsdaten aus verschiedenen Quellen zu vergleichen. Der Vergleich wird unter Verwendung mehrerer Niederschlagsstatistiken durchgeführt.

Stephan Hülsmann, Universität der Vereinten Nationen -UNU FLORES
Theresa Mannschatz, Universität der Vereinten Nationen - UNU-FLORES
Karla E. Locher-Krause, Universität der Vereinten Nationen - UNU-FLORES

Die Auseinandersetzung mit integriertem Ressourcenmanagement in einem sektorübergreifenden Nexus-Ansatz erfordert ein ganzheitliches Verständnis der Zusammenhänge von Umweltprozessen unter Berücksichtigung des globalen Wandels und sozioökonomischer Aspekte. Um diese Verflechtungen zu erforschen und einen integrierten Managementansatz voranzutreiben, sind integrierte Modellierungswerkzeuge erforderlich. Es ist jedoch kein einziges Modellierungswerkzeug verfügbar oder denkbar, das alle Prozesse, Wechselwirkungen und Treiber im Zusammenhang von Wasser, Nahrung, Energie und Klima abdeckt. Stattdessen ist eine große Anzahl von Modellen verfügbar und in Gebrauch, die sich mit bestimmten Prozessen und Ressourcen (Gruppen von) befassen. Um nexusorientierte Forschungsfragen oder Managementfragen zu adressieren, sollte es effizienter sein, vorhandene Tools zu nutzen und diese nach Bedarf zu modifizieren oder zu koppeln, anstatt ein Tool von Grund auf neu zu entwickeln. Damit dies möglich ist, wäre eine Datenbank hilfreich, die den interaktiven Vergleich solcher Tools ermöglicht. Daher haben wir eine interaktive Nexus Tools Platform (NTP) für den modellübergreifenden Vergleich entwickelt, implementiert als webbasierte Datenbank (https://data.flores.unu.edu/projects/ntp). Das NTP wird ständig verbessert und aktualisiert und zielt darauf ab, detaillierte Informationen zu einer Teilmenge (derzeit umfasst 74 Modelle, die wichtige Aspekte der Wasser-, Boden- und Abfallwirtschaft abdecken) einer größeren Zusammenstellung verfügbarer Modellierungswerkzeuge bereitzustellen. Die Plattform bietet interaktive Diagramme sowie erweiterte Such- und Filterfunktionen, die Modelle unter anderem in Bezug auf Prozesse, Ein- und Ausgabeparameter, Anwendungsbereiche (Länder), zeitliche Auflösung, Programmiersprache unterscheiden. Diese Funktionalitäten bieten eine starke Unterstützung bei der Auswahl des/der am besten geeigneten Modell(s) für die spezifischen Anforderungen.

Andre Q. Dozier Dr., Colorado State University
Mazdak Arabi, Colorado State University - Fort Collins
Ben Wostoupal, Colorado State University
Christopher G. GoemansDr., Colorado State University

Wasserknappheit droht die landwirtschaftliche Produktion in semi-ariden Regionen mit steigender Stadtbevölkerung und Umweltauflagen, die Infrastrukturinvestitionen hemmen, zu reduzieren oder zu beseitigen. Obwohl dieser Übergang des Wassers von der landwirtschaftlichen zur kommunalen Nutzung das wirtschaftlich effiziente Ergebnis für diejenigen sein kann, die am Wasserhandel beteiligt sind, werden ländliche Gemeinden mit geringerem Einkommen in der Regel unverhältnismäßig stark geschädigt, wenn die Vorteile aus dem Verkauf von Land und Wasser außerhalb ländlicher Regionen gelenkt werden. Wenn jedoch die Vorteile des verkauften Wassers lokal bleiben, wie dies im South Platte River Basin der Fall sein kann, wird der Verkauf von mehr Wasser tatsächlich den lokalen landwirtschaftlichen Gemeinden mehr zugute kommen als der fortgesetzten Produktion. Gleichzeitig sind die Preise für Wasserrechte und die Aufbereitungskosten so hoch, dass Kommunen durch Einsparungen mehr Geld sparen können als durch Neuanschaffungen. Die Entscheidung der Kommunen, zu konservieren, reduziert somit die Kosten für die Kommunen, verringert jedoch den finanziellen Nutzen für die lokalen landwirtschaftlichen Gemeinden. Es wird ein Rahmen mit mehreren Zielen vorgestellt, der diese Kompromisse, die in Wassermanagemententscheidungen in allen Sektoren inhärent sind, aufzeigt, die regionalen und staatlichen Wasserplanern bei der Identifizierung von Politik- und Naturschutzzielen helfen. Von den fünf Versorgungsoptionen innerhalb des Modells (Landwirtschaftswasser, Wasserspeicher, effiziente Toiletten, Xeriscaping und verbesserte Bewässerungstechnologie) reduziert die Einführung von Xeriscaping die kommunalen Kosten am deutlichsten und die Bewässerungstechnologie kommt den landwirtschaftlichen Gemeinden am deutlichsten zugute. Von den in Betracht gezogenen institutionellen Veränderungen spart die Reduzierung des Rohwasserbedarfs den Gemeinden den größten Geldbetrag, während die Verringerung der Zahl der dauerhaft brachliegenden Ackerflächen durch Defizitbewässerung, Dauerbrache oder Rotationsbrache in beiden Sektoren die breitesten Vorteile bot.

Werner Rammer, Institut für Waldbau, Fachbereich Forst- und Bodenwissenschaften, Universität für Bodenkultur (BOKU)
Rupert Seidl, Institut für Waldbau, Fachbereich Forst- und Bodenwissenschaften, Universität für Bodenkultur (BOKU)

Die terrestrische Vegetation ist von entscheidender Bedeutung für das menschliche Wohlergehen und bietet der Gesellschaft eine Vielzahl von Ökosystemleistungen. Um globale Probleme wie den Klimawandel oder den Verlust der biologischen Vielfalt anzugehen, verlangen Manager zunehmend nach Instrumenten, die eine Vorhersage der Vegetationsdynamik auf großen räumlichen Skalen ermöglichen. Während dynamische Vegetationsmodelle mit einer getreuen Darstellung demografischer Prozesse für den lokalen bis landschaftlichen Maßstab existieren, bleibt die Adressierung größerer Maßstäbe mit der feinen räumlichen Körnung, die zur Beantwortung von Managementfragen erforderlich ist, eine Herausforderung. Wir stellen hier ein neues Framework für Scaling Vegetation Dynamics (SVD) vor, das im Kern tiefe neuronale Netze (DNNs) verwendet. Deep Learning ist ein aufstrebender Zweig des maschinellen Lernens, der derzeit die Computer Vision, die Verarbeitung natürlicher Sprache und viele andere Bereiche revolutioniert. Im Kontext von SVD lernt ein DNN die Vegetationsdynamik aus einem hochauflösenden prozessbasierten Vegetationsmodell (PBM). Insbesondere wird das DNN trainiert, um die Wahrscheinlichkeit von Übergängen zwischen diskreten Vegetationszuständen abhängig vom aktuellen Zustand, der Verweilzeit, Umweltfaktoren (Klima- und Bodenbedingungen) und dem räumlichen Kontext (d. h. dem Zustand benachbarter Zellen) vorherzusagen. Darüber hinaus werden die Dichteverteilungen relevanter Ökosystemattribute (z. B. Gesamtkohlenstoff des Ökosystems oder Biodiversität) aus dem PBM-Output für jeden Vegetationszustand abgeleitet, was eine Bewertung der Auswirkungen von Vegetationsübergängen auf diese Attribute ermöglicht. In diesem Beitrag stellen wir den konzeptionellen Ansatz von SVD vor und zeigen Ergebnisse für eine Beispielanwendung in den österreichischen Alpen. Allgemeiner diskutieren wir Aspekte der Anwendung von Deep Learning im Kontext der ökologischen Modellierung.

A. Pouyan Nejadhashemi, Michigan State University
Ian Kropp, Michigan State University
Kalyanmoy Deb, Michigan State University
Mohammad Abouali, Michigan State University
Proteek C. Roy, Michigan State University
Gerrit Hoogenboom, Universität von Florida

Um den Bedarf der wachsenden Weltbevölkerung zu decken, müssen im 21. Jahrhundert drei zentrale Herausforderungen angegangen werden, nämlich Nahrung, Energie und Wassersicherheit. Die Nachfrage der wachsenden Bevölkerung erfordert, dass jeder dieser Sektoren seine Produktion erhöht. Angesichts der Vernetzung dieser Sektoren ist jedoch Nachhaltigkeit erforderlich, um sicherzustellen, dass die globalen Anforderungen für alle drei weiterhin erfüllt werden und gleichzeitig die Umwelt geschont wird. In dieser Studie wurde die Optimierung verwendet, um zu bestimmen, wann Bewässerung und Dünger angewendet werden sollten, um den Ernteertrag zu maximieren und gleichzeitig die Umweltauswirkungen auf Betriebsebene zu minimieren. Um dies zu erreichen, wurden eine Multi-Ziel-Optimierungstechnik, Non-domined Sorting Genetic Algorithm-III (NSGA-III) und ein Erntemodell, Decision Support System for Agrotechnology Transfer (DSSAT), verwendet, um optimale Lösungen zu identifizieren, die die Kompromisse zwischen den Ernteerträgen darstellen und Umweltbelastung. Die Identifizierung einer Reihe möglicher Lösungen ermöglicht es Herstellern und Entscheidungsträgern, die für ihre Situation am besten geeignete Lösung auszuwählen. Für diese Studie wurde diese Technik implementiert und erfolgreich Bewässerungsschemata identifiziert, die den Wasserverbrauch um 50 % reduzierten. Angesichts dieses Erfolgs besteht der nächste Schritt darin, ein webbasiertes Entscheidungsunterstützungstool zu entwickeln, das den breiten Einsatz der in dieser Studie entwickelten Technik sowohl von politischen Entscheidungsträgern als auch von Herstellern ermöglicht. Sie können Optimierungen mit mehreren widersprüchlichen Zielen durchführen und dabei eine Vielzahl von Boden-, Pflanzen- und Klimatypen berücksichtigen.

Kyle Traffic, Colorado State University
Tyler Wible, Colorado State University - Fort Collins
Lucas Yaege, Colorado State University - Fort Collins
Olaf David, Colorado State University - Fort Collins
Jack Carlson, Colorado State University - Fort Collins
Mazdak Arabi, Colorado State University - Fort Collins

Umgebungsmodelle verbrauchen normalerweise große Mengen an Rechenressourcen. Um einer wachsenden Gemeinschaft von Natur-, Sozial- und Naturwissenschaftlern effektiv zu dienen, müssen diese Modelle dynamisch und horizontal skalieren können, um den Bedarf zu decken.Modelle erfordern auch eine Vielzahl von Softwarebibliotheken, Laufzeiten, Compilern und Konfigurationen, die für eine bestimmte Anwendung spezifisch sind. Die Wartung von Arrays physischer Server, die jeweils für eine bestimmte Anwendung konfiguriert sind, ist teuer und in der Erstellung und Wartung ineffizient. Mit dem Aufkommen von Softwarecontainern können Modellentwickler eine Anwendung und alle ihre Softwareabhängigkeiten vom physischen Server isolieren. Kubernetes, ein von Google entwickeltes Tool zur Container-Orchestrierung, hat es möglich gemacht, diese Container dynamisch und nahtlos auf einem Cluster von Maschinen bereitzustellen. Wir stellen Schlüsselkonzepte und Tools zum Erstellen verteilter Modellierungssysteme mit Containern unter Verwendung von Kubernetes vor, die mit einer in Jenkins erstellten Continuous Integration Pipeline verwaltet werden. Anschließend erstellen und implementieren wir eine Suite umfassender Flow-Analyse-Modelle (CFA) als Microservices. Schließlich testen wir die Reaktionsfähigkeit des Dienstes, den Durchsatz und die durchschnittliche Ausführungszeit verschiedener containerisierter Konfigurationen von CFA-Modellen im Vergleich zur Bereitstellung auf virtuellen und Bare-Metal-Maschinen.

Parierstange Harpham, HR Wallingford
Darren Lumbroso, HR Wallingford
Gina Tsarouchi, HR Wallingford

Dengue-Fieber tritt in 141 Ländern auf, wobei in Vietnam im Jahr 2016 122.000 Fälle gemeldet wurden. Die epidemiologische Situation dort wurde durch das Versäumnis der Gesundheitssysteme verschärft, die Dengue-verbreitenden Mückenarten angemessen zu kontrollieren. Mehrere Studien haben die signifikanten Zusammenhänge zwischen Wetterschwankungen und Infektionskrankheiten hervorgehoben und das Potenzial für die Entwicklung von Frühwarnsystemen für Epidemien hervorgehoben. Dieselben Methoden könnten auch zur Vorhersage von Zika-Ausbrüchen verwendet werden, die seit kurzem in Vietnam gemeldet werden.

Diese Präsentation beschreibt die Ergebnisse einer von der britischen Weltraumbehörde unterstützten Studie, die zu einer hochrangigen Methode zur Integration mehrerer Stressoren wie Wasserverfügbarkeit, Landnutzung und Klimavorhersagen führt, um zukünftige Ausbrüche von Dengue und Zika vorherzusagen. Erdbeobachtungsdaten können den Ländern helfen, die Dynamik dieser integrierten Stressoren im Gesundheits- und Wassersektor zu verstehen, insbesondere in Regionen mit schlechter oder nicht vorhandener Bodenüberwachung. Die dazugehörige Evidenzbasis ist jedoch erst am Entstehen und die Anwendung dieser Arbeit mit Fernerkundungsdaten wird voraussichtlich einen wesentlichen Beitrag leisten. Die resultierenden Instrumente werden verwendet, um sich ändernde Gesundheitsrisiken auf verschiedenen Ebenen unter zukünftigen Klimawandelszenarien zu verstehen, und umfassen auch ein Wasserbewertungsmodul, das den zusätzlichen Vorteil einer Verbesserung des Wassermanagements in den grenzüberschreitenden Flusseinzugsgebieten Vietnams bietet. Diese multidisziplinäre Anwendung der offenen sozio-ökologischen Modellierung erstreckt sich auch auf Praktiker vor Ort, die damit beauftragt sind, auf die Vorhersagen so zu reagieren, dass die Risiken am besten gemindert werden.

David Tarboton
Ray Idaszak, RENCI, University of North Carolina at Chapel Hill
Jeffery S. Horsburgh, Utah State University
Daniel Ames, Brigham Young Universität
Jonathan L. Goodall, Universität von Virginia
Alva Couch, Tufts-Universität
Richard P. Hooper, Tufts-Universität
Shaowen Wang, Universität von Illinois in Urbana-Champaign
Martyn Clark, Nationales Zentrum für Atmosphärenforschung
Pabitra Dash, Utah State University
Hong Yi, RENCI, University of North Carolina at Chapel Hill
Christina Bandaragoda, Universität von Washington
Anthony M. Castronova, Konsortium der Universitäten zur Förderung der Hydrologie, Inc
Tian Gan, Utah State University
Zhiyu Li, Brigham Young Universität
Mohamed M. Morsy, Universität von Virginia
Maurier Ramírez, Utah State University
Jeffrey M. Sadler, Universität von Virginia
Dandong Yin, Universität von Illinois in Urbana-Champaign
Yan Liu, Universität von Illinois in Urbana-Champaign

Dieses Papier befasst sich mit den offenen kollaborativen Daten- und Modellaustauschmöglichkeiten, die das webbasierte hydrologische Informationssystem HydroShare bietet, das vom Consortium of Universities for the Advancement of Hydrologic Science Inc. (CUAHSI) betrieben wird. HydroShare-Benutzer teilen und veröffentlichen Daten und Modelle in einer Vielzahl von flexiblen Formaten, um diese Informationen in einem zitierbaren, gemeinsam nutzbaren und auffindbaren Format für die Weiterentwicklung der Hydrologie zur Verfügung zu stellen. HydroShare umfasst ein Repository für Daten und Modelle sowie Tools (Web-Apps), die auf Inhalte in HydroShare reagieren und die Ergebnisse zurück in das Repository speichern können, das eine flexible webbasierte Architektur für kollaborative Umweltmodellforschung darstellt. Diese Präsentation konzentriert sich auf die Schlüsselfunktionen von HydroShare, die webbasierte kollaborative Forschung unterstützen, die offen ist und die Reproduzierbarkeit und das Vertrauen in Forschungsergebnisse durch die gemeinsame Nutzung von Daten, Modellen und Skripten verbessert, die zur Generierung von Ergebnissen verwendet werden. Die HydroShare Jupyter Notebook-App bietet eine flexible und dokumentierbare Ausführung von Python- oder R-Code-Snippets zur Analyse und Modellierung. Ein in einem Jupyter Notebook dokumentierter Analyse- oder Modellierungsvorgang kann zusammen mit den zugehörigen Daten als Teil einer HydroSHare-Ressource gespeichert und mit anderen Benutzern oder Gruppen geteilt werden. Diese Benutzer können dann das Notizbuch öffnen, um das Analyse- oder Modellierungsverfahren zu ändern oder hinzuzufügen und die Ergebnisse wieder in derselben oder einer neuen Ressource zu speichern. Der Austausch von Informationen auf diese Weise dient der Unterstützung der Zusammenarbeit an gemeinsamen Daten in einer gemeinsamen Modellierungsplattform. Die Jupyter-Plattform ist in eine leistungsstarke und datenintensive Cyberinfrastruktur eingebettet, sodass Codeblöcke die Vorbereitung und Ausführung fortschrittlicher und datenintensiver Modelle in der Host-Infrastruktur umfassen können. Wir werden erörtern, wie diese Entwicklungen zur Unterstützung der kollaborativen Forschung genutzt werden können, wobei die Web-Basis von Wert ist, da alle Mitarbeiter unabhängig von ihrem Computer oder Standort auf die gleichen Funktionen zugreifen können.

Sam Roy
Emi Uchida, Universität von Rhode Island
Simone Souza, University of New Hampshire, Durham
Ben Blachly, Universität von Rhode Island
Emma Fox, Universität Maine
Kevin Gardner, University of New Hampshire, Durham
Arthur Gold, Universität von Rhode Island
Jessica Jansujwicz, Universität Maine
Sharon Klein, Universität Maine
Bridie McGreavy, Universität Maine
Weiwei Mo, University of New Hampshire, Durham
Sean Smith, Universität Maine
Emily Vogler, Rhode Island School of Design
Karen Wilson, University of Southern Maine
Joseph Zydlewski, USGS, University of Maine
David Hart, Universität Maine

Die Entfernung von Staudämmen ist ein Eckpfeiler der Umweltsanierung in den Vereinigten Staaten. Ein positives Ergebnis der Entfernung des Damms ist die Wiederherstellung des Zugangs zu historischem Lebensraum für Seefische, was einen entscheidenden Gewinn an Widerstandsfähigkeit des Ökosystems darstellt. Aber Staudämme bieten den Interessengruppen auch wertvolle Ökosystemleistungen, wie etwa kommunale Wasserspeicherung, Freizeitnutzung von Seen und Flüssen, Grundstückswerte, Stromerzeugung aus Wasserkraft, Nährstoff- und Sedimentfluss in der Landschaft, kulturelle Anhaftungen an Staudämme und viele andere flussbasierte Ökosystemleistungen. Ungewisse sozio-ökologische und ökonomische Ergebnisse können auftreten, ohne sorgfältig die Kompromisse im Beckenmaßstab bei der Entfernung von Staudämmen zu berücksichtigen.

Mit einem kombinierten Modellierungsansatz auf Wassereinzugsgebietsskala quantifizieren wir, wie sich verschiedene Dammentscheidungen wie Rückbau, Infrastrukturverbesserungen, Managementänderungen oder Reparaturen auf die Produktivität von Flussökosystemen auswirken können. Wir identifizieren Entscheidungsszenarien, die eine effiziente Produktivität über mehrere Ökosystemleistungen hinweg mithilfe eines multiobjektiven genetischen Algorithmus (MOGA) ermöglichen. Produktionsmöglichkeitsgrenzen (PPF) werden dann verwendet, um Kompromisse zwischen Ökosystemleistungen über mehrere verschiedene Entscheidungsszenarien hinweg zu bewerten. Unsere Ergebnisse legen nahe, dass für viele Flüsse das Potenzial besteht, die Produktivität von Ökosystemdienstleistungen, die von offenen Flüssen profitieren, mit minimalen Auswirkungen auf dammbezogene Dienstleistungen dramatisch zu steigern. Weitere Vorteile für alle Ökosystemleistungen werden durch die Berücksichtigung von Entscheidungsalternativen in Bezug auf Dammbetrieb und physikalische Veränderungen ermöglicht.

Unsere Methode ist hilfreich, um effiziente Entscheidungen zu identifizieren, aber um eine echte Lösung zu finden, ist ein tiefes und gemeinsames Verständnis der Präferenzen der Stakeholder erforderlich. Wir skizzieren, wie diese Präferenzen in unserem Rahmen interpretiert werden können, basierend auf partizipativen Methoden, die in Stakeholder-Workshops verwendet werden.

Daniel Ames, Brigham Young University Law Schoolham
Zhiyu Li, Brigham Young Universität
Jim Nelson, Brigham Young University - Utah
Norm Jones, Brigham Young Universität
David Tarboton, Utah State University

Angesichts des allgegenwärtigen Mobile-App-Konzepts, das sich in den letzten zehn Jahren durchgesetzt hat, bei dem unterschiedliche, modulare Anwendungen für einen einzigen Zweck entwickelt und in einer gemeinsamen Benutzeroberfläche (dh dem Telefon in der Tasche) bereitgestellt werden, haben wir eine Open-Source-Cyberinfrastruktur geschaffen die dieses Paradigma für die Entwicklung und Bereitstellung von Umwelt-Webanwendungen mit Open-Source-Tools und Cloud-Computing-Diensten nachahmt. Diese Cyberinfrastruktur integriert HydroShare für die Cloud-basierte Datenspeicherung und App-Katalogisierung zusammen mit der Tethys-Plattform für die Python/Django-basierte App-Entwicklung. HydroShare ist ein webbasiertes Open-Source-Datenmanagementsystem für Klima- und Wasserdaten, das eine Anwendungsprogrammierschnittstelle (API) für Webdienste enthält, die es Programmierern von Drittanbietern ermöglicht, auf seine Datenressourcen zuzugreifen und diese zu nutzen. Wir haben innerhalb von HydroShare eine Metadatenverwaltungsstruktur zum Katalogisieren, Entdecken und Freigeben von Web-Apps geschaffen. Tethys Platform ist ein Open-Source-Softwarepaket, das auf dem Django-Framework, der Programmiersprache Python, Geoserver, PostgreSQL, OpenLayers und anderen Open-Source-Technologien basiert. Mit dem Tethys Software Development Kit können Benutzer Web-Apps erstellen, die in einem gemeinsamen Portal zur Visualisierung, Analyse und Modellierung von Umweltdaten präsentiert werden. Wir werden diese neue Cyberinfrastruktur durch eine Kombination aus Architekturdesign und -demonstration vorstellen und den Teilnehmern die wesentlichen Konzepte zum Erstellen ihrer eigenen Web-Apps mit diesen Tools vermitteln.

Jack R. Carlson, Colorado State University - Fort Collins
Olaf David, Colorado State University - Fort Collins
Ken W. Rojas, USDA-Dienst zur Erhaltung natürlicher Ressourcen
Paul Hishmeh, Field to Market - Die Allianz für nachhaltige Landwirtschaft

In den letzten zwei Jahrzehnten hat sich das Object Modeling System (OMS)-Framework von einem Werkzeug zum Erstellen, Testen und Validieren von Umgebungsmodellen in einer konsistenten, nicht-invasiven Weise als eine Zusammenstellung wissenschaftlicher Komponenten entwickelt, die die Cloud Services Integration Platform (CSIP) enthalten ) für deren Einsatz und Integration als Webdienste in Geschäftssysteme öffentlicher und privater Organisationen sowie in universitäre Forschungsprogramme. Derzeit enthalten OMS/CSIP-Repositories 292 Webdienste, die in 31 Serviceschichten organisiert sind für (1) Hydrologie und Wasserressourcenmanagement, (2) Erosions- und Sedimenttransport, (3) Erhaltungsressourcenmanagement, (4) Datenzugriff, -abruf und -management, (5) georäumliche und statistische Analysen und (6) Forschungsunterstützung. Diese Dienste und unterstützenden Datenspeicher wurden bereitgestellt und in Forschungs-, Pilot- und Produktionssysteme und -anwendungen mehrerer Organisationen integriert. Wir bieten derzeit Tier 1, 2 oder 3 Support für etwa 2 Millionen Serviceanfragen jährlich über den OMS/CSIP-Lebenszyklus: Entwicklung, Test, Validierung, Release, Bereitstellung und Produktion. Die Zusammenarbeit mit vielen Unternehmen mit einzigartigen Anforderungen stellt mehrere Herausforderungen dar, um das gewünschte Maß an Kundenzufriedenheit zu erreichen, wodurch der Schwerpunkt auf Prozessverbesserung und betrieblicher Effizienz gelegt wird. Mit unserer Erfahrung bei der Unterstützung von Field to Market – The Alliance for Sustainable Agriculture, der USDA Conservation Delivery Streamlining Initiative (CDSI) und anderen Benutzergemeinschaften analysieren und beschreiben wir Schritte, die unternommen wurden, um die Kundenerwartungen zu erfüllen, einschließlich Release Management, Continuous Integration, Capacity Management und management Hosting, Zugriffskontrolle, Datenschutz, Überwachung von System-/Geschäftsaktivitäten, Archivierung, Datenverwaltung und Dokumentation.

Nathan Lighthart, Colorado State University
Olaf David, Colorado State University
Timothy R. Green
Gregory S. McMaster, USDA, Agrarforschungsdienst
David Arden Patterson, Colorado State University
Mazdak Arabi, Colorado State University
Holm Kipka, Colorado State University

Das Verteilen von Modellen an verschiedene Benutzer kann schwierig und fehleranfällig sein und kann sich daher negativ auf das Programm auswirken. Bei der Modellverteilung müssen Benutzer das Modell normalerweise herunterladen und installieren, indem sie die Installationsanweisungen befolgen. Wenn dieser Schritt jedoch nicht korrekt ausgeführt wird, kann das Modell nicht korrekt verwendet werden. Die Bereitstellung eines Modells über eine Webschnittstelle ermöglicht es dem Benutzer, sich auf die Ausführung des Modells zu konzentrieren, anstatt sicherzustellen, dass das Modell korrekt eingerichtet ist. Die eRAMS/CSIP-Plattform wurde entwickelt, um visuelle Werkzeuge für Modelle bereitzustellen, die parametrisiert und mit Eingabedaten (eRAMS) verbunden und über einen Remote-Webservice (CSIP) als Model as a Service (MaaS) ausgeführt werden. Durch den Einsatz von MaaS sind das Modell und die Daten des Benutzers von jedem Gerät aus zugänglich. Darüber hinaus kann die Ausführung von Modellen lange dauern, insbesondere wenn sie kalibriert werden. Durch die Remote-Ausführung des Modells im asynchronen Modus kann der Benutzer seinen lokalen Computer herunterfahren, ohne den Modelllauf zu beenden. Die Integration des Wassereinzugsgebietsmodells Agricultural Ecosystems Services (AgES) in die zweite Überarbeitung der eRAMS/CSIP-Plattform wird beschrieben und demonstriert. Somit ist das AgES-Wassereinzugsgebietsmodell öffentlich als CSIP-MaaS verfügbar, das mit anderen Anwendungen in eRAMS verknüpft wird, einschließlich der Abgrenzung von Wassereinzugsgebieten in miteinander verbundene Polygone oder hydrologische Reaktionseinheiten (HRUs) und die automatisierte Generierung von Fruchtfolgen und Bodenbearbeitungsvorgängen in jeder HRU unter Verwendung von LAMPS (Web-Service für Landnutzungs- und Landwirtschaftsmanagementpraktiken).

Cecelia DeLuca

Das Earth System Modeling Framework (ESMF) ist eine Open-Source-Software zum Erstellen und Koppeln von Modellkomponenten. ESMF wurde von einem Konsortium von US-Bundesbehörden geschaffen, um den Wissenstransfer zwischen Modellierungszentren und Universitäten zu unterstützen. Es hat sich zu einer etablierten nationalen Ressource entwickelt, die in verschiedenen Formen von Modellierern in NASA-Zentren, dem National Weather Service, dem National Center for Atmospheric Research, der Navy und Tausenden kleinerer Gruppen und Einzelpersonen verwendet wird. In den zehn Jahren seit ihrem Beginn haben die Herausforderungen der Gemeindeentwicklung und des Einsatzes technische, wissenschaftliche und soziale Aspekte kombiniert. In diesem Vortrag untersuchen wir das Fortschreiten dieser Herausforderungen und blicken in die Zukunft. Aktuelle Schwerpunktbereiche der ESMF werden untersucht, darunter die Entwicklung eines interdisziplinären, vereinheitlichten Vorhersagesystems für den National Weather Service, das mehrere „Apps“ für verschiedene Arten der Vorhersage automatisierter Ressourcenkartierung umfasst, um der wachsenden Komplexität von Computerarchitekturen und gekoppelten Modellen und den „ Post-Interoperabilität"-Herausforderung des verteilten Komponentencode-Managements.

Mohamed M. Morsy, Universität von Virginia
Yawen Shen, Universität von Virginia
Jonathan L. Goodall, Universität von Virginia
Daniel Voce, Universität von Virginia
Jeffrey M. Sadler, Universität von Virginia
Gina L. O'Neil, Universität von Virginia
Chris Huxley, BMT WBM

Küstengebiete stehen aufgrund des Klimawandels vor großen Herausforderungen. Eine der größten Herausforderungen ist die zunehmende Gefahr von Überschwemmungen, die schwere Schäden anrichten und Menschenleben gefährden können. Daher wird die Fähigkeit, Überschwemmungsereignisse genau vorherzusagen und Warnungen zu verbreiten, immer wichtiger. Das National Water Model (NWM) hat große Fortschritte bei der Bereitstellung von Informationen zur Hochwasservorhersage in großem Maßstab gemacht. Die grobe Auflösung des NWM kann jedoch für Küstengebiete mit niedrigem Relief nicht ausreichend sein. Vielmehr sind hydrodynamische 2D-Modelle oft besser für die Hochwasservorhersage in Küstengebieten geeignet, in denen Gelände mit niedrigem Relief verbreitet ist. Der Rechenaufwand dieser Modelle kann jedoch ein Hindernis für ihre Implementierung darstellen. Diese Arbeit konzentriert sich auf den Entwurf eines cloudbasierten Echtzeit-Modellierungssystems für ein 2D-hydrodynamisches Modell in Verbindung mit dem NWM, um Entscheidungsträger bei der Bewertung des Hochwasserrisikos in Küstengebieten zu unterstützen. Mit der Google Cloud Platform (GCP) wurde ein Prototyp erstellt, der eine cloudbasierte Ausführung für das 2D-hydrodynamische Modell mit hochauflösenden Eingabedaten, die Verwendung von GPUs zur Beschleunigung der Modellausführung, eine relationale Datenbank zum Speichern der Modellausgabe und a Web-Frontend zur Verbreitung der Ergebnisse und Modellinitiierung. Das System ist so konzipiert, dass es automatisch läuft, wenn ein extremes Wetterereignis vorhergesagt wird, und Ergebnisse nahezu in Echtzeit unter Verwendung von Randbedingungen liefert, die automatisch vom NWM erhalten und aufbereitet werden.

Anthony M. Castronova, Konsortium der Universitäten zur Förderung der Hydrologie, Inc
Phuong Doan, Konsortium der Universitäten zur Förderung der Hydrologie, Inc
Martin Seul, Konsortium der Universitäten zur Förderung der Hydrologie, Inc

Kontinuierliche Investitionen und die Entwicklung von Cyberinfrastruktur (CI) für die wasserwissenschaftliche Forschung verändern die Art und Weise, wie zukünftige Wissenschaftler große kollaborative Studien angehen. Zu den vielen Herausforderungen, denen wir uns als Community stellen müssen, gehören die Integration bestehender CI, um reproduzierbare Wissenschaft zu unterstützen, die offene Zusammenarbeit über traditionelle Domänen- und institutionelle Grenzen hinweg zu ermöglichen und den Lebenszyklus von Daten über den Rahmen eines einzelnen Projekts hinaus zu verlängern. Eine aufstrebende Lösung zur Bewältigung dieser Herausforderungen ist HydroShare JupyterHub, eine Cloud-basierte Open-Source-Plattform, die die Datenarchivierungs- und -erkennungsfunktionen von HydroShare mit der ausdrucksstarken, metadatenreichen und selbstbeschreibenden Natur von Jupyter-Notebooks kombiniert. Dieser Ansatz bietet Forschern einen Mechanismus zum Entwerfen, Ausführen und Verbreiten von Toolchains mit unterstützenden Daten und Dokumentation. Die Ziele dieser Arbeit sind die Schaffung einer freien Open-Source-Plattform für Domänenwissenschaftler, um (1) datenintensive und rechenintensive kollaborative Forschung durchzuführen, (2) Hochleistungsbibliotheken, Modelle und Routinen in einer vorkonfigurierten Cloud-Umgebung zu nutzen, und (3) die Verbreitung von Forschungsprodukten ermöglichen. In dieser Präsentation wird unser Ansatz für hydrologische Modellsimulationen, Sensitivitätsanalysen und Optimierungsanwendungen auf dieser Plattform diskutiert, indem ein generisches CI-Muster erstellt wird, das zur Unterstützung von Forschungs-, Unterrichts- und Workshopaktivitäten verwendet werden kann.

Chaoran Shen, Nanjing Normal University
Min Chen Ph.D., Nanjing Normal University
Bowen Zhang, Nanjing Normal University
Jin Wang, Nanjing Normal University
Songshan Yue Ph.D., Nanjing Normal University
Guonian Lü Ph.D., Nanjing Normal University

Geografische Modellierung und Simulation sind eine wichtige Methode zur Lösung realistischer geografischer Probleme und können verwendet werden, um die Vergangenheit zu reproduzieren, die Zukunft vorherzusagen und die geografischen Gesetze zu erforschen. Bei der Behandlung umfassender geographischer Probleme kann ein einzelnes Modell die Anforderungen einer komplexen Simulation nicht erfüllen, und daher ist eine Modellintegration mit bestehenden Modellressourcen erforderlich. Obwohl die bestehende Geo-Simulationsplattform mehrere Entwicklungsstufen durchlaufen hat, steht sie noch vor vielen Problemen, wie etwa der Aufbereitung von Daten für Modelle in der Netzumgebung, der logischen Beziehungen zwischen verschiedenen Diensten und der Steuerung der integrierten bequem und kollaborativ simulieren Dieses Papier schlug eine Geomodell-Dienstintegrationsplattform in der verteilten Netzwerkumgebung vor. Modellressourcen, modellbezogene Datenressourcen und Datenverarbeitungsverfahren können als standardisierter Dienst gekapselt werden, der von Servern verwaltet werden könnte. Bei realistischen geographischen Problemen konnte durch konzeptionelle Modellierung und logische Modellierung das umfassende Problem kollaborativ durch die Simulation integrierter Geomodelldienste gelöst werden. Schließlich wird ein Beispiel für das Extrahieren des Stromnetzes durch Modelle von TAU DEM erwähnt, um die Praktikabilität der vorgeschlagenen Plattform zu testen. Die Ergebnisse zeigen, dass die Serviceintegrationsplattform geografische Simulationen durchführen und Geoprobleme lösen kann.

Holm Kipka, Colorado State University
Nathan Lighthart, Colorado State University
Olaf David, Colorado State University
Jae Sung Kim, Colorado State University
Timothy R. Green
Mazdak Arabi, Colorado State University

Die Abgrenzung eines Wassereinzugsgebiets in diskrete Gebiete (z. B. Hydrological Response Units HRUs) mit Parameterattributtabellen ist wichtig, um Eingabeparametersätze für verteilte hydrologische Modelle zu generieren. Diese Präsentation stellt eine generische Methodik eines solchen Abgrenzungsprozesses und einen Service-Workflow für das Wassereinzugsgebietsmodell der Agricultural Ecosystems Services (AgES) vor. Hier werden Rasterdaten des digitalen Höhenmodells für die Topologie von Fließwegen verarbeitet und dann mit Rasterschichten von Landnutzung, Böden und Hydrogeologie kombiniert, um HRU-Muster für ein Wassereinzugsgebiet zu generieren. Basierend auf dem Muster von HRUs analysiert der Webdienst ein topologisches Routing-Schema, das mehrere Flussrichtungen und Interaktionen zwischen benachbarten HRUs ermöglicht. Die resultierenden HRU-Informationen werden verwendet, um automatisch Eingabedateien für das verteilte Wassereinzugsgebietsmodell von AgES zu generieren. Das Tool ist Open Source, steht der wissenschaftlichen Gemeinschaft zur Verfügung und wird mit Catena implementiert, einer aufstrebenden Plattform basierend auf den eRAMS- und CSIP-Frameworks, die skalierbare Geoanalysen, Zusammenarbeit und Modelldienstfunktionen bietet. Die nahtlose Integration von (1) Generieren von räumlichen Modellparametern, (2) Verbinden von Eingabedaten, (3) Ausführen des Modells und (4) Modellergebnisanalysen wird mit einem starken Fokus auf den Workflow-Aspekt von Catena präsentiert. Das HRU-Abgrenzungstool kann an andere Modelle wie das Soil and Water Assessment Tool (SWAT+) angepasst werden.

Miguel Acevedo, Universität von Nordtexas
William Boyd, Universität von Arizona
Hessam Sarjoughian, Universität von Arizona
Isaac Ullah, San Diego State University
Michael Barton, Universität von Arizona

Wie haben sich Landschaften entwickelt, als die Landwirtschaft vor Tausenden von Jahren entstand? Wie stellen wir eine nachhaltige Lebensmittelproduktion sicher und erhalten dennoch die Umweltqualität? Integrierte Sozio-Umwelt-Modelle helfen, Antworten auf diese beiden scheinbar weit entfernten, aber verwandten Fragen zu geben. Aus praktischen Gründen verwenden wir in diesem Beitrag die Begriffe sozial-ökologische und sozio-ökologische Systeme mit dem Akronym SES als Synonyme. Das Projekt Mediterranean Landscape Dynamics (MedLand) zielt darauf ab, experimentelle SES-Modelle zu entwickeln, die durch jüngste Fortschritte in der Berechnung ermöglicht werden, während interdisziplinäre Zusammenarbeit ausgeübt wird. In diesem Beitrag veranschaulichen wir einen Aspekt dieser Integration, indem wir die Entwicklung eines Vegetationsmodells diskutieren, das zu Beginn die zukünftigen Verbindungen zu agentenbasierten Modellen der gesellschaftlichen Dynamik und prozessbasierten Modellen der Landformentwicklung bietet. Beim Entwerfen eines Vegetationsmodells, das speziell auf die Bedürfnisse der MedLand SES-Workbench zugeschnitten ist, bewahren wir diejenigen Aspekte der Vegetationsdynamik, die ein generisches Modell ergeben, das auf andere Systeme anwendbar ist. Wir modellieren die Vegetation mit einem individualbasierten (oder Lückenmodell) Ansatz mit detaillierter biologischer Interaktion von Pflanzen mit Feuer. Dazu verwenden wir Komponenten bestehender Modelle der mediterranen Vegetationsdynamik. Als Teil der Integrationsherausforderung diskutieren wir räumliche und zeitliche Skalen, Auflösung und Zukunftsaussichten für die Integrationsanalyse basierend auf der Sensitivität des integrierten Modells gegenüber Kopplungsparametern.

Jack R. Carlson, Colorado State University - Fort Collins
Shaun-Fall, Colorado State University - Fort Collins
Eric Hesketh, USDA-Dienst zur Erhaltung natürlicher Ressourcen
Rumpal Sidhu, Colorado State University - Fort Collins
Olaf David, Colorado State University - Fort Collins

Das Stewardship Tool for Environmental Performance (STEP) ist ein Expertensystem für Naturschützer zur Bewertung der Wasserqualitätsvorteile von Managementtechniken und Naturschutzpraktiken, die auf landwirtschaftliche Flächen angewendet werden. Das Tool berechnet Nährstoffauswaschungs- und Abflusspotenziale, Sedimentabflusspotenziale, Pestizidauswaschungs- und Abflusspotenziale sowie Pestizidgefährdungsbewertungen für landwirtschaftliche Felder basierend auf lokalen Bedingungen. Aus diesem Schritt berechnet STEP Mindestschwellenwerte, die das Ausmaß der Behandlung widerspiegeln, die erforderlich ist, um die Verlustpotenziale und Gefahren zu mindern. Das Tool bietet dann einen Prozess zum Anwenden von Abschwächungstechniken und Übungsergebnissen, um Schwellenwerte zu erreichen oder zu überschreiten. Die Nährstoffkomponente von STEP resultiert aus der Analyse von Millionen von APEX-Modellsimulationen, die im USDA Conservation Effects Assessment Program (CEAP) verwendet wurden, das seit 2002 für die wichtigsten Flusseinzugsgebiete der Vereinigten Staaten abgeschlossen wurde. CEAP schätzte den Umweltnutzen von Naturschutzpraktiken am Fluss Beckenebene und hat das Wissen 2011 in STEP einfließen lassen. Die Pestizidkomponente von STEP resultiert aus mehr als zwei Jahrzehnten mit der eigenständigen Anwendung des Pestizid-Screening-Tools, die ihre Wurzeln in den Modellen CREAMS und GLEAMS hat. Als Teil der Bemühungen um die Integration der Ressourcenbewertung auf Feldebene beschreiben wir eine Suite von 22 Microservices, die den STEP-Workflow unterstützen. Diese Dienste stellen wir im Rahmen des kontinuierlichen Integrationsprozesses OMS/CSIP zur Verfügung.

Luis Garnica Chavira, Git Gud Consulting SAS
Jose Caballero, Universität von Texas in El Paso
Natalia Villanueva Rosales, Universität von Texas in El Paso
Deana Pennington, Universität von Texas in El Paso

Die große Vielfalt an Beschreibungen, Implementierungen und Zugänglichkeit wissenschaftlicher Modelle stellt eine große Herausforderung für die Modellinteroperabilität dar. Die Modellinteroperabilität ist der Schlüssel zur Automatisierung von Aufgaben, einschließlich der Modellintegration, des nahtlosen Zugriffs auf verteilte Modelle, der Wiederverwendung und Wiederverwendung von Daten. Aktuelle Ansätze zur Modellinteroperabilität umfassen die Erstellung von generischen Standards und Vokabularen zur Beschreibung von Modellen, ihren Inputs und Outputs. Diese domänenunabhängigen Standards bieten oft nicht die nötige Feinabstimmung, um eine bestimmte Domäne oder Aufgabe zu beschreiben, und die Erweiterung solcher Standards erfordert einen erheblichen Aufwand und Zeit, die von dem Zweck abweicht, wissenschaftliche Durchbrüche und Ergebnisse zu erzielen. Dieses Papier stellt ein halbstrukturiertes, wissensbasiertes Framework vor, das mit einer serviceorientierten Architektur implementiert wurde: Das Sustainable Water through Integrated Modeling Framework (SWIM). SWIM ist Teil einer laufenden Bemühung, Wassernachhaltigkeitsmodelle im Internet zu veröffentlichen, mit dem Ziel, die Einbeziehung von Interessengruppen und partizipative Modellierung zu ermöglichen. SWIM ist eine wissenschaftsbasierte Plattform, die von den technologischen Fortschritten bei serviceorientierten Architekturen (SOA), schemalosen Datenbankmanagern (NoSQL) und weit verbreiteten webbasierten Frontend-Frameworks genutzt wird. Das halbstrukturierte SWIM-Wissensmodell ist flexibel genug, um sich unterwegs an die Komplexität der zugrunde liegenden Wassernachhaltigkeitsmodelle anzupassen. SWIM fördert die gemeinsame Nutzung und Wiederverwendung von im System generierten Daten und Modellen, indem es die Beschreibungen von Modellen, Eingaben und Ausgaben jeder Ausführung unter Verwendung relevanter Metadaten bereitstellt, die mit JSON-LD, einer JSON-Erweiterung für verknüpfte Daten, auf weit verbreitete Standards abgebildet werden.

Stephen Knox, Die Universität von Manchester
Julien Harou, Die Universität von Manchester
Philipp Meier, EAWAG
Jim Yoon, Universität in Stanford

Die Entwicklung, der Austausch und die Verwendung von Modellen zur Bewältigung sozio-ökologischer Probleme erfordert sowohl ein gemeinsames Vokabular als auch eine Einigung über den Umfang des modellierten Bereichs. Ein Ansatz hierfür ist die Verwendung eines einzigen gemeinsamen konzeptionellen Modells und eines zentralisierten Datenspeichers, in dem die Eingaben und Ausgaben jedes Teilmodells gespeichert werden. Für netzwerkbasierte Modelle erleichtert die Pynsim-Python-Bibliothek diese Struktur, indem sie es Modellierern ermöglicht, eine gemeinsame Netzwerkstruktur mit objektorientiertem Design aufzubauen und Teilmodellmodelle in eine Pynsim-Simulation „einzustecken“. Der Aufbau eines gemeinsamen konzeptionellen Modells kann schwierig sein, wenn Mitarbeiter aus der Ferne arbeiten oder einige Mitarbeiter keine Erfahrung mit dem Design von Softwarearchitekturen haben. Durch die Kombination von Pynsim mit einem webbasierten kollaborativen Tool können einige dieser Schwierigkeiten angegangen werden. Die Hydra Platform ist ein webbasiertes Datenmanagementsystem für Netzwerkstrukturen und Daten. Mithilfe von Vorlagen kann eine gemeinsame Struktur entwickelt werden, in der alle Knoten, Links, Institutionen (Gruppierungen von Knoten & Links) und ihre zugehörigen Attribute definiert werden können. Anhand dieser Vorlage kann dann eine Netzwerktopologie definiert und deren Attribute parametriert werden. Dieses Netzwerk fungiert als gemeinsame Konzeption und als Speicher für Ein- und Ausgabedaten. Über das Webinterface können Vorlage und Netzwerk visuell verwaltet und visuell unter den Benutzern geteilt werden, sodass alle Benutzer einen visuellen Bezug zu der gemeinsamen Konzeption haben. Mithilfe von Webanfragen kann ein Client das Netzwerk aus der Hydra-Plattform extrahieren und ein Pynsim-Netzwerk erstellen, wodurch ein Input für die gemeinsame Simulation erstellt wird. Nach Abschluss werden die Ergebnisse zur Analyse entweder über die integrierten Analysetools der Web-Benutzeroberfläche oder zum Herunterladen durch die Mitarbeiter an die Hydra-Plattform gesendet.

Jin Wang
Min Chen
Guonian Lü
Songshan Yue
Kun Chen
Yongning Wen

Mit der Entwicklung der Netzwerktechnologie wird das Studium integrierter Modellierungsframeworks auf Basis von Webservices zu einem zentralen Thema, um zur Lösung komplexer geografischer Probleme beizutragen. Bis heute stehen in der offenen Webumgebung eine Vielzahl von Geoanalysemodellen und riesige Datenressourcen zur Verfügung. Der transparente Zugriff auf, die Beschaffung oder der Aufruf einzelner Ressourcen ist relativ einfach, die Kombination dieser Modelle und Datenressourcen für umfassende Simulationen bleibt jedoch aufgrund ihrer Heterogenität und Vielfalt eine Herausforderung. Datenressourcen sind die treibende Kraft der Modellausführung und können als Zwischenverbindungsmedium für die Modellintegration dienen. In den meisten Fällen können die Datenressourcen jedoch nicht direkt verwendet werden, um Modelle anzutreiben oder zu verknüpfen. Um eine komfortable Kopplung von Modellen und Datenressourcen über das Web zu ermöglichen und damit den Aufwand bei der Datenaufbereitung zu reduzieren und repetitive Datenverarbeitungsarbeiten zu vermeiden, werden im Web-Umfeld dringend Datenverarbeitungsdienste benötigt, die Daten aufbereiten und verarbeiten können. Basierend auf dem vorgeschlagenen Universal Data eXchange (UDX)-Modell wurden in dieser Forschung drei Arten von Datenverarbeitungsmethoden entwickelt, die Mapping, Refactoring und Visualisierung realisieren können. Diese Methoden können als Datenverarbeitungsdienste veröffentlicht werden, um den Betrieb von Geoanalysemodellen über die Webumgebung zu erleichtern. Die Anwendbarkeit der vorgeschlagenen Datenverarbeitungsdienste wird anhand von zwei Fällen untersucht: Im ersten Fall wird die Datenaufbereitung mit Verarbeitungsdiensten für das WATLAC-Modell und im zweiten Fall die Anwendung des Verarbeitungsdienstes bei der Modellintegration über das Web konzipiert. Die Ergebnisse zeigen, dass die vorgeschlagenen Verarbeitungsdienste die Lücke zwischen Geoanalysemodellen und in Netzwerken gehosteten Datenressourcen schließen können.

Yuwei Cao, Nanjing Normal University
Yi Huang, Nanjing Normal University
Yehua Sheng, Nanjing Normal University

In der Geoinformationswissenschaft, die sich traditionell auf die Darstellung räumlicher und zeitlicher Informationen konzentriert, gewinnt die Darstellung geographischer Prozesse wie der Bodenerosion an Bedeutung. Die Erforschung einer geeigneten Methode zum Ausdrücken eines Geoprozesses ist wichtig, um seine dynamische Entwicklung und die zugrunde liegenden Mechanismen aufzudecken. Diese Forschung schlägt ein prozesszentriertes Ontologiemodell vor. Es beschreibt die geografische Umgebung durch drei Aspekte: geografische Szene, geografischer Prozess und geografisches Merkmal. Die geografische Szene ist ein einheitlicher Ausdruck der Umgebung, der die Integrität von Geoprozessen sowie das räumlich-zeitliche Muster von Geomerkmalen berücksichtigt. Der geographische Prozess definiert die bestehenden Aktionen von Geo-Features und repräsentiert räumliche, zeitliche und semantische Veränderungen. Geografisches Feature ist die kleinste Einheit eines geografischen Objekts, das grundlegende geografische Informationen und die Zugehörigkeit zwischen Geoprozess und Geo-Features enthält. Die oben genannten drei Aspekte werden durch den Vorschlag eines Rahmens und die Konstruktion von zehn Subontologien dargestellt. Dazu gehören Feature-Ontologie, Szenen-Ontologie, Prozess-Ontologie, Raum-Ontologie, Zeit-Ontologie, Räumliche-Beziehung-Ontologie, Zeit-Beziehung-Ontologie, Darstellungs-Ontologie, Substanz-Ontologie und Operator-Ontologie. Anschließend wird eine Instanz für den Bodenerosionsprozess ausgewählt, um die Praktikabilität dieses Rahmens zu demonstrieren. Der gesamte Prozess ist in drei Teilprozesse unterteilt (Bodenablösung, Bodentransport und Bodenablagerung) und jeder Teilprozess wird beschrieben, wann und wo der Prozess stattgefunden hat, welche Merkmale vorhanden waren und wie sie reagiert haben (Interaktion zwischen Merkmalen, Prozesse, Szenen) und welche Veränderungen es in der Geo-Szene gab. Darüber hinaus werden verschiedene Beziehungen zwischen Merkmalen, Szenen und Prozessen definiert, um zu erklären, wie und warum Bodenerosion aufgetreten ist. Dieser vorgeschlagene Ansatz kann den zugrunde liegenden Mechanismus von Geoszenen aufdecken, das Auftreten und die Ursachen von Geoprozessen untersuchen und die komplexe Darstellung von Geomerkmalen unterstützen.

Baojia Zhang, Universität von Washington Tacoma
Wes J. Lloyd, Universität von Washington Tacoma
Olaf David, Colorado State University - Fort Collins
George Leavesley, Colorado State University - Fort Collins

In letzter Zeit sind serverlose Computing-Plattformen entstanden, die automatisches Webservice-Hosting in der Cloud bereitstellen. Diese Plattformen werden für ihre Fähigkeit beworben, "Mikro"-Dienste für Endbenutzer zu hosten und gleichzeitig wichtige Funktionen wie 24/7-Hochverfügbarkeit, Fehlertoleranz und automatische Skalierung von Ressourcen zur Erfüllung der Benutzernachfrage nahtlos zu integrieren. Serverless Computing-Umgebungen abstrahieren die meisten Infrastrukturverwaltungsaufgaben, einschließlich VM-/Container-Erstellung und Load-Balancer-Konfiguration. Ein wesentlicher Vorteil von Serverless Computing ist der KOSTENLOSE Zugang zu Cloud-Computing-Ressourcen. Viele Plattformen bieten kostenlosen Zugriff für bis zu 1.000.000 Serviceanfragen/Monat mit 1 GB Speicher für 400.000 Sekunden/Monat. Darüber hinaus unterstützen serverlose Plattformen Programmiersprachen, die für Modellierer-Entwickler üblich sind, darunter Java, Python, C# und Javascript.

Wir präsentieren Ergebnisse aus einer Machbarkeitsstudie des Precipitation-Runoff Modeling System (PRMS), einem deterministischen Modell mit verteilten Parametern, das entwickelt wurde, um die Auswirkungen verschiedener Kombinationen von Niederschlag, Klima und Landnutzung auf Bachfluss und Sedimenterträge zu bewerten und allgemeine Beckenhydrologie (Leavesley et al., 1983). Wir haben eine webservicebasierte Implementierung von PRMS bereitgestellt, die mithilfe der Cloud Services Integration Platform (CSIP) und des komponentenbasierten Modellierungsframeworks Object Modeling System (OMS) 3.0 für die serverlose Computerplattform Amazon AWS Lambda implementiert wurde. PRMS besteht aus ca.

11.000 Codezeilen und passt problemlos in die Beschränkung der maximalen Codegröße von 256 MB von AWS Lambda. Wir haben unsere serverlose Bereitstellung mit einer herkömmlichen Cloud-basierten Amazon EC2-VM-basierten Bereitstellung verglichen. Wir stellen die durchschnittliche Modellausführungszeit, den Servicedurchsatz (Anfragen/Minute) sowie die Cloud-Hosting-Kosten von PRMS unter Verwendung beider Cloud-Plattformen gegenüber.

Jack R. Carlson, Colorado State University - Fort Collins
Casey Sheley, USDA-Dienst zur Erhaltung natürlicher Ressourcen
Rumpal Sidhu, Colorado State University - Fort Collins
Shaun-Fall, Colorado State University - Fort Collins
Olaf David, Colorado State University - Fort Collins

Das Stream Visual Assessment Protocol (SVAP) bietet eine erste Bewertung des Gesamtzustands von watenfähigen Bächen, ihrer Uferzonen und Binnenlebensräume. Naturschützer verwenden das Tool, wenn sie Landbesitzern technische Hilfe leisten, um die Flussbedingungen, die nachhaltige Nutzung und den Wert ihres Eigentums zu verbessern. SVAP erfordert keine umfassende Ausbildung in Biologie, Geomorphologie oder Hydrologie und ist ein erster Schritt zu detaillierteren Analysen und Empfehlungen nach Bedarf. Das Protokoll wurde 1999 von der Aquatic Assessment Workgroup des USDA Natural Resources Conservation Service (NRCS) entwickelt, nach zwei Jahren Feldstudie und Validierung mit 182 Bachläufen in 9 Bundesstaaten im ganzen Land. Nach einem Jahrzehnt der Nutzung wurde SVAP 2009 aktualisiert, um die Sensibilität für Ressourcenbedingungen auf staatlicher und regionaler Ebene zu erhöhen. Bis zu diesem Punkt wurde SVAP als meist manueller Prozess angewendet, bei dem einzelne Arbeitsblätter unter Anleitung eines Feldhandbuchs ausgefüllt, als Tabellenkalkulationen, PDF-Dateien oder andere Dokumente in einem Dateisystem oder neuerdings einem Dokumentenmanagementsystem gespeichert werden. Das Ausfüllen des Arbeitsblatts nutzt jedoch weder Online-Datenquellen noch erfüllt es Prioritäten für die Integration der Bewertung von Ressourcenproblemen auf Farmen und Ranches. Wir beschreiben eine Suite von 14 SVAP-Microservices und zugehörigen Datentabellen, die die Dateneingabe und -bearbeitung von Webanwendungen, die Verwaltung von Referenzdatenströmen und die Berechnung von Bewertungsergebnissen unterstützen. Diese Dienste stellen wir über unseren kontinuierlichen Integrationsprozess OMS/CSIP zur Verfügung.

Der junge Don Choi, Universität von Virginia
Jonathan L. Goodall, Universität von Virginia
Jeffrey M. Sadler, Universität von Virginia
Andrew Bennett, Universität von Washington
Jonathan L. Goodall, Universität von Virginia
Bart Nijssen, Universität von Washington
Martyn P. Clark, Nationales Zentrum für Atmosphärenforschung
Anthony M. Castronova, CUAHSI
David G. Tarboton, Utah State University

Die Structure for Unifying Multiple Modeling Alternatives (SUMMA) ist ein hydrologischer Modellierungsrahmen, der es Hydrologen ermöglicht, alternative Modellkonzeptionen systematisch zu testen. Das Ziel dieses Projekts ist es, eine Python-Bibliothek zum Umhüllen des SUMMA-Modellierungsframeworks namens pySUMMA zu erstellen. Mit dieser Bibliothek können Hydrologen Python-Skripte erstellen, die die in verschiedenen Experimenten getesteten alternativen Modellkonzeptionen dokumentieren. Zu diesem Zweck bietet pySUMMA ein objektorientiertes Mittel zum Aktualisieren von SUMMA-Modellkonfigurationen, Ausführen von SUMMA-Modellläufen und Visualisieren von SUMMA-Modellausgaben. Diese Arbeit ist Teil des webbasierten hydrologischen Informationssystems HydroShare, das vom Consortium of Universities for the Advancement of Hydrologic Science Inc. (CUAHSI) betrieben wird und hydrologische Daten und Modelle online auffindbar und teilbar machen soll. Die Erstellung von pySUMMA ist ein erster Schritt in Richtung des längerfristigen Ziels, ein interaktives SUMMA-basiertes Modellierungssystem durch die Kombination von HydroShare.org, JupyterHub und High Performance Computing (HPC)-Ressourcen zu schaffen. In der aktuellen Version von HydroShare können verschiedene Daten- und Modellressourcen hochgeladen, geteilt und veröffentlicht werden. Diese aktuelle Entwicklung wird zu einer engeren Integration zwischen dem SUMMA-Modellierungsprozess und HydroShare.org mit dem Ziel führen, hydrologische Modelle offener, wiederverwendbar und reproduzierbar zu machen. Letztendlich dient SUMMA als Anwendungsfall für die Modellierung in HydroShare, der einen allgemeinen Ansatz zur Nutzung von JupyterHub und HPC vorantreibt, der für andere Modellierungssysteme wiederholt werden kann.

Fengyuan Zhang, Nanjing Normal University
Min Chen, Nanjing Normal University
Chaoran Shen, Nanjing Normal University
Songshan Yue, Nanjing Normal University
Yongning Wen, Nanjing Normal University
Guonian Lü, Nanjing Normal University

Geoanalysemodelle sind die Abstraktion und der Ausdruck geographischer Phänomene und Prozesse. Bis heute wurden viele Geoanalysemodelle in verschiedenen Domänen erstellt, und kollaborative Modellierung und Simulation unter Verwendung von Modellen in der offenen Webumgebung werden für die geografische Forschung immer beliebter. Die serviceorientierte gemeinsame Nutzung und Wiederverwendung von Geoanalysemodellen über das Web ist eine wichtige Grundlage dieser Arbeit. Die modelldienstleistungsbezogene Forschung steht jedoch vor mehreren Herausforderungen, insbesondere der Unfähigkeit, heterogene Ressourcen der Geosimulation wiederzuverwenden. Durch das Studium der Generierung, Verwaltung und Veröffentlichung von Modelldiensten zielt dieser Artikel darauf ab, einen Dienstcontainer für Geoanalysemodelle zu entwerfen und zu entwickeln, der als Dienstlader und -manager fungiert, um diese Modelle als Dienste für Benutzer zu veröffentlichen. Der Dienstcontainer kann Funktionen wie das Standardisieren der Modellvorbereitung, das Verwalten von Modelldiensten und das Aufrufen interaktiver Modelldienste ausführen, wodurch die Lücke zwischen Anbietern von Geosimulationsressourcen und Dienstbenutzern geschlossen wird. In diesem Artikel werden das Soil and Water Assessment Tool-Modell und das Unstructured Grid Finite Volume Community Ocean Model als Fallstudien verwendet, um zu zeigen, dass der vorgeschlagene Service-Container die bequeme gemeinsame Nutzung von Modellressourcen ermöglichen und weiter zur kollaborativen Modellierung und Simulation in einem Netzwerk beitragen kann .

Lauren Hay, USGS
Jacob LaFontaine, USGS
Steven Markström, USGS
Steven Regan, USGS
Jessica Driscoll, USGS
William Farmer, USGS
Samuel Sachsen, USGS
Adam Preis, Universität von Kalifornien, Santa Cruz
Flannery Dolan, Colorado School of Mines
Shirley Leung, Universität von Washington

Der traditionelle Ansatz zur Kalibrierung und Bewertung hydrologischer Modelle – der Vergleich von beobachteten und simulierten Strömungen – ist nicht ausreichend. Vom Modell berechnete Zwischenprozessvariablen könnten durch Parameterwerte charakterisiert werden, die diese hydrologischen Prozesse im physikalischen System nicht unbedingt nachbilden. Um diese Zwischenprozesse besser zu replizieren, können zusätzlich zum Stromfluss Zwischenprozessvariablen untersucht werden, wenn es eine zugehörige „beobachtete“ Variable gibt, die als Basisdatensatz verwendet werden kann. Diese Studie präsentiert eine Parameterschätzungstechnik auf der CONUS-Skala für die Anwendung des USGS National Hydrologic Model des Precipitation-Runoff Modeling System (NHM-PRMS) unter Verwendung von fünf „Baseline“-Datensätzen (Abfluss, tatsächliche Evapotranspiration, Wiederauffüllung, Bodenfeuchtigkeit und Schneebedeckung). Bereich). Diese Basisdatensätze mit Fehlergrenzen wurden aus mehreren Quellen für jede der 109.951 hydrologischen Reaktionseinheiten (HRUs) des NHM-PRMS auf Zeitskalen von jährlich bis täglich abgeleitet. Die Sensitivitätsanalyse wurde verwendet, um die (1) Kalibrierungsparameter und (2) die relative Empfindlichkeit jedes Basisdatensatzes gegenüber den Kalibrierungsparametern für jede HRU zu identifizieren. Ein mehrzieliges, schrittweises, automatisiertes Kalibrierungsverfahren wurde verwendet, um den „optimalen“ Satz von Parameterwerten für jede HRU zu identifizieren. Die Verwendung einer Vielzahl von Basisdatensätzen zur Kalibrierung der Zwischenprozessvariablen lindert das Äquifinalitätsproblem und „die richtige Antwort aus dem falschen Grund zu erhalten“. Durch gemeinschaftliche Bemühungen sollten wir uns bemühen, unser Verständnis dieser Basisinformationen zu verbessern und sie den Modellierungsgemeinschaften zur Verfügung zu stellen, um bei der Kalibrierung und Bewertung hydrologischer Modelle mit mehr als nur Stromabfluss zu helfen.

Veerasamy Sejian Dr, ICAR-National Institute of Animal Nutrition and Physiology, Bangalore, Indien
V P. Rashamol Frau, ICAR-National Institute of Animal Nutrition and Physiology, Bangalore, Indien
Angela M. Lees Dr, School of Agriculture and Food Sciences, The University of Queensland, Gatton 4343 QLD, Australien
Jarrod C. Lees Dr, School of Agriculture and Food Sciences, The University of Queensland, Gatton 4343 QLD, Australien
John B. Gaghan Dr, School of Agriculture and Food Sciences, The University of Queensland, Gatton 4343 QLD, Australien

Das DairyGHG-Modell ist eine kostengünstige und effiziente Methode zur Schätzung der Treibhausgasemissionen (THG) von Milchviehbetrieben und zur Analyse, wie Managementstrategien diese Emissionen beeinflussen. Daher wurde in dieser Studie das DairyGHG-Modell verwendet, um die Treibhausgasemissionen vorherzusagen und den CO2-Fußabdruck von vier verschiedenen Milchviehbetrieben in Australien zu bewerten. Die Studie wurde in vier verschiedenen Milchviehbetrieben in verschiedenen Ortschaften von Queensland, Australien, durchgeführt. Die Details der Betriebe sind: Betrieb 1 (220 Kühe Jersey), Betrieb 2 (460 Kühe Holstein Friesian), Betrieb 3 (850 Kühe Holstein Friesian) und Betrieb 4 (434 Kühe Holstein Friesian). In allen vier Betrieben erhielten die Kühe Maissilage, Getreide und die Tiere hatten Zugang zur Weide. Der Beitrag der Tieremissionen zum CO2-Fußabdruck in Farm 1, Farm 2, Farm 3 und Farm 4 betrug 54,2 %, 60,0 %, 59,6 % bzw. 38,6 %. Ebenso betrug der Beitrag der Gülleemissionen zum CO2-Fußabdruck in Betrieb 1, Betrieb 2, Betrieb 3 und Betrieb 4 30,6 %, 29,0 %, 29,0 % bzw. 58,3 %. Auf der Grundlage von pro kg energiekorrigierter Milch beträgt die in Betrieb 1, Betrieb 2, Betrieb 3 und Betrieb 4 erzeugte THG-Menge 0,39 kg CO2e, 0,64 kg CO2e, 0,54 kg CO2e und 1,35 kg CO2e bzw. Im Vergleich dazu trug Betrieb 4 wesentlich höhere THG-Emissionen bei, während Betrieb 1 den geringsten Beitrag leistete. Somit kann aus der Studie geschlossen werden, dass die Rasse Jersey im Vergleich zur Rasse Holstein Friesian vergleichsweise weniger milchbedingte THG-Emissionen verursacht.

Steven Markström, USGS

Die Bachtemperatur ist von grundlegender Bedeutung für die Struktur und Funktion von Süßwasser-Flussökosystemen. Die Wechselwirkungen von Flora und Fauna mit chemischen Bestandteilen, gelöstem Sauerstoff und anderen Wasserqualitätsfaktoren werden durch die Bachtemperatur beeinflusst. Computermodelle können verwendet werden, um die Fließtemperatur mit Fließsegmentauflösung zu simulieren (z. B. ein Netzwerk mit Fließsegmenten zwischen 1 und 100 Kilometern), was wiederum die Entscheidungsfindung für Ökologen und Ressourcenmanager erleichtern kann. Es wurde eine Anwendung zur Modellierung der täglichen mittleren Flusstemperatur entwickelt, die auf den hydrologischen Simulationen des National Hydrologic Model des U.S. Geological Survey basiert. Vorläufige Ergebnisse aus dieser Anwendung werden vorgestellt.

Scott Haag, Universität Drexel
Ali Shokoufandeh, Universität Drexel
Austin Gentry, Universität Drexel

Bei der Verwendung von Fließrichtungsgittern zur Beschreibung der Auswirkungen auf Bäche und Einzugspunkte von Wassereinzugsgebieten werden üblicherweise zwei interessierende räumliche Skalen verwendet, das gesamte Wassereinzugsgebiet und das lokale Einzugsgebiet. In dieser Präsentation beschreiben wir einen alternativen Ansatz, der als eingeschränkte Wasserscheidengrenze bezeichnet wird. Konkret definieren wir eine eingeschränkte Wasserscheide als ein Polygon, das alle Fließrichtungsgitterzellen mit einer Oberflächenströmungsentfernung unter einem vorgeschriebenen Schwellenwert enthält. Der vorgeschlagene Algorithmus baut auf dem HSM-Algorithmus auf, wie er von Haag und Shokoufandeh 2017 beschrieben wurde, und erweitert die Datenstruktur um ein direkt aus dem ursprünglichen FDG berechnetes Flussdistanzgitter. Der neue Algorithmus ermöglicht das schnelle Abrufen und Visualisieren von eingeschränkten Wassereinzugsgebieten basierend auf benutzerdefinierten Entfernungsschwellen.

Der zusammengeführte Algorithmus ist eine Variante des HSM-Algorithmus und wird daher Wassereinzugsgebiete effizienter abrufen als Rastersuchtechniken. Empirische Tests für das Delaware River Watershed Retrieval Problem zeigen eine Reduzierung von

35 Millionen Lesevorgänge an

45.000 mit dem HSM-Ansatz Haag und Shokoufandeh 2017.

Dieser Algorithmus wurde in einem Restful-API-Framework für die kontinentalen Vereinigten Staaten unter Verwendung des 30-m-FDG von NHDPlus v2 implementiert (er kann jedoch unter Verwendung eines beliebigen Eingabe-D8-Strömungsrichtungsgitters implementiert werden, z. B. Hydrosheds). Die Ergebnisse werden während der Präsentation mit einem Standard-Webbrowser demonstriert.

Ayse Karanci, North Carolina State University / Moffatt und Nichol
Lisa Stillwell, Universität von North Carolina
Christopher Lenhardt, Universität von North Carolina
Casey Dietrich, North Carolina State University

Die Bearbeitung kritischer Fragen erfordert heute oft die Zusammenarbeit von Forschenden unterschiedlicher Disziplinen oder Institutionen. Küstengefahrenforschung ist zwangsläufig interdisziplinär und multimethodisch und erfordert oft ein Forscherteam. Dieses Papier stellt ein interdisziplinäres Küstengefahrenrisikomodell vor, das hochauflösende Geodaten, Sturmeinwirkungsprognosen und ein agentenbasiertes Modell in der Analyse kombiniert und die Anwendung des Modells in einer datenwissenschaftlichen Cyberinfrastruktur beschreibt.

Die Implementierung des Küstengefahrenrisikomodells in die Cyberinfrastruktur umfasste eine Aufteilung des Modells in drei Teile: 1) Geoanalyse: analysiert Wohnsiedlungen und die Küste, um eine Haushaltsdatenbank zu erstellen. (2) Sturmbewertung: Sturmsimulationsdatenbank, die eine Reihe von Simulationsergebnissen mit unterschiedlichen Strand- und Sturmbedingungen enthält. (3) Küstenstadt-Agentenbasiertes Modell (ABM): ABM-Framework, das Veränderungen in der Wohnbebauung und Küstenlandschaftsformen aufgrund (i) Rückkopplungen innerhalb der menschlichen und natürlichen Systeme und (ii) externer Antriebe, Stürme und Meeresspiegelanstieg simuliert .

Jeder Schritt wurde dann in eigenständige Docker gepackt, die es Forschern verschiedener Disziplinen ermöglichen, die bestehenden Tools zu modifizieren und neue Theorien zu testen, ohne die Kompatibilität mit den zugrunde liegenden Technologien in den anderen Dockern zu berücksichtigen. Darüber hinaus können die Forscher ihre separaten Docker in den Workflow einbinden, um das Testen neuer oder geänderter Apps zu ermöglichen, ohne die Nutzung anderer Forscher zu stören.

Jae Sung Kim, Colorado State University
David Arden Patterson, Colorado State University

Das Tool zur Abgrenzung von Wassereinzugsgebieten wurde in der Plattform des Environmental Resource Assessment & Management System (eRAMS) mit Open-Source-Softwaretechnologien entwickelt. Dieses Tool verarbeitet Digital Elevation Model (DEM) und DEM-gesteuerte Rasterdaten, um Wassereinzugsgebiete mit zwei Open-Source-Softwaretechnologien, TauDEM und GDAL, abzugrenzen. Benutzer können ihr eigenes DEM hochladen oder eines mit NHDPlusV2 erstellen, das standardmäßig im eRAMS-Wasserscheidenabgrenzungstool bereitgestellt wird. Während der Verarbeitung des DEM wurde festgestellt, dass der flache Bereich in den vom TauDEM 'Peuker Douglas'-Modul berechneten Stream-Rasterpixeln ausgeschlossen war Schwelle. Dieser Schwellenwert wurde als der Durchschnitt der Flussakkumulationswerte auf Peuker Douglas Stream-Pixeln festgelegt. Um den Benutzern Flexibilität zu bieten, wurden drei Optionen entwickelt, Advanced, Basic und Watershed Extraction. Mit der Option Erweitert können Benutzer jedes Modul, das für die Abgrenzung von Wassereinzugsgebieten erforderlich ist, einzeln ausführen. Die Basisoption ermöglicht es Benutzern, jedes Modul automatisch gleichzeitig auszuführen, ohne Zwischenprozesse zu konfigurieren, wenn DEM- und Auslasspunkte bereitgestellt werden. Das Wasserscheiden-Extraktionsmodul verwendet das NHDPlusV2-Flussrichtungs-Raster, um Wasserscheiden mithilfe der Auslässe und eines interessierenden Bereichs schnell zu extrahieren. TauDEM-Module wurden in der Cloud Service Innovation Platform (CSIP) verwendet, die von der eRAMS-Plattform aufgerufen wurden. Das Tool kann überall in den kontinentalen USA verwendet werden.

Taylor Anderson
Suzana Dragicevic

Landschaftskonnektivitätsnetzwerke bestehen aus Sätzen von Knoten, die georeferenzierte Habitat-Patches darstellen, die basierend auf der maximalen Ausbreitungsentfernung einer interessierenden Art miteinander verbunden sind. Die Graphentheorie wird verwendet, um die Struktur und Konnektivität der resultierenden Netzwerke zu messen, um Ausbreitungsmuster zu informieren, wichtige Habitat-Patches zu identifizieren und zu beurteilen, wie Strukturänderungen Ausbreitungsmuster stören. Trotz ihres Potenzials sind Landschaftskonnektivitätsnetzwerke meist statische Darstellungen, die nur unter Verwendung maximaler Ausbreitungsentfernung gebildet werden, und berücksichtigen daher nicht die Netzwerkstruktur als Funktion der Variation der Habitat-Patch-Attribute und der komplexen räumlich-zeitlichen Ausbreitungsdynamik. Das Hauptziel dieser Forschungsstudie ist es, einen Modellierungsansatz zu entwickeln, der Netzwerke und agentenbasierte Modellierung (ABM) zur Darstellung eines dynamischen Ausbreitungsnetzwerks des Ökosystems Smaragd-Bohrer (EAB) Waldinsektenbefall integriert. Der Ansatz entwickelt ein auf Netzwerkagenten basierendes Modell (N-ABM), das ein ABM und dynamische räumliche Netzwerke integriert, um räumlich-zeitliche Muster des EAB-Befalls auf der individuellen Skala zu simulieren und räumliche Netzwerkstrukturen der EAB-Ausbreitung zu erzeugen, wenn das Phänomen Eschen befällt . Der Modellansatz ist in Java programmiert und in Repast Simphony implementiert, einer freien und Open-Source-Agentenbasierten Modellierungs- und Simulationsplattform, die Geodatensätze verwendet, die den Standort von Eschen darstellen, die für den EAB-Befall im östlichen Teil Nordamerikas geeignet sind Studie. Die simulierten räumlichen Netzwerke werden durch graphentheoretische Messungen charakterisiert, wobei wichtige Ausbreitungspfade und Habitatflecken identifiziert werden, die die EAB-Ausbreitung verschlimmern, und die Wirksamkeit der Entfernung von Habitatflecken bei der Störung der Ausbreitung quantifiziert wird.

William Farmer, USGS
Jacob LaFontaine, USGS
Lauren Hay, USGS

Der United States Geological Survey (USGS) hat das National Hydrologic Model (NHM) entwickelt, um eine koordinierte, umfassende und konsistente Entwicklung und Anwendung hydrologischer Modelle in den angrenzenden Vereinigten Staaten (CONUS) zu unterstützen. Die NHM-Anwendung des Precipitation-Runoff Modeling System (NHM-PRMS) wurde verwendet, um 1.380 gemessene Wassereinzugsgebiete im CONUS zu modellieren, um die Machbarkeit der Verbesserung von Strömungssimulationen durch die Verknüpfung statistisch und physikalisch basierter hydrologischer Modelle zu testen. Der tägliche Stromfluss wurde an jeder der 1.380 gemessenen Wasserscheiden mithilfe einer kreuzvalidierten Implementierung von gepooltem gewöhnlichem Kriging simuliert. Auf diese Weise wurde der Stromfluss an jedem Messgerät simuliert, als ob keine Stromflussinformationen vor Ort verfügbar wären. Die Ziele dieser Studie bestanden darin, 1) die Fähigkeit des NHM-PRMS und des gewöhnlichen Kriging zu testen, den Stromfluss durch den CONUS für ausgewählte Wassereinzugsgebiete zu simulieren, 2) die Simulationen des NHM-PRMS, kalibriert mit gemessenem Stromfluss, und des NHM-PRMS, kalibriert mit gewöhnliches Kriging mit gemessenem Abfluss und 3) um die Machbarkeit der Verwendung von gewöhnlichem Kriging anstelle des gemessenen Abflusses zu bestimmen, um das NHM-PRMS zu kalibrieren, um Strömungssimulationen in ungealterten Becken bereitzustellen.

Tyler Wible, Colorado State University
Mazdak Arabi, Colorado State University - Fort Collins

Zeitliche Analysen von Hochwasserhäufigkeit und -stärke wurden auf ihre Bedeutung für die hydraulische Auslegung untersucht. Die vom USGS entwickelte Bulletin 17B Log-Pearson Type III Flutfrequenzanalyse ist eines der gebräuchlichsten Analyse-Frameworks und wurde sogar in automatisierte Softwarepakete integriert (Flynn et al., 2006). Die in den meisten dieser Analysen inhärente Annahme der Stationarität ist jedoch unter sich ändernden Klimabedingungen nicht mehr anwendbar. Diese Studie fasst eine erneute Analyse der USGS-Peak-Flow-Messgeräte in den Vereinigten Staaten über die letzten 60 Jahre zusammen, um die zeitlichen Trends der Hochwasserhäufigkeit zu quantifizieren. Die Cloud-Computing-Plattform Cloud Services Integration Platform (CSIP) wurde verwendet, um die Analyse mit der Hochwasserfrequenzmethode Bulletin 17B für alle Bachüberwachungsstationen im ganzen Land durchzuführen. Die Ergebnisse zeigten regionale zeitliche Trends und räumliche Muster für Veränderungen der Hochwasserhäufigkeit in den kontinentalen USA.

Ashley E. Van Beusekom, USGS
Naoki Mizukami, NCAR

Die Feinheiten der Streamflow-Routing-Technik in der hydrologischen Modellierung haben die Fähigkeit, das Timing des resultierenden Stromflusses mehr als jeder andere einzelne Teil des Modellierungsprozesses zu ändern. Viele großmaßstäbliche Modelle verwenden eine relativ einfache nicht-dynamische Kanalströmung als Routing-Schema, bei der die Wasserspeicherung in einem Bereich linear mit den Zufluss- und Abflussraten verbunden ist, um Abflussverzögerung und (Hochwasser-)Dämpfung zu modellieren. In großen Überschwemmungsgebieten wurden durch den Wechsel von nicht-dynamischer zu dynamischer Streckenführung erhebliche und wertvolle Verbesserungen der Modellleistung festgestellt. Beim dynamischen Routing wird der Stromfluss verzögert und abgeschwächt, während die Eigenschaften der Stromflusstiefe und -geschwindigkeit geändert werden. Dies geschieht durch Näherung einer Wellengeschwindigkeit für die Strömung mit kinematischen Berechnungen an einem Teilchen. Die kinematische Wellenverfolgung ist physikalisch realistischer, aber auch rechenintensiver als das nicht-dynamische Routing. Die Bewertung des dynamischen Routings auf kontinentaler Ebene muss den Anstieg des Rechenaufwands sowie die Beschränkungen der Datenauflösung für die Ableitung von Parameter- und Kalibrierungsdatensätzen berücksichtigen. In einem neuen kontinentalen Modell unter Verwendung des USGS National Hydrologic Model testen wir die Auswirkungen der dynamischen Routenführung auf die Modellleistung.Darüber hinaus untersuchen wir die Verbesserung der Flussführung auf kontinentalem Maßstab mit zunehmenden und verlorenen Strömen und untersuchen erneut den Kompromiss zwischen physischem Realismus des Modells, Datenverfügbarkeit und Rechenaufwand.

Jessica M. Driscoll, USGS
Lauren E. Hay, USGS
Steve Regan, USGS
Steven L. Markström, USGS
Roland J. Viger, USGS
Kyle Juracek, USGS
Jacob H. LaFontaine, USGS
Parker A. Norton, USGS

Ein umfassendes Verständnis der physikalischen Prozesse, die den Flussfluss beeinflussen, ist erforderlich, um die Wasserressourcen effektiv zu verwalten, um die gegenwärtigen und zukünftigen Bedürfnisse von Mensch und Umwelt zu erfüllen. Das Wasserressourcenmanagement von lokaler bis nationaler Ebene kann von einer konsistenten, prozessbasierten Modellierung von Wassereinzugsgebieten profitieren. Das National Hydrologic Model (NHM), das vom U.S. Geological Survey entwickelt wurde, um eine koordinierte, umfassende und konsistente hydrologische Modellierung auf mehreren Skalen für die angrenzenden Vereinigten Staaten zu unterstützen, bietet diese wesentliche Fähigkeit. Das NHM schließt Wissenslücken in ungealterten Gebieten, um national konsistente, lokal informierte und für Interessengruppen relevante Ergebnisse zu verbreiten. Das NHM stellt Wissenschaftlern, Wasserressourcenmanagern und dem öffentlichen Wissen zur Verfügung, um grundlegende wissenschaftliche Untersuchungen voranzutreiben, fundiertere und effektivere Entscheidungen zu ermöglichen und eine Bildungsressource bereitzustellen, um alle Komponenten des Wasserhaushalts kennenzulernen. Da das Verständnis hydrologischer Prozesse in Zukunft verbesserte Algorithmen und Datensätze ermöglicht, wird sich das NHM weiterentwickeln, um die Wasserressourcenforschung, Entscheidungsfindung und den Bildungsbedarf des Landes besser zu unterstützen.

Jacob LaFontaine, USGS
Lauren Hay, USGS
Theodore Barnhart, USGS
Samuel Sachsen, USGS

Der National Water Census des US Geological Survey (USGS) bewertet den aktuellen Zustand der Wasserressourcen für die Vereinigten Staaten. Die Literatur hat übereinstimmend gezeigt, dass verschiedene hydrologische Modelle, einschließlich des verteilten Parameterprozesses, des Wasserhaushalts und der Statistik, Schwierigkeiten haben, die hydrologische Reaktion in der semiariden zentralen USA, einer Nord-Süd-Region von North Dakota bis Texas, zu simulieren. Ungenaue Modellsimulationen können aus unzureichenden oder knappen Daten (z. B. Klima- und Flussdaten), komplexer Geologie, undokumentierten anthropogenen Auswirkungen (Wasserentnahmen oder -zugaben), Einschränkungen bei der Modellkonzeption oder Einschränkungen bei der Modellparametrisierung resultieren. Ein Maß für die Leistung des hydrologischen Modells ist die Fähigkeit, das beobachtete Flussvolumen und den Zeitpunkt abzustimmen. Es wurden tägliche Zeitschritt-Strömungssimulationen unter Verwendung räumlich verteilter, deterministischer hydrologischer Modelle entwickelt, die aus dem USGS National Hydrologic Model extrahiert wurden, das für das Precipitation-Runoff Modeling System parametrisiert wurde. Jedes hydrologische Modell verwendet vier gerasterte Klimadatensätze, die für die angrenzenden Vereinigten Staaten unter Verwendung verschiedener Verteilungsalgorithmen und räumlicher Auflösungen entwickelt wurden. Um die Auswirkungen von Klimaeingaben auf die Modellleistung zu quantifizieren, konzentriert sich diese Forschung auf (1) den Vergleich des Niederschlagsvorkommens für die vier gerasterten Klimadatensätze und (2) die Bewertung der Auswirkungen der Wahl der Klimaantriebe auf die Leistung der hydrologischen Simulation im täglichen Zeitschritt in die halbtrockenen zentralen USA

Corey Krewson, Brigham Young Universität
Michael A. Souffront Alcantara, Brigham Young Universität
Jim Nelson, Brigham Young University - Utah

Die Strömungsvorhersage bietet direkte Einblicke in die Wasserverfügbarkeit und die damit verbundenen Risiken. Globale Modelle sind in Regionen der Welt wichtig, denen diese kritische Einsicht aus den lokalen Modellen oder historischen Aufzeichnungen fehlt. Einige der Herausforderungen bei globalen Modellen sind ihre Genauigkeit bei relativ niedriger Auflösung, Big-Data-Management, Kommunikation und lokale Akzeptanz. Mit dem Global Flood Awareness System (GloFAS) und der Routing Application for Parallel Computation of Discharge (RAPID) haben wir ein hochdichtes Strömungsvorhersagesystem für Afrika, Nordamerika, Südasien und Südamerika entwickelt. In der Cloud wurde eine Rundum-Struktur entwickelt, um Ergebnisse automatisch zu berechnen, zu speichern und zu kommunizieren. Andere Entwicklungen umfassen eine generische Open-Access-Webanwendung, in der Ergebnisse visualisiert werden können, die Verwendung einer REST-API für den programmatischen Zugriff auf Streamflow-Daten und Tools, die die Integration von Vorhersagen in regionale oder lokale Systeme erleichtern. Modernste Techniken wurden mit GIS-Tools angewendet, um einen Streamflow-Animationsservice bereitzustellen, um besser zu visualisieren, wie sich die Durchflussraten über die prognostizierte Zeit ändern und Wiederkehrperioden überschreiten. Die REST-API und Abflussvorhersagen werden verwendet, um andere Anwendungen zu entwickeln, einschließlich dynamischer Hochwasserkarten in verschiedenen Teilen der Welt. Diese Anwendungen sind wertvolle Werkzeuge für Behörden, die mit dem Katastrophenmanagement und der Gesamtaufsicht über nationale Wasserprogramme betraut sind.


US Geographic Names Information System (GNIS) - Bevölkerte Orte

Das Geographic Names Information System (GNIS) sucht aktiv nach Daten von und Partnerschaften mit Regierungsbehörden auf allen Ebenen und anderen interessierten Organisationen. Das GNIS ist der Bundesstandard für die geografische Nomenklatur. Der U.S. Geological Survey hat das GNIS für das U.S. Board on Geographic Names entwickelt, eine öffentlich-rechtliche Einrichtung des Bundes, um eine einheitliche Verwendung von Merkmalsnamen in der gesamten Regierung aufrechtzuerhalten und Standardnamen der Öffentlichkeit bekannt zu geben. Das GNIS ist das offizielle Repository für inländische geografische Namensdaten, das offizielle Vehikel für die Verwendung geografischer Namen durch alle Ministerien der Bundesregierung und die Quelle für die Anwendung geografischer Namen auf bundesstaatliche elektronische und gedruckte Produkte aller Art. Weitere Informationen finden Sie unter http://geonames.usgs.gov. Besiedelte Orte sind benannte Features mit menschlichen Siedlungen, Städten, Städten, Dörfern usw. Teilmenge der nationalen Datei.

Zugangs- und Nutzungsinformationen

Downloads und Ressourcen

Alle GNIS-Daten können von der öffentlichen Website abgefragt, angezeigt und/oder gedruckt werden

Datensätze von weniger als 2000 Datensätzen können von der Öffentlichkeit abgefragt und angezeigt werden.

Primärattribute sind aus den Namenslayern verfügbar, die über einen ESRI bereitgestellt werden.

Primärattribute sind über den GNIS-XML-Dienst verfügbar. Anleitung.

Datenextraktdateien für Staaten und Territorien stehen zum Download über zur Verfügung.


Die Verbindung ist hergestellt

Das BMS-Programm des indischen Verteidigungsministeriums soll die Fähigkeiten der Soldaten des Landes erheblich verbessern und eine bessere Interoperabilität mit US-amerikanischen und anderen Streitkräften ermöglichen. (US-DoD)

Die Verbreitung von Aufklärungstechnologie im asiatisch-pazifischen Raum schreitet weiter voran, da die Streitkräfte zu Lande, in der Luft und auf See versuchen, ihr Lagebewusstsein und ihre Zielkapazitäten auf dem Schlachtfeld zu verbessern.

Solche Fähigkeiten können jedoch ohne die Integration übergreifender Systeme, die in der Lage sind, mehrere Truppenteile zu befehligen und zu kontrollieren, schnell ineffektiv werden, was insbesondere in einer modernen Betriebsumgebung relevant ist, in der Trends zu mehr multinationalen, dienst- und dienststellenübergreifenden Operationen beobachtet werden. Aus diesem Grund investieren führende Länder im asiatisch-pazifischen Raum weiterhin stark in bewährte Gefechtsmanagementsysteme (BMSs), die darauf abzielen, Einheiten im In- und Ausland sowie in einer Vielzahl von Einsatzumgebungen von kalter Witterung und Bergregionen bis hin zu optimieren in Wüsten-, Dschungel-, Küsten- und Meeresgebiete.

Ein ausgereiftes Kommunikations- und Befehls- und Kontrollsystem ist ein kritisches Element für die erfolgreiche Durchführung jeder militärischen Operation in der heutigen Betriebsumgebung. Einige asiatisch-pazifische Staaten modernisieren derzeit ihre diesbezüglichen Fähigkeiten. (BAE-Systeme)

Allgemeine Trends

Laut Dr. Virginia Bacay-Watson, außerordentlicher Professorin des Daniel K. Inouye Asia-Pacific Center for Security Studies, umfasst BMS ein Element in einem breiteren Muster von „Emerging Critical Technologies in the region“. Unter Bezugnahme auf einen am 10. März veröffentlichten Bericht gleichen Namens erklärte Dr. Bacay-Watson, dass eine solche Technologie nach wie vor ein „entscheidendes Element der militärischen Wirksamkeit und des Vorteils, insbesondere im Hinblick auf die asiatisch-pazifische Region … Jahrzehnte erworbene Fähigkeiten, die zuvor unbekannt waren. Gleichzeitig variiert die Verbreitung militärisch kritischer Technologien sowie die Fähigkeit des Militärs, Potenziale auszuschöpfen, in der Region stark. Diese ungleiche Verteilung bestimmt natürlich die Auswirkungen dieser Technologien und Fähigkeiten auf die regionale Sicherheit und Stabilität. Daher ist es wichtig, die relativen Fähigkeiten der regionalen Militärs und die Hindernisse, denen sie möglicherweise ausgesetzt sind, zu bewerten.“

Sprechen mit AMR auf der IQPC Airborne ISR (Intelligence, Surveillance and Reconnaissance) and C2 (Command and Control) Battle Management Conference in London am 23. Februar erklärten Branchenkreise (die aufgrund von Sensibilitäten in Bezug auf Ausschreibungsverfahren in der Region anonym bleiben wollten), wie Angesichts anhaltender fiskalischer Beschränkungen und unvorhersehbarer gegenwärtiger und zukünftiger Einsatzbedingungen müssen Streitkräfte „schnell entscheiden, wo ihre Prioritäten liegen … Zu den wichtigsten Überlegungen gehört die Fähigkeit, potenzielle Bedrohungen schnell zu erkennen und zu analysieren, um Koordinaten und Informationen an wen auch immer zu übermitteln entsprechende Antwort kommt. Kein Wunder also, dass der weltweite Markt für luftgestützte (Aufklärungs-)Systeme wachsen wird“, erläuterte eine Quelle und verdeutlichte, wie solche strategischen, operativen und taktischen Anforderungen durch verbindliche BMS-Technologie verknüpft werden müssen. „Die internationalen ISR-Märkte konzentrieren sich auf die Themen Bandbreite, Kommunikationssicherheit, luftgestützte Vernetzung und Datenverarbeitung, einschließlich der Aussichten auf eine automatisierte Sortierung, die für die Endbenutzer zu einem erschwinglichen Preis erhältlich sein müssen“, fügte die Quelle hinzu.

Malaysias Küstensicherheit wurde durch den Kauf von SPEXER-2000-Küstenüberwachungsradaren von der Airbus-Tochter für Verteidigung und Raumfahrt verbessert. Die von diesen Radaren gesammelten Informationen können in die Verteidigungsentscheidungen des Landes einfließen. (Airbus)

Indien

Marktbeobachter müssen sich nur die wachsenden Fähigkeiten der asiatisch-pazifischen Länder in Bezug auf C2- und Aufklärungstechnologie ansehen, um zu verstehen, wie integral eine solche allumfassende BMS-Lösung sein kann, um mehrere Elemente in einem Gefecht zu nutzen und effektiv zu verwalten. In Indien beispielsweise betreibt die Marine nach der Auslieferung einer letzten Tranche von zwei Flugzeugen im vergangenen Jahr insgesamt acht Boeing P-8I Poseidon Seepatrouillenflugzeuge. Es bleibt eine zusätzliche Option für 16 weitere Flugzeuge. Darüber hinaus hat ein weiteres Dutzend Dornier Do-228-Überwachungsflugzeuge von Hindustan Aeronautics grünes Licht für die Beschaffung beim Indian Defense Acquisition Council erhalten, der die Beschaffung von Verteidigungsgütern überwacht und auch die Genehmigung für die Entwicklung einer AEW der nächsten Generation (Airborne Early Warning)-Flugzeuge, die das Airbus-Flugzeug A330 als Plattform verwenden. Zunächst werden zwei Flugzeuge ausgeliefert, weitere vier Flugzeuge in den nächsten sieben Jahren.

Das BMS-Programm des indischen Verteidigungsministeriums soll die Fähigkeiten der Soldaten des Landes erheblich verbessern und eine bessere Interoperabilität mit US-amerikanischen und anderen Streitkräften ermöglichen. (US-DoD)

Andere wichtige Programme in Indien umfassen die Aufrüstung von drei Berlev A-50 AEW-Flugzeugen mit dem EL/M-2075 Phalcon AEW-Radar von Israel Aerospace Industries, wobei die indische Luftwaffe (IAF) die Beschaffung eines zusätzlichen Flugzeugpaars erwägt . Schließlich wurde diese AEW-Flotte auch durch die Auslieferung des ersten Embraer EMB-145i AEW-Flugzeugs der IAF im Juni 2015 erweitert. Zwei weitere Flugzeuge werden bis Juli 2016 ausgeliefert, teilten Quellen mit AMR.

Solche Verbesserungen machen die Nachfrage nach einem effizienten BMS zu einem wesentlichen Bestandteil des zukünftigen Wachstums der indischen Streitkräfte, insbesondere der Bodentruppen der indischen Armee. Aus diesem Grund verfolgt das Verteidigungsministerium weiterhin seine Forderung nach einer BMS-Lösung der nächsten Generation für die indische Armee, die in der Lage ist, diese boden- und luftgestützten Streitkräfte in breitere C2-Netzwerke der anderen Dienste zu vernetzen. Nach Angaben des indischen Verteidigungsministeriums (MoD) zielt das BMS-Konzept darauf ab, den Streitkräften C2-Technologie zur Verfügung zu stellen, um nach vorn eingesetzte Truppen bis auf Bataillons- und Kampfgruppenebene mit Instrumenten zur Lageerkennung zu unterstützen. Die Bemühungen werden Kommandanten die Integration aller ihnen zur Verfügung stehenden Aufklärungsinstrumente einschließlich unbemannter Luftfahrzeuge (UAVs) ermöglichen, wodurch ein Echtzeit-Gefechtsbild mit roten und blauen Streitkräften sowie die Generierung topografischer Informationen bereitgestellt werden.

Am 20. März stellten zwei konkurrierende Konstruktionsbehörden der indischen Armee ihre BMS-Roadmaps vor, wobei laut Branchenquellen erste Prototypen in den nächsten sechs Monaten an das Verteidigungsministerium geliefert werden sollen. Zu den an dem Programm teilnehmenden Konsortien gehören die Tata Power Strategic Engineering Division (SED) in Partnerschaft mit Larsen und Toubro sowie Bharat Electronics Limited (BEL), die sich mit Rolta India zusammengetan hat. Die Nachricht folgt der Entscheidung des Verteidigungsministeriums vom 25. Februar, beide Gruppen mit der Weiterentwicklung ihrer Lösungen zu beauftragen, bevor die endgültige Auswahl eines bevorzugten Partners getroffen wird. Die Konsortien werden als „Entwicklungsagenturen“ für das BMS-Programm bezeichnet, das, sollte es von der Regierung endgültig grünes Licht erhalten, einen der größten indigenen Fertigungsaufträge umfassen, die von Indien aus ausgeführt werden. Die anfängliche Finanzierung für die Prototypphase wird ungefähr 600 Millionen US-Dollar umfassen, fügten Quellen hinzu.

Das BMS-Programm der indischen Armee bietet eine Leistungssteigerung über das laufende Tactical Communications System (TCS)-Programm hinaus, das darauf ausgelegt ist, die Handheld-, Manpack- und fahrzeugbasierte Kommunikation für abgesessene und berittene Truppen zu verbessern. (Indische Mod)

Auf der Defexpo Homeland Security Systems Exhibition, die vom 28. bis 31. März in Süd-Goa stattfand, wurden Prototyplösungen für das Programm beider Entwicklungsagenturen gezeigt, wobei beide Teams BMS-Systeme zeigten, die bis auf Bataillonsebene in Command Posts (CP) integriert waren. Das indische BMS-Programm erfordert vier Versionen der Lösung, die eine Integration in vier Streitkräfteelemente ermöglichen, darunter: Special Forces, Infantry Battalion, Combat Group (Armour) und Combat Group (mechanisierte Infanterie), so das Verteidigungsministerium. Die Systeme werden über geografische Informationssysteme (GIS), Datenfusion von mehreren Sensorsystemen, robuste Computer und andere Endbenutzergeräte verfügen, die alle ein Software Defined Radio (SDR) umgeben, das je nach Missionsanforderungen mit Soldatenwellenformen aktualisiert werden kann vom Mobile Ad Hoc Network (MANET) bis hin zu Electronic Warfare (EW)-Protokollen.

Das integrierte Projektmanagementteam der indischen Armee wird für das Programm verantwortlich sein, wobei eine andere militärische Quelle auf der Konferenz Airborne ISR und C2 Battle Management anwesend ist und erklärt: AMR wie die Armee und das breitere Verteidigungsministerium weiterhin daran interessiert sind, eine erste Fähigkeit so schnell wie möglich in Dienst zu stellen. Das MoD finanziert bis zu 80 Prozent des Projekts mit zusätzlichen Mitteln aus der Industrie. Die Entscheidung, ein solches BMS zu verfolgen, wurde in den indischen Verteidigungsministerien dargelegt Richtlinie zur Beschaffung von Verteidigungsgütern 2013 Dokument, das den Entwurf, die Entwicklung und die Einführung eines BMS mit drahtloser Konnektivität forderte, das eine Reihe digitaler Systeme auf dem gesamten Schlachtfeld vernetzen kann. Das Verteidigungsministerium hat seinen Wunsch geäußert, das System in den nächsten fünf bis sieben Jahren in der gesamten Armee einzusetzen, um ein „Internet der Dinge“ (in dem mehrere elektronische Systeme miteinander integriert werden) für die Armee zu schaffen.

Nach der Produktion der Prototypen und einem ersten Betriebs- und Evaluierungsprogramm, das mehr als die nächsten drei Jahre dauert, wird die endgültige Auswahl eines bevorzugten Herstellers durch das Verteidigungsministerium getroffen Es wird erwartet, dass etwa 600 Systeme bestätigt werden. Laut Branchenquellen, die mit dem Konsortium verbunden sind, wird Rolta im Rahmen der BMS-Anstrengungen elektronische Subsysteme einschließlich der GIS-Software und Datensysteme entwickeln und integrieren, wobei sich BEL auf die Gesamtsystemintegration, -bereitstellung und -unterstützung konzentriert. „Das Konsortium aus BEL und Rolta ist bestens gerüstet, um die Herausforderung der Entwicklung des Battlefield Management Systems für unsere Streitkräfte anzunehmen. Unser Ziel ist es auch, den einheimischen Inhalt durch die interne Entwicklung verschiedener Subsysteme zu maximieren“, erklärte BEL-Marketingdirektor PC Jain in einer offiziellen Unternehmenserklärung. Seine Gedanken wurden vom Vorsitzenden und Geschäftsführer von Rolta, KK Singh, wiederholt, der beschrieb, wie die Internet Protocol (IP)-Technologie des Unternehmens, die bereits bei verschiedenen Streitkräften der indischen Armee sowie bei Marine, Luftwaffe und Polizei im Einsatz ist in das BMS integriert werden, um das Situationsbewusstsein zu verbessern.

Bei der anderen Entwicklungsagentur wurde Tata Power SED bereits vom Verteidigungsministerium als Teil des Tactical Communications System (TCS) beauftragt, das ein mobiles Daten- und Sprachkommunikationssystem mit hoher Bandbreite für die Armee bereitstellen wird. Jede zukünftige BMS-Technologie, die für die indische Armee produziert wird, wird stark vom TCS der Armee abhängig sein, das weiterhin von Verzögerungen geplagt wird. Nachdem es erstmals im Jahr 2000 konzipiert wurde, muss noch über die künftige Ausrichtung des Programms entschieden werden. Ähnlich wie bei den Bemühungen von BMS führen Konsortien unter der Führung von Bharat und Tata Power SED ihre jeweiligen Angebote. Das TCS hat einen Wert von ungefähr 2 Milliarden US-Dollar und muss noch über eine Prototyping-Phase hinausgehen, obwohl die Hauptanstrengungen des Programms darauf ausgerichtet sind, ein mobiles taktisches Kommunikationssystem bereitzustellen, das das alte taktische Funk-Backbone von Plan AREN ersetzt.

Australien

Unterdessen arbeitet das australische Verteidigungsministerium nach seiner Teilnahme an der Übung TALISMAN SABRE 2015 im Juli weiter an der Feinabstimmung seiner neuesten BMS-Fähigkeiten. Die alle zwei Jahre stattfindende Übung, die darauf abzielte, die Zusammenarbeit zwischen den australischen Streitkräften und dem US-Verteidigungsministerium (DoD) zu verbessern, umfasste den Nutzen der Initiative Project Land 75, die darauf abzielt, der australischen Armee ein BMS Command Support System (BCSS) und ein vernetztes BMS bereitzustellen Systeme. Bei der Übung wurden US-amerikanische und australische Streitkräfte in der Planung und Durchführung von Operationen der Combined Task Force geschult, um die Kampfbereitschaft und Interoperabilität zu verbessern, erklärte ein Sprecher des Verteidigungsministeriums AMR. Die Übung stellt die erste große multinationale Übung dar, die von australischen Streitkräften mit der Technologie von Project Land 75 durchgeführt wurde, wobei die beteiligten Verteidigungsquellen erklären, wie Einheiten Systeme optimieren, um Taktiken, Techniken und Verfahren bis auf die untersten taktischen Ebenen anzupassen. „Unter Verwendung von Kommunikationsträgern, die im Rahmen des Projekts JP 2072 [Battle space Communications Systems (LAND)] bereitgestellt werden, ermöglichen die BMS-Systeme die Übertragung, Verarbeitung und Verwaltung von Informationen auf taktischer Ebene, die für die Führung und Kontrolle von Landoperationen erforderlich sind“, erklärten australische Verteidigungsbeamte.

Das australische Projekt Land 200 rüstet mehrere taktische Fahrzeuge der australischen Streitkräfte aus, darunter das Thales Australia Bushmaster Protected Mobility Vehicle (PMV). Diese Fahrzeuge werden mit den neuen C2-Fähigkeiten verbunden, die vom australischen Militär erworben werden. (Australisches Verteidigungsministerium)

Im März 2010 gewann Elbit Systems die Phase 3.4 des Project Land 75-Programms, bestehend aus montierten und demontierten BMS mit insgesamt mehr als 3000 Systemen, die bisher an Einheiten der 1., 3. und 7. Brigaden geliefert wurden. Seitdem wurden Systeme an Bord von Armeefahrzeugen integriert, wobei auch daran gearbeitet wird, die Technologie an Bord von amphibischen Angriffsschiffen der Royal Australian Navy, Airbus Helicopters EC-665ARH-Kanonenschiffen des Australian Army Air Corps und Supacat Special Forces Vehicles-Commando-Plattformen zu integrieren.

Beim ersten multinationalen Einsatz der BMS während der Übung wurde Situationsbewusstsein und C2 für bis zu 30000 an der Übung teilnehmenden Personals bereitgestellt, die amphibische Landungen, Fallschirmoperationen, Landwaffenmanöver, militärische Operationen in urbanem Gelände, Luftoperationen, maritime Missions- und Live-Feuerserien über Luft, Land und Meer. Die Übung fand in der Shoalwater Bay Training Area in der Nähe von Rockhampton, Queensland, statt. Das BMS umfasst das zentrale Rückgrat der Battle Group Project Land 75 und das Below Command, Control and Communications System, das ein Track-Management-System für die Verbreitung von Daten zwischen Benutzern in variablen Nachrichtenformaten über Luft-, Land- und Seeressourcen umfasst. Die Fähigkeit bietet auch Informationen auf strategischer Ebene bei Geheimklassifizierung und darunter. ADF-Quellen erklärt zu AMR wie die Übung TALISMAN SABRE es den australischen Streitkräften ermöglichte, Operationen zu planen, zu überwachen, zu kontrollieren und zu überprüfen.

Nach der Übung hat sich die Technologie nun als BMS-Entwicklungspfad für die australischen Streitkräfte im Einklang mit zunehmenden Aufklärungskapazitäten erwiesen, einschließlich der Integration von zunächst acht P-8A Poseidon-Flugzeugen, die zwischen 2017 und 2021 ausgeliefert werden sollen, und Northrop Grumman MQ -4C Triton UAVs für die Royal Australian Air Force (RAAF), die beide Boden- und Seestreitkräfte unterstützen werden.

An anderen Orten im asiatisch-pazifischen Raum hat das russische Verteidigungsministerium seinen ersten Ilyushin II-80 Maxdome Airborne Command Post mit Lieferungen Ende 2015 erhalten. Die Fähigkeit umfasst eine Upgrade-Variante des Flugzeugs der United Instrument Manufacturing Corporation (UIMC) nach einer ersten Betriebs- und Bewertungstest Anfang 2015, so UIMC-Beamte. Das System umfasst ein luftgestütztes strategisches BMS für die breiteren Streitkräfte mit dem neuesten Upgrade, das eine Reihe von Verbesserungen basierend auf Größe, Gewicht und Leistung, Interoperabilität und Zuverlässigkeit aufweist. Die Verbesserungen konzentrieren sich auf die Integration einer Zveno-2 C2-Suite, weitere Details wurden jedoch nicht bekannt gegeben. Branchenquellen erklärt zu AMR wie die Suite ein Kontrollelement für Luft-, Boden- und Seestreitkräfte sowie Russlands nukleare abschreckende strategische Raketentruppe darstellen könnte. Darüber hinaus deuteten Quellen darauf hin, dass das Unternehmen auch dabei war, eine aktualisierte Zveno-3 BMS-Missionssuite zu entwickeln.

Das russische Verteidigungsministerium hat kürzlich seine erste luftgestützte Kommando- und Kontrollplattform Il-80 Maxdome übernommen. Die Lieferung markiert einen wichtigen Punkt bei der Modernisierung der russischen C2-Luftfahrzeuge. (Ilyushin)

Fazit

Da Operationen im asiatisch-pazifischen Raum nicht nur von Mitgliedsstaaten, sondern auch von externen Parteien wie den USA immer stärker in den Vordergrund gerückt werden, wird die Bedeutung von BMS weiter zunehmen, da die Streitkräfte versuchen, eine immer breitere Vielfalt von Technologien zu einem gemeinsamen zu verbinden Anstrengung. Der Reifegrad wird jedoch stark vom Technologiestand der zugehörigen Systeme abhängen, seien es taktische Funkgeräte, luftgestützte Überwachungsplattformen und Kampferkennung.


Kansas State University

Dewitt Latimer von Notre Dame wird diese Woche ein Vorstellungsgespräch für die Position des Chief Information Officer und Vice Provost for Information Technology Services führen. Das offene Forum ist 2.30. Donnerstag, 1. April im Ballsaal K des K-Landes Studentenwerks. Hintergrundinformationen und Zeitplan des Kandidaten finden Sie unter www.k-state.edu/provost/searches/cio/interviews.html. Alle K-Stater sind dazu eingeladen.

Zur Erinnerung: Internet Explorer 8 Update wird am 1. April erscheinen

Instanzen von Internet Explorer 6 (IE6) und IE7 werden am 1. April auf IE8 aktualisiert. Für Campus-Computer, die die zentralen Windows Server Update Services (WSUS) von K-State verwenden, wird dieses Update automatisch übertragen. Systemadministratoren, die ihre eigene WSUS-Umgebung verwalten oder auf andere Weise Anwendungsupdates auf Windows-Computern verwalten, werden dringend aufgefordert, dasselbe zu tun.

IE8 bietet verbesserte Sicherheit, die es zusätzlich zu anderen Funktionen zu einem sichereren Browser macht. Hinweis: IE8 sieht anders aus als IE6 und IE7 und ist gewöhnungsbedürftig. Weiterlesen “Erinnerung: Internet Explorer 8 Update tritt am 1. April auf”&rarr

IT-Schulungskalender April online

Der IT-Schulungskalender von iTAC für April ist jetzt online. Alle Kurse sind für K-State-Fakultäten, Mitarbeiter und Doktoranden kostenlos, erfordern jedoch eine Voranmeldung. Details und Voraussetzungen finden Sie auf der Registrierungsseite. Zu den kommenden Kursen gehören:

  • Einführung in HTML
  • Einführung in Dreamweaver
  • Einführung in Cascading Style Sheets (CSS)
  • Arbeiten mit CSS in Dreamweaver
  • Zwischendokumentfunktionen in Word 2007
  • Umstellung auf Excel 2007
  • Einführung in Excel 2007
  • Umstellung auf Word 2007
  • Grundlegende Dokumentfunktionen in Word 2007

4-minütiges Video zeigt ETDR-Website und Ressourcen

  • Anforderungen an die Graduate School, einschließlich Schriftarten und Formatierung
  • Word-Dokumentvorlagen, die die Anforderungen der Graduate School erfüllen
  • Checkliste für die ETDR-Einreichung
  • “Verwenden von Word”-Onlinedokumentation mit Word-Einstellungen, Navigationstipps, Stilen und mehr

"Twitter Tools" TechBytes auf den 1. April verschoben

Eric Dover präsentiert „Twitter-Tools” um 13:30 Uhr Donnerstag, 1. April in der Bibliothek 501 Hale. (Anmerkung des Herausgebers: Diese Sitzung wurde auf den 4. März verschoben.) Diese Sitzung behandelt die mögliche Verwendung von Twitter und coolen Tools wie TweetDeck, um Tweets zu organisieren und zu senden. Bringen Sie Ihre eigenen Twitter-Erfahrungen mit, da wir auch eine offene Diskussion über Twitter und die Nutzung durch andere führen werden.

Tanzen im K-State TV beginnt am 2. April

Keine Kate, Pam oder Jake, aber Sie können unseren eigenen K-State-Promis zusehen, wie sie ihre besten Moves ausführen, um die Spiegelkugel-Trophäe bei den UPC’s “Dancing with the K-State Stars” zu gewinnen. Der Wettbewerb findet am 30. März im McCain Auditorium statt und die Wildcat Watch-Crew von K-State TV wird vor Ort sein, um den ganzen Spaß aufzuzeichnen. Sie können die Veranstaltung ab 20 Uhr im K-State TV in voller Länge sehen. 2. April und während der folgenden Woche während des regulären Wildcat Watch-Zeitfensters. Informationen zu Datum und Uhrzeit finden Sie auf der Website von K-State TV (www.k-state.tv).

März-Ausgabe des Axio Quarterly (K-State Online-Newsletter) jetzt erhältlich

Die erste Ausgabe des Jahres 2010 ist ab sofort auf der Axio Learning Website verfügbar. In dieser Ausgabe finden Sie Artikel über die soziale Zusammenarbeit mit Axio, die Verbesserung der Schülerbindung und die Verwendung von Axio zur Strukturierung eines virtuellen Teamworkflows.

Axio Learning im Office of Mediated Education erstellt diesen Newsletter für K-State Online-Benutzer und andere Axio-Mitglieder.

Greenscreen (Teil 2): ​​Standbilder bearbeiten

(Anmerkung der Redaktion: Dies ist der zweite in einer Reihe auf dem neuen grünen Bildschirm des Medienentwicklungszentrums, der für K-State-Studenten, Dozenten und Mitarbeiter zur Verwendung auf Standbildern und Videos zur Verfügung steht.)

In diesem Abschnitt wird erläutert, wie Sie Standbilder bearbeiten, um den Hintergrund für die Greenscreen-Effekte zu ändern.

Öffnen Sie zunächst Adobe Photoshop. Öffnen Sie das jeweilige Bild, das Sie ändern möchten. (Anthony Cobb modelliert im Bild unten.) Weiterlesen “Green Screen (Teil 2): ​​Standbilder bearbeiten” &rarr

IDT Roundtable 25. März: " &Ein Gefühl dafür, wo wir sind: Geographic Information Science and Systems"

Von Garmins bis Google Earth sind wir immer stärker vernetzt, um unseren Weg zu finden und unsere Erde zu verstehen. Das Herzstück dieser coolen Tools sind Geographic Information Science and Systems (GIScience, GIS, GPS…). Um mit diesen räumlich-zeitlichen Tools und Datensätzen Ihren Weg zu oder zu Ihrem nächsten Schritt zu finden, erkunden Sie die K-State-Experten und das K-State GIScience Commons-Team.


Geografische Funktion

Gallengangskrebs tritt häufig im Mekong-Flussbecken auf, also im Nordosten Thailands, wo Fisch die Hauptproteinquelle ist. Die Dorfbewohner konsumieren normalerweise ungekochten Cyprinidenfisch, der mit dem infektiösen Stadium des Leberegels infiziert ist. Der Nordosten Thailands hat ein trockenes Savannenklima, aber während der Regenzeit überschwemmen Überschwemmungen den Fluss und die Feuchtgebiete. Die Dorfbewohner verwenden verschiedene Methoden, um Fische zu fangen, und sie essen den Fisch aus dem Feuchtgebiet gerne ungekocht.

8p chauchaungayxua2 04-01-2020 />9 />0 />Download

Geografische Angaben

Diese Veröffentlichung bietet eine Einführung in geografische Angaben (GIs) und erläutert deren grundlegende Merkmale, Verwendung und Schutz als Recht des geistigen Eigentums. Für Nicht-Experten geschrieben, ist es ein Ausgangspunkt für Leser, die mehr über das Thema erfahren möchten.

44p mokahd 27-04-2013 />65 />26 />Download

Morphometrische Analyse eines Einzugsgebietes mittels Fernerkundungs- und Geoinformationssystem (GIS)

Die morphometrische Analyse ist bei jeder hydrologischen Untersuchung wichtig und bei der Entwicklung und Bewirtschaftung von Einzugsgebieten unvermeidlich. Geographische Informationssysteme und Bildverarbeitungstechniken können zur Identifizierung morphologischer Merkmale und zur Analyse der Eigenschaften des Beckens verwendet werden. Die morphometrischen Parameter des Beckens können lineare, flächige und Reliefaspekte adressieren.

10p angicungduoc6 22-07-2020 />1 />0 />Herunterladen

Unsere Welt modellieren

Alle geografischen Informationssysteme (GIS) werden mit formalen Modellen aufgebaut, die beschreiben, wie sich Dinge im Raum befinden. Ein formales Modell ist ein abstraktes und wohldefiniertes System von Konzepten. Es definiert das Vokabular, das wir verwenden können, um Dinge zu beschreiben und zu argumentieren. Ein geografisches Datenmodell definiert das Vokabular zum Beschreiben und Begründen von Dingen, die sich auf der Erde befinden. Geografische Datenmodelle dienen als Grundlage, auf der alle geografischen Informationssysteme aufgebaut sind. Wir alle kennen ein Modell für geografische Informationen – die Karte.

201p hotmoingay 03-01-2013 />42 />5 />Download

Freistehende Beilagen und gezielte Marketingprodukte 2013

Im Hinblick auf das Marketing-Mix-Konzept (Kotler 1997) ist insbesondere die Etablierung fundierter Preismodelle für digitale Informationen alles andere als einfach (Shapiro und Varian 1999). Erfolgreiche Unternehmen werden diejenigen sein, die die Preisgestaltung als einen Akt der Innovation betrachten (Jonason 2001) und erkennen, dass Gewinnchancen darin liegen, den Preis am wahrgenommenen Wert des Kunden auszurichten (Morris und Morris 1990), anstatt eine fehlerhafte Determinante für den Preis zu verwenden, wie z B. die Anzahl der geografischen Merkmale oder die Größe des vom Benutzer angeforderten geografischen Gebiets.

17p nhacchovina 22-03-2013 />37 />5 />Download

WIRTSCHAFTLICHE KOSTEN VON LUFTVERSCHMUTZUNGSBEZOGENEN GESUNDHEITSAUSWIRKUNGEN: Ein Folgenabschätzungsprojekt von Österreich, Frankreich und der Schweiz*

Die Probleme der Smogbildung werden durch ein meteorologisches Phänomen verschärft, das als thermische Inversion bekannt ist. Unter normalen atmosphärischen Bedingungen wird warme Luft in der Nähe einer Großstadt von einer kühlen Luftschicht eingeschlossen. Da warme Gase dazu neigen, aufzusteigen, diffundieren sie normalerweise nach oben und verteilen den Smog und andere Schadstoffe. Eine thermische Inversion tritt auf, wenn die obere Schicht eine warme Luftschicht ist, während die verschmutzte Luft in Bodennähe relativ kühl ist. In einer solchen Situation kann die schadstoffbeladene kühle Luft nicht aufsteigen und sich verteilen.

13p tainhacmienphi 19-02-2013 />36 />4 />Download

Verbesserung der Währungskürzung Bank of Japan

Zu den technologischen Optionen, die erprobt wurden, um die Bevölkerung ohne und ohne Bankverbindung hauptsächlich in ländlichen Gebieten zu erreichen, gehören die (mobilen) Satellitenfilialen, die es ermöglichen, finanziell ausgegrenzte geografische Gebiete zu bedienen, in denen Mainstream-Banken es unrentabel fanden, stationäre Infrastrukturen aufzubauen. Sparkassen in Uganda und Simbabwe betreiben mobile Banking-Einheiten, die aus mit Informations- und Kommunikationstechnologie ausgestatteten Lieferwagen bestehen, die zu festen Terminen abgelegene Gemeinden bereisen, um Bankdienstleistungen zu erbringen.

5p machuavo 19-01-2013 />56 />3 />Download

Zu Fuß, Bus oder Auto: Schulweg- und Schulwahlregelung für Kinder

Wir befragen Grundschuleltern in St. Paul und Roseville, Minnesota, um herauszufinden, wie Kinder zur Schule reisen und welche zugrunde liegenden Faktoren die Wahl der Reiseart ihres Kindes durch die Eltern beeinflussen. Aus diesen Informationen entwickeln wir ein statistisches Modell der Verkehrsmittelwahl. Wir stellen fest, dass sich das Pendelverhalten der Kinder und die Einstellung der Eltern zur Schulwahl je nach Schultyp (Magnet versus Nachbarschaft), Einkommen und Rasse unterscheiden.

0p nhacnenzingme 23-03-2013 />35 />3 />Download

Geografische und demografische Reichweite von Banken: Beweise aus dem deutschen Drei-Säulen-Bankensystem

Die biologische Vielfalt (oder kurz Biodiversität) ist eines der faszinierendsten Merkmale des Lebens. Warum gibt es auf der Erde so viele Insekten und so wenige Säugetiere? Warum ist die Biodiversität in den Tropen am reichsten und nicht gleichmäßig über den ganzen Planeten verteilt ( )? Warum haben verschiedene Kontinente unterschiedliche Diversitätsmuster? Fast überall auf der Erde bilden zum Beispiel Plazenta-Säugetiere die enorme Vielfalt der Säugetier-Vielfalt. Auf Australien gibt es jedoch eine riesige Vielfalt an Beutelsäugern.

33p machuavo 19-01-2013 />33 />2 />Download

Schutz der Ausrüstung und Schutz der Arbeiter vor Amputationen

Als Teil unserer ständigen Bemühungen, die Genauigkeit der Daten, die zur Bewertung des ENERGY STAR-Programms verwendet werden, zu verbessern, wollten wir Daten aus einer breiteren Palette von gewerblichen Gebäudetypen und geografischen Regionen erfassen. Auch wenn unsere Stichprobe nicht groß genug ist, um regionale Unterschiede beim Nacht- oder Nachtstrom von Geräten zu unterscheiden, hoffen wir, die Robustheit unserer Daten durch eine größere geografische Vielfalt zu verbessern. Da Bürogeräte nicht auf Büros oder Bürogebäude beschränkt sind, wollten wir auch Daten von anderen erfassen.

78p dacotaikhoan 25-04-2013 />38 />2 />Download

ANALYTISCHER DIGEST DES KAUKASUS

Einige soziale Netzwerke verfügen über zusätzliche Funktionen, z. B. die Möglichkeit, Gruppen mit gemeinsamen Interessen oder Zugehörigkeiten zu erstellen, Live-Videos hochzuladen oder zu streamen und Diskussionen in Foren zu führen. Geosoziale Netzwerke nutzen Internet-Mapping-Dienste, um die Benutzerbeteiligung rund um geografische Merkmale und deren Attribute zu organisieren. Es gibt auch einen Trend zu mehr Interoperabilität zwischen sozialen Netzwerken, angeführt von Technologien wie OpenID und OpenSocial. In letzter Zeit sind mobile soziale Netzwerke populär geworden.

20p thamgiacongdong 02-05-2013 />31 />2 />Download

Thailands ausländische Direktinvestitionen (FDI) in Vietnam

Die Ähnlichkeiten zwischen Thailand und Vietnam zeigen sich in den geografischen Merkmalen der Länder, der Gesellschaft, der kulturellen Nähe, der Wirtschaft und der Bindung zwischen den Bürgern beider Länder. Die diplomatischen Beziehungen zwischen Thailand und Vietnam wurden 1976 aufgenommen und werden immer stärker. 1986 führte Vietnam die „Doi Moi“-Politik zur Reform der sozialistischen Marktwirtschaft ein, die den Weg für wirtschaftliche Beziehungen, die Investitionsgesetzgebung und das Engagement für ausländische Investitionen ebnete.

12p truongtien_08 06-04-2018 />38 />2 />Download

Analyse der Merkmale der wichtigsten Zweige der modernen Geographie

Geographie kann als ein Wissenschaftsgebiet beschrieben werden, das sich mit den physischen Merkmalen der Erde, den Menschen sowie den Beziehungen zwischen Menschen und ihrer Umwelt befasst. Basierend auf dem Sammeln und Analysieren von Materialien aus verschiedenen Quellen analysiert der Artikel die Eigenschaften der wichtigsten Branchen im neuen Trend der Geographie. Darüber hinaus skizzieren wir als Grundlage für die obige Analyse auch die Geschichte der Geographie und stellen die traditionellen und modernen Methoden der geographischen Forschung vor.

10p tieuthi3006 16-03-2018 />23 />0 />Download

Erkennung von Küstenlinienveränderungen: eine Geodatenanalyse in Vung Tau City, Südvietnam

Die Ergebnisse zeigten, dass die Stadt Vung Tau seit 1989 einen massiven Küstenersatz mit schwerer Erosion und allmählicher Akkretion erlebt hat. Die CuaLap-Flussmündung weist die größten Veränderungen aller Zeiten mit mehr als 800 Metern zurückgehender Küstenlinie auf.

9p hulk1234 01-06-2018 />13 />0 />Download

Ein generativer probabilistischer Rahmen zur Analyse regionaler Gemeinschaften in sozialen Netzwerken

Zu verstehen, wie sich Communities im Laufe der Zeit entwickeln, ist aufgrund der breiten Anwendungsmöglichkeiten zu einem heißen Thema im Bereich der Analyse sozialer Netzwerke geworden. In diesem Zusammenhang wurden verschiedene Ansätze eingeführt, um Veränderungen bei den Community-Mitgliedern zu erfassen. Unser Anspruch ist, dass eine Community nicht nur durch die Identität der Nutzer gekennzeichnet ist, sondern auch durch komplexe Merkmale wie die Themen des Interesses sowie die regionalen und geografischen Besonderheiten.

20p vihermes2711 01-10-2019 />8 />0 />Download

Eine Skizze der vietnamesischen Sprache und Kultur aus südostasiatischer Perspektive

Als südostasiatische Nation ist Vietnam dank seines Besitzes der typischsten Merkmale der Sprachen und Kulturen verschiedener südostasiatischer Nationen eine Miniatur der Sprachen und Kulturen der Region. Durch Beschreibung und Vergleich mit einem interdisziplinären Ansatz weist der Beitrag darauf hin, dass Vietnams Sprache und Kultur aufgrund der besonderen geografischen Lage Phänomene enthalten, die die Grenzen sprachlicher und kultureller Besonderheiten zwischen verschiedenen Subregionen Südostasiens widerspiegeln.

16p quenchua1 11-11-2019 />3 />0 />Download

Kartierung der matischen Daten des Kinnerasani-Beckens unter Verwendung von GIS und RS für das Management von Landressourcen

Thematische Karten enthalten Informationen zu räumlichen Variationen in der Verteilung spezifischer geografischer Merkmale auf regionaler Ebene oder über das gesamte Einzugsgebiet. Die räumliche Verteilung thematischer Karten hilft bei der Entscheidungsfindung beim Ressourcenmanagement. Verschiedene thematische Karten, die für das Kinnerasani-Becken erstellt wurden, umfassen Wassereinzugsgebietsgrenzen, Entwässerungsnetze, Hangkarten, Landnutzungs-/Landbedeckungskarten und Bodenkarten mit Hilfe der topografischen Karte von Survey of India und Cartosat DEM. Die LULC-Karte wurde unter Verwendung von IRS P6 LISS III-Satellitendaten entwickelt.

6p nguaconbaynhay6 23-06-2020 />5 />0 />Herunterladen

Entwicklung räumlicher Denkfähigkeiten im Geographieunterricht für Schüler der 12. Klasse unter Verwendung des Geographieatlas von Vietnam

Räumliche Denkfähigkeiten sind die Brücke zwischen dem Wissen und der Erfahrung der Studierenden mit einem neuen Verständnis der Regionen. Basierend auf früheren Studien zu räumlichen Denkfähigkeiten bietet dieser Artikel einige Fähigkeiten, die für den Geographie-Lehrplan der 12. Klasse relevant sind und mit dem Geographie-Atlas von Vietnam entwickelt werden können. Sie sind: Geographische Merkmale auf den Karten analysieren und synthetisieren, räumliche Beziehungen von geographischen Objekten herstellen, geographische Objekte vergleichen, Argumentation und Erklärung der raumbezogenen Probleme.

7p nguathienthan6 06-07-2020 />5 />0 />Download

Ätiologie und Merkmale von Patienten mit Bronchiektasen in Taiwan: Eine Kohortenstudie von 2002 bis 2016

Bronchiektasen sind eine chronische infektiöse Atemwegserkrankung mit unterschiedlichen Ursachen und ethnischen oder geografischen Unterschieden. In Asien wurden jedoch nur wenige groß angelegte Studien zu seiner Ätiologie durchgeführt. Diese Studie zielte darauf ab, die Ätiologie und die klinischen Merkmale der Bronchiektasen in Taiwan zu bestimmen.

11p vimaine2711 26-03-2021 />2 />0 />Herunterladen

Geographische Variation in der Ätiologie, Epidemiologie und Mikrobiologie der Bronchiektasen

Bronchiektasen sind eine Erkrankung, die mit einer chronisch fortschreitenden und irreversiblen Erweiterung der Bronchien einhergeht und durch eine chronische Infektion und damit verbundene Entzündung gekennzeichnet ist. Die Prävalenz der Bronchiektasen ist altersabhängig und es gibt einige geografische Unterschiede in Bezug auf Inzidenz, Prävalenz und klinische Merkmale.


Abstrakt

Die Verwendung von funktionellen Merkmalen (FTs) kann quantitative Informationen liefern, um die Makrophytenökologie effektiver zu erklären als traditionelle taxonomische Methoden. Diese Forschung zielt darauf ab, die merkmalsbasierten Ansätze aufzuklären, die in neueren Makrophytenstudien verwendet wurden, um ihre Anwendungen, Mängel und zukünftigen Herausforderungen zu skizzieren. Eine systematische Literaturrecherche mit Fokus auf Makrophyten und FTs wurde in der Scopus-Datenbank durchgeführt (letzter Zugriff im Mai 2020). Die letzten 520 Veröffentlichungen von 2010 bis 2020, die 70 % der gesamten ausgewählten Literatur seit 1969 darstellen, wurden sorgfältig gesichtet. Überprüfte Studien untersuchten hauptsächlich: 1) die Rolle von FTs bei der Gestaltung von Gemeinschaften 2) die Reaktionen von Makrophyten auf Umweltgradienten 3) die Anwendung von FTs bei der Überwachung des anthropogenen Drucks und 4) die Gründe für den Erfolg invasiver Arten. Die untersuchten Gebiete konzentrierten sich auf Europa (41 %) und Asien (32 %), mit Blick auf andere wichtige Biodiversitäts-Hotspots, und nur 6,2 % der weltweiten Makrophytenarten wurden in speziellen Einzelartenstudien untersucht. Zu den am häufigsten verwendeten FTs gehören blattökonomische und morphologische Merkmale, und wir stellten einen Mangel an Aufmerksamkeit für Wurzelmerkmale und im Allgemeinen für räumliche Merkmalsmuster sowie ein relativ schlechtes Verständnis dafür fest, wie FTs biotische Interaktionen vermitteln. Hochdurchsatztechniken, wie die Fernerkundung, ermöglichen es, die Variabilität ausgewählter Merkmale innerhalb und zwischen Systemen feinskalig abzubilden und helfen dabei, die vielfältigen Verbindungen von FTs mit ökologischen Faktoren und Prozessen aufzuklären. Wir empfehlen, Untersuchungen zu Wurzelmerkmalen zu fördern und die Integration mehrerer Ansätze voranzutreiben, um die Rolle von Makrophyten auf mehreren Skalen besser zu klären.


Hydrografische Adressierung Konzeptmodell und Inventar der Tools

Um einen Bestand an existierenden Werkzeugen und Verfahren zur hydrographischen Adressierung adäquat zu beschreiben, ist ein gemeinsames konzeptionelles Modell für die hydrographische Adressierung erforderlich. Ein solches gemeinsames konzeptionelles Modell wird auch als Grundlage für die Entwurfsarbeit und die Dokumentation aller Aktivitäten der Arbeitsgruppe nützlich sein. Es gibt Datenschemata aus dem NHD und anderen hydrographischen Schemata und Standarddatenmodelle wie HY_Features, ISO 19148 (lineare Referenzierung) etc.

Bedingungen

Diese Begriffe müssen Sie kennen, um die Grundlagen hydrographisch adressierter Informationen zu verstehen.

Hydrographisches Merkmal: Geografisches Merkmal, das eine hydrologische Einheit darstellt.

Hydrographisches Netzwerk: Verbundenes System hydrographischer Merkmale.

Flussadresse: Standort identifiziert durch Bezugnahme auf die Identität eines Flusses und die Position entlang des Flusses.

Netzwerkstandort: Im Allgemeinen gleichbedeutend mit Flussadresse, wird jedoch in einem technischeren Kontext verwendet, um sich auf das hydrographische Netz (von Flüssen) zu beziehen.

Gemeinsame Hydrographie: Eine geographische Darstellung der Hydrologie, die gut bekannt ist und für die Integration zwischen mehr als einer Organisation verwendet wird.

Wasserscheide-Auslass: Ein Ort in der Landschaft, an dem aus irgendeinem Grund eine beitragende Wasserscheide identifiziert wurde.

Einzugsgebietskennung: Ein Identifikator für eine etablierte Einheit der Hydrologie (NHDPlusV2 Einzugsgebiet oder andere hydrologische Einheit) aus einer gemeinsamen Hydrographie.

Identifiziertes [hydrografisches] Merkmal: Das hydrografische Merkmal, auf das in einer hydrografischen Adresse verwiesen wird.

Standortfunktion: Der Standort, der auf ein hydrographisches Merkmal in einer hydrographischen Adresse verweist.

Warum adressieren wir Daten an die Hydrographie?

Hydrografische Adressen bieten Unternehmen die Möglichkeit, hydrorelevante Informationen zu integrieren, zu katalogisieren und zu entdecken. Durch Bezugnahme auf die gemeinsame Hydrographie kann der organisationsübergreifende Informationsaustausch mit präziser Netzwerkposition erreicht werden. Dieser Kontext ist entscheidend für jede Modellierungs- oder Analyseanwendung, bei der die Hydrologie ein Faktor ist.

Integration unterschiedlicher oder unterschiedlicher Daten mit gemeinsamer Hydrographie.

Organisationsübergreifende Entdeckung von wasserkraftbezogenen Informationen.

Modellierung und Analyse von adressierten Wassereinzugsgebieten.

Präzise relative Position des hydrographischen Netzwerks.

Was ist eine hydrographische Adresse?

Ein identifizierter Standort auf einem hydrografischen Merkmal.

Eine Position in einem hydrographischen Netzwerk.

Eine Verbindung zwischen Hydrographie und einem anderen Datensatz.

Genauer gesagt ist eine hydrographische Adresse ein Standortausdruck, der eine Assoziation mit einem identifizierten hydrographischen Merkmal anstelle von Geokoordinaten verwendet. Wie bei einer Straßenadresse besteht eine hydrografische Adresse sowohl aus einer Merkmalskennung als auch aus einer Angabe der Position entlang des Merkmals - zum Beispiel '470 Hauptstr.' ist eine Adresse, die das 'Hauptstraße' Merkmalskennung und die Positionsanzeige ist '470'. Eine hydrographische Adresse ist immer ein Attribut eines lokalisierten Merkmals, das eine geografische Darstellung unabhängig von dem in einer Adresse referenzierten hydrografischen Merkmal aufweist - zum Beispiel das Haus in '470 Hauptstr.' hat eine geographische Darstellung, die unabhängig von 'Hauptstraße 'selbst. Mit anderen Worten, eine hydrografische Adresse ist eine Verknüpfung zwischen einem lokalisierten Merkmal in einem Datensatz und einem hydrografischen Merkmal in einem anderen Datensatz.

Im linearen Referenzierungssystem NHD Reachcode / Measure ist eine hydrographische Adresse eine lineare Position entlang eines Flusses, kann aber auch eine Verbindung zu einem bestimmten Einzugsgebiet sein.

Lineare Referenzen sind allgemein bekannt als 'Veranstaltungen', Terminologie, die angeblich in Notfallmaßnahmen und Vorfällen entlang von Straßen verwurzelt ist, und ist der Ansatz, der im NHD verwendet wird. Eine lineare Referenz kann eine hochpräzise (1d) Punktposition auf einer linearen Darstellung eines Flusses liefern. Die Genauigkeit der linearen Referenzierung ist zwar nützlich, bedeutet jedoch, dass automatisierte Adressierungsmethoden häufig anomale Adressen erzeugen, die eine manuelle Überprüfung erfordern. Lineare Referenzen müssen neu berechnet und möglicherweise erneut überprüft werden, wenn die referenzierte Hydrographie nicht dauerhaft ist.

Die Indexierung von Einzugsgebieten wird häufig mit NHDPlus verwendet, um Landschaftsmerkmale und viele andere Arten von Daten auf das Einzugsgebietsnetz zu beziehen. Verweise auf Hydrologic Unit Codes aus dem Watershed Boundary Dataset fallen ebenfalls in diese Klasse von hydrographischen Adressen. Bei der Indexierung von Einzugsgebieten werden Informationen nicht unbedingt einem bestimmten Fluss zugeordnet. Ob sich ein lokalisiertes Feature auf dem Fließpfad eines Einzugsgebiets befindet oder nicht, kann normalerweise abgeleitet werden oder kann explizit in einen Einzugsgebietsindex aufgenommen werden. Diese kann man sich ähnlich wie Bundesstaaten, Landkreise, Postleitzahlen usw. vorstellen. Die Genauigkeit eines Einzugsgebietsindex ist geringer als bei einer linearen Referenz, erfordert jedoch bei Verwendung automatisierter Adressierungsmethoden viel weniger manuelle Überprüfung. Wie bei der linearen Referenzierung müssen Adressen neu berechnet werden, wenn referenzierte Einzugsgebiete nicht persistent sind.

Teile des hydrografischen Adressdatenmodells - zum Vergrößern anklicken

Welche Informationen sind in einer hydrographischen Adresse enthalten?

Hydrographisches Merkmal: Ein Fluss oder ein Einzugsgebiet.

Position entlang des identifizierten Merkmals: Im Allgemeinen in Prozent entlang einer bestimmten Flussreichweite, kann aber auch die Entfernung von einem bekannten Standort sein.

Standortfunktion: Ein vom hydrographischen Merkmal unabhängiges Merkmal (kann ein anderes hydrographisches Merkmal sein).

Datum oder Version: Wichtig für den Fall, dass das hydrographische Merkmal nicht dauerhaft ist.

Werkzeuginventar

Eine Bestandsaufnahme bestehender hydrografischer Adressierungstools ist erforderlich, um der NHI-Stakeholder-Gemeinschaft ein Verständnis davon zu vermitteln, welche Tools zur Erfüllung bestimmter Bedürfnisse verfügbar sind. Als ein Satz zusammenhängender hydrographischer und verwandter Daten ist die Nationale Hydrographie-Infrastruktur stark auf Daten angewiesen, auf die über die hydrographische Adresse verwiesen wird. Die Erstellung verlinkter Inhalte ist ein mühsamer und technisch nuancierter Prozess ohne Werkzeuge, die für einen bestimmten Bedarf konzipiert und implementiert werden. Das Problem der Beschreibung von hydrografischen Adressierungswerkzeugen sollte sich auf die Vielfalt der Anwendungsfälle konzentrieren und sich dabei auf die gemeinsame Sprache und Konzepte verlassen, die im kürzlich fertiggestellten konzeptionellen Modell beschrieben sind. Die Bestandsaufnahme muss nicht erschöpfend sein, sollte aber die Mehrzahl der verfügbaren Werkzeuge abdecken, die die Arbeitsgruppe Hydrographic Addressing für die Gemeinschaft als nützlich erachtet.

Übersicht der hydrografischen Adressierungstools

Das Folgende bietet einen Überblick über hydrographische Adressierungstools, die von US-amerikanischen Hydrologen in der Geoinformatik allgemein verwendet werden. Die Werkzeuge sind kategorisiert nach:

  • Benutzer: charakterisiert die Zielgruppe des Tools
  • Gemeinsame Hydrographie: beschreibt, mit welchen (wenn überhaupt) etablierten hydrographischen Daten das Tool arbeiten soll
  • Hydrografischer Adressierungstyp: beschreibt die Art der hydrografischen Adresse, die das Tool generiert
  • Verarbeitungsansatz: beschreibt, wie das Tool im Kontext eines umfassenderen Workflows funktioniert
  • Adressierungsmethode: beschreibt die Methode, die das Tool verwendet, um hydrographische Adressen zu erstellen

Diese Kategorien sollen sowohl einen Leitfaden für die Auswahl des besten verfügbaren Tools für ein bestimmtes Projekt als auch eine allgemeine Perspektive auf die verfügbaren Tools und auf Lücken bei den hydrografischen Adressierungstools bieten.

Während dieses Verzeichnis einzelne Werkzeuge auflistet, ist es wichtig anzuerkennen, dass eine liberale Definition von "Werkzeug" verwendet wurde, um diese in einer Liste zusammenzufassen. Einige dieser Tools sind Softwarebibliotheken, die in Workflows zusammengestellt oder als Abhängigkeiten in anderer Software verwendet werden können, während andere eigenständige Anwendungen sind, die Softwarebibliotheken verwenden, um vereinfachte Funktionen bereitzustellen. Die Kategorie "Verarbeitungsansatz" ist für diese Unterscheidung am stärksten bezeichnend.

Produkt Benutzer Gemeinsame Hydrographie Hydrografischer Adresstyp Verarbeitungsansatz Adressierungsmethode
Tool für den Einzugsindizierungsprozess 5,7 1 3 2,3 7 (Räumliche Überlagerung, die von VAAs weiter informiert wird)
EPA Waters-Webdienste 5,6,7 1 2 3 1, 2?, 5, 6
ESRI Tools für die lineare Referenzierung 1,2 N / A 2 2,3 -
ESRI Spatial Join-Tool 1,2 N / A 2 2,3 -
HydroAdd 4 2 2 1,2 -
Hydrographisches Eventmanagement 1? 2 2 1,2 -
Hydrolink Python-Paket 5,7 1,2 2 3 1,2, (3 mögliche Entwickler) Formschöne Projektmethode. (Verknüpfung)
HydroLink-Webanwendung 4 1,2 2 1 5?, EPA Waters Web Services, HEM Server Objekterweiterungen
Hydrolinks R-Paket 6 N / A 1 3 1
Hydrologic Event Management Server Objekterweiterungen 5,6,7 2 2 3 -
nhdplusTools R-Paket 6 1,2, N/A 1,2 3 1
Benutzertyp Gemeinsame Hydrographie Hydrografische Adresstypen Verarbeitungsansatz Adressierungsmethode
1) ESRI ArcMap-Benutzer
2) ESRI ArcGIS Pro-Benutzer
3) QGIS-Benutzer
4) Science Data Creator - kein GIS-Hintergrund
5) Benutzer des Python-Geodatenpakets
6) R Geodatenpaket-Benutzer R
7) Anwendungsentwickler
1) NHDPlusV2
2) NHD-HR
3) NA: konfigurierbar für beliebige Hydrographie-Datensätze
1) Merkmalszuordnung
2) Lineare Referenz
3) Einzugsindex
1) Adressierung einzelner lokalisierter Funktionen in der Web- oder Desktop-Benutzeroberfläche
2) "Batch"-Indizierung und QA/QC in der Web- oder Desktop-Benutzeroberfläche
3) Reproduzierbare skriptbasierte Datenaufbereitung und Überprüfung
1) Räumliche Nähe zum nächsten Knoten.
2) Räumliche Nähe mit Interpolation zwischen Knoten.
3) Name (Route) übereinstimmend
4) Abgleich der hydrologischen Attribute (z. B. Einzugsgebiet)
5) Downstream-Trace mit DEM
6) Benutzerdefiniert durch visuelle Bestätigung (z. B. Luftbilder)
7) Räumliche Überlagerung (Einzugsgebiet)

Tool-Zusammenfassungen

Hydrography Event Management (HEM) Tools sind eine Reihe von gemeinsam genutzten Komponenten, die die Erstellung, Verwaltung und Aktualisierung von Ereignisdaten ermöglichen, die auf das NHD HR verweisen. Das HEM-Tool ermöglicht die Indizierung auf jedes erreichte Merkmal der NHD–NHDFlowlines (durch lineare Referenzierung), NHDWaterbody (durch ReachCode) und NHDPoint (durch ReachCode).

  • um Metadaten auf Funktionsebene zu verwalten, um den Bearbeitungsverlauf von Ereignissen zu verfolgen
  • um die Ereignissynchronisierung zu nutzen, wenn Benutzer ihren NHD HR mit einem neueren Snapshot aktualisieren
  • Zugriff auf eine Reihe nützlicher Tools wie Batch-Import und QC, Erstellen von Linienereignissen aus Spuren, Messen der linearen Distanz und Erstellen von Ereignissen aus Netzwerk-Flags.

HydroAdd (noch kein Link)

Unveröffentlicht. Webbasiertes Adressierungstool. Der Benutzer muss einen Service-Layer von AGOL oder einer anderen Quelle im HydroAdd-Schema freigeben. Ermöglicht die Adressierung von Punkt-, Linien- und Polygon-Features an erreichte Features in NHD HR und letztendlich an Einzugsgebiete und HUs des NHDPlus HR. Einfache warteschlangenbasierte Benutzeroberfläche. Warteschlange führt Benutzer zu nicht genehmigten Funktionen. Die Batch-QC basiert auf der Nähe zum erreichten Feature und den vorhandenen Reachcodes der adressierten Features. Als zukünftige Verbesserung der QC könnten die Ergebnisse nach GNIS-Name und Entfernung zum Zusammenfluss gewichtet werden.

ESRI Tools für die lineare Referenzierung - Dokumentation zur Arbeit mit ESRI

ESRI Spatial Join-Tool - Dokumentation zur Arbeit mit ESRI

Das HydroLink Tool hilft bei der Generierung einer linearen Referenz für Punktdaten zu Fließlinien innerhalb der NHDPlusV2.1-Datensätze mit mittlerer Auflösung und NHD-hoher Auflösung. Das Tool nutzt das lokale, feldbasierte Wissen eines Forschers über die beprobten Standorte, um sowohl die räumliche Genauigkeit der Forschungsdaten zu verbessern als auch die Verknüpfung mit diesen nationalen Oberflächenwasserdatensätzen zu unterstützen. Nachdem der Benutzer seine Daten aus einer CSV- oder Shapefile-Datei hochgeladen hat, verarbeitet das Werkzeug alle Daten und die Verarbeitung mithilfe von Web-Services, die nur minimale raumbezogene Kenntnisse erfordern, jedoch ein ArcGIS Online-Konto erfordern.

HydroLinker ist ein in das HydroLink Python-Paket integriertes Befehlszeilentool, das die Verarbeitung mehrerer Punktpositionen in NHDPlusV2.1 Medium Resolution oder NHD High Resolution unterstützt. Dieses Tool reiht Methoden aus dem HydroLink Python-Paket zusammen, um Punktdaten aus einer CSV-Eingabedatei zu verarbeiten. HydroLinker-Ergebnisse werden in einer CSV-Datei an den Benutzer zurückgegeben. Benutzer benötigen ein grundlegendes Verständnis für die Installation eines Python-Pakets, jedoch keine Kenntnisse über Geodaten.

Ein Open-Source-Python-Paket zur Unterstützung der linearen Referenzierung auf die Datasets NHDPlusV2.1 Medium Resolution und NHD High Resolution. Derzeit unterstützt das Paket die Adressierung von Punktdaten an Gewässer- und Fließlinien-Features unter Verwendung von zwei Methoden der räumlichen Nähe und des Abgleichs von Gewässernamen. Python-Benutzer können Methoden erweitern und dieses Paket in benutzerdefinierte Workflows integrieren. Beinhaltet Methoden zur Berechnung der Fangentfernung, der Ähnlichkeiten der Wassernamen (zwischen vom Benutzer bereitgestellten und GNIS) und der Entfernung zum nächsten Zusammenfluss, sodass der Benutzer jedem HydroLink-Datensatz Vertrauensniveaus zuordnen kann.

Tool für den Einzugsindizierungsprozess

Entwickelt von der EPA als kosteneffiziente Methode, um routinemäßig zustandsbasierte Quellen von Hydrographiedaten zu Überwachungs- und Berichtszwecken in einen gemeinsamen nationalen Rahmen zu integrieren. Es wurde entwickelt, um Punkte, Linien und Polygone auf dem NHDPlus V2-Framework zu verschmelzen, wobei eine anfängliche georäumliche Überlagerung verwendet wird, die mit VAAs (Ebenenpfad, hydrologische Sequenznummer usw.)

Der Output ist eine hydrologisch verbundene Reihe von Einzugsgebieten, die die Inputhydrographie am besten repräsentieren. Durch die Verknüpfung von EPA-Wasserqualitätsinformationen mit Einzugsgebieten können wir Landoberflächenaktivitäten mit entsprechenden Auswirkungen stromabwärts in Verbindung bringen. Das Tool läuft im Batch-Modus und ist in Python mit PostgreSQL geschrieben. Das Tool ist derzeit nicht öffentlich verfügbar, aber es werden Pläne für einen Cloud-basierten Dienst erwogen.


Kurse

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: ANSC 201   , ANSC 210   , ANSC 320   oder ANTH 120, ANTH 230, ANTH 320 oder Erlaubnis des Ausbilders.
Kreuzgelistet: ANSC 420  

Bietet fortgeschrittene praktische Erfahrung und Schulung bei der Identifizierung unbekannter menschlicher Skelettreste. Die Studierenden werden Skelettanalysen durchführen, die sich auf grundlegende statistische Vitalparameter wie Alter, Geschlecht, Rasse und Statur konzentrieren. Zu den weiteren behandelten Themen gehören die Rolle des forensischen Anthropologen bei der Untersuchung von Tatorten und der Bergung von skelettierten menschlichen Überresten, die Bestimmung der Zeit seit dem Tod, Skeletttraumata und -pathologie sowie spezielle Techniken in der forensischen Anthropologie.

FOSC 495 - Seminar in Forensik

Credits: (1-4) Dieses Seminar beleuchtet aktuelle Themen der Forensik. Es bietet eingehende Studien durch fortgeschrittene Lektüre und Vorträge zu aktuellen Themen und Kontroversen in den Forensischen Wissenschaften, was zu einer kritischen Bewertung dieser Themen und zur Erstellung von Best Practice-Richtlinien in der Forensik führt. Kann bei abweichendem Inhalt wiederholt werden.

FOSC 498 - Unabhängige Studie

Credits: (1-6) Voraussetzungen: FOSC 201   Erlaubnis des Ausbilders.
FOSC 498 ist für fortgeschrittene Studierende der Forensik konzipiert, die unter der Aufsicht eines Mentors der Fakultät unabhängige Forschung oder andere wissenschaftliche Studien durchführen möchten.Die Studierenden konzipieren und führen in Absprache mit ihrem Mentor und der Genehmigung durch ihren Lehrstuhlinhaber oder Direktor ein forensisches Forschungsprojekt in Forensic Science durch.

Anmerkungen): Bis zum Abschluss dürfen nicht mehr als sechs Stunden Selbststudium in Anspruch genommen werden. Für das Nebenfach Forensic Science können maximal neun Semesterwochenstunden von FOSC 498 und 499 beantragt werden, weitere Semesterwochenstunden gelten als Wahlfächer an der Universität. Kann mit Genehmigung des Honours-Programms für Ehrungen in Anspruch genommen werden. Kann für die Note Brief oder bestanden/nicht bestanden werden. Vorschläge für eigenständige Studiengänge müssen vom Studienausschuss der Fakultät für Kommunikation vor Ablauf der Frist für die Aufnahme von Lehrveranstaltungen in dem Semester, in dem das Studium durchgeführt werden soll, genehmigt werden.

FOSC 499 - Praktikum in Forensik

Credits: (3-12) Voraussetzungen: FOSC 201  
Bietet fortgeschrittenen Forensikstudenten die Möglichkeit, praktische Arbeitserfahrung in der Forensik zu sammeln, indem sie ein Praktikum in einem Teilzeit- oder Vollzeitberuf der Forensikwissenschaft absolvieren. Mit vorheriger Zustimmung eines Mentors der Fakultät arbeiten die Studierenden in diesem professionellen forensischen Unternehmen oder dieser Organisation unter der Aufsicht des Standortleiters sowie ihres Mentors der Fakultät.

FREN 100 - Grundkenntnisse Französisch

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Eine Einführung in das Französische Erwerb von aktiven Grundkenntnissen der französischen Sprache mit Schwerpunkt auf Hörverstehen, Sprechen, Lesen und Schreiben.

FREN 200 - Mittelstufe Französisch I

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Voraussetzungen: FREN 100   oder zwei Jahre Highschool-Französisch.
Fortsetzung des Studiums der Grundlagen der Sprache und Weiterentwicklung der Sprachkenntnisse.

FREN 210 - Mittelstufe Französisch II

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Voraussetzungen: FREN 200   oder zwei Jahre Highschool-Französisch.
Eine Überprüfung der grundlegenden französischen Grammatik und Übung in Sprechen, Hören, Lesen und Schreiben.

FREN 300 - Lesungen auf Französisch

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Voraussetzungen: FREN 210   oder drei Jahre Highschool-Französisch.
Er widmet sich der Entwicklung von Lese-, Schreib-, mündlichen und akustischen Fähigkeiten.

FREN 320 - Themen im französischen Kino

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: FRANZ 210   .
Überblick über den zeitgenössischen französischen Film und die Geschichte des französischen Kinos von 1930 bis heute, unter Einbeziehung des französischen Films in seinen kulturellen Hintergrund.

FREN 361 - Fortgeschrittene Grammatik und Komposition

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: FREN 300   oder vier Jahre Highschool-Französisch.
Intensives Studium der Grammatik und Komposition.

FREN 362 - Fortgeschrittene Lektüre

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: FREN 300   oder vier Jahre Highschool-Französisch.
Für Schüler, die ihre Lesefähigkeiten in Französisch verbessern möchten. Ein intensiver Lesekurs in Französisch.

FREN 451 - Überblick über die französische Literatur

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: FREN 300   oder vier Jahre Highschool-Französisch.
Ein umfassender Blick auf die französische Literatur durch Analyse ausgewählter französischer Hauptwerke des 19. und 20. Jahrhunderts. Alle Arbeiten in französischer Sprache.

FREN 460 - Sonderthemen

Credits: (3-4) Lehrmethode: Drei oder vier Stunden Vortrag.
Voraussetzungen: FREN 300   und Juniorenstand.
Vertiefung in Themen der Sprache, Literatur oder Kultur. Alle Arbeiten in französischer Sprache.

FREN 470 - Meisterwerke der französischen Literatur

Credits: (3-4) Lehrmethode: Drei oder vier Stunden Vortrag.
Voraussetzungen: FREN 300   .
Eine kritische Untersuchung der Meisterwerke der französischen Literatur nach Genres. Alle Arbeiten in französischer Sprache.

FREN 498 - Unabhängiges Studium

Credits: (1-6) Voraussetzungen: Erlaubnis des Ausbilders.
Design für fortgeschrittene Fremdsprachenstudierende, die eine eigenständige Sprach- und Kulturwissenschaft oder ein anderes wissenschaftliches Studium unter der Leitung eines Fakultätsmentors durchführen möchten Die Studierenden studieren in Absprache mit ihrem Mentor und mit Zustimmung des Lehrstuhls oder des Verzeichnisses. Der Mentor der Studierenden gestaltet die Lehrpläne und Prüfungen für die Sprach- und Kulturwissenschaften. Studierende können ihren Interessen auch für weitere Forschungen nachgehen. Sie können die Forschungsthemen auch gemeinsam mit ihrem Mentor gestalten. Siehe “Unabhängige Studie  .”

Physikalische Studiengänge, bezeichnet (PS), können die Anforderungen für die erforderlichen sechs bis acht zusätzlichen Stunden an wissenschaftlichen Credits für den Bachelor of Science in einigen anderen Studiengängen als Geographie erfüllen. Sozialwissenschaftliche Studiengänge, bezeichnet (SS), erfüllen die Voraussetzungen für den Studiengang Sozialwissenschaften. Kurse in Techniken der Geographie werden mit (T) bezeichnet. Kurse, die sich als US-amerikanischer Geographiekurs für den Studiengang Sozialwissenschaften qualifizieren, sind mit einem Sternchen gekennzeichnet.

GEOG 101 - Europa und Amerika (Weltgeographie)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Empfohlen für Studenten, die sich auf den Unterricht vorbereiten. Umfassender Überblick über die physischen und kulturellen Merkmale Europas, der ehemaligen Sowjetunion, Amerikas und Australiens.

GEOG 102 - Afrika und Asien (Weltgeographie)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Empfohlen für Studenten, die sich auf den Unterricht vorbereiten. Umfassender Überblick über physische Merkmale und Kulturgeschichte von Afrika, Südwest-, Südost-, Süd- und Ostasien.

GEOG 103 - Einführung in die Humangeographie

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Einführung in Konzepte und Methoden zur Untersuchung der menschlichen Modifikation der Erdoberfläche. Betonung von Prozessen, die Unterschiede, Ähnlichkeiten und Veränderungen in kulturellen Mustern durch Raum und Zeit in einem vergleichenden Rahmen fördern.

GEOG 140 - Einführung in die Umweltstudien (SS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Überblick über aktuelle lokale, nationale und internationale Umweltprobleme und die verschiedenen analytischen und politischen Ansätze zur Lösung solcher Probleme.

GEOG 201 - Nordamerika * (SS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Darstellung der integrierten Raumkonstruktion des Kontinents. Studium der physischen und menschlichen Elemente bei der Schaffung der gegenwärtigen Vielfalt des Lebens.

GEOG 202 - Das Commonwealth of Virginia * (SS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Die Untersuchung der physischen und menschlichen Merkmale des Staates konzentriert sich auf vergangene und gegenwärtige menschliche Interpretationen der Potenziale des Landes.

GEOG 203 - Geographie der Appalachen * (SS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Als regionale Geographie der Appalachen untersucht dieser Kurs die räumlichen Interaktionen von Mensch und Umwelt innerhalb der Appalachen in historischen und aktuellen Kontexten.

GEOG 211 - Perspektiven in der Geographie

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Seminar, das die Sichtweisen der Disziplin Geographie untersucht und die Methoden professioneller Geographen bei der Erhebung, Analyse und Präsentation von Geodaten vorstellt. Unterstützt Studierende bei der Gestaltung von Studiengängen, die ihre Interessen und Berufsziele unterstützen.

GEOG 280 - Regionale Geographie (SS)

Credits: (3) Eingehende Untersuchung einer ausgewählten Weltregion außerhalb der USA. Umfasst physische, sozioökonomische, historische und zeitgenössische räumliche Muster. Die abgedeckte Region variiert von Semester zu Semester. Kann mehr als einmal angerechnet werden, wenn sich die Regionen unterscheiden.

GEOG 302 - Wirtschaftsgeographie (SS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Einführung in die Grundsätze der Verteilung der Wirtschaftstätigkeit. Der Schwerpunkt liegt auf der Entwicklung theoretischer Modelle und ihrer praktischen Anwendung. Beinhaltet Verkehrs- und Landnutzungsmodelle, Grundsätze des Industriestandorts, Methoden zur Messung des Standorts und der Streuung der Wirtschaftstätigkeit und der städtischen Lage.

GEOG 305 - Bevölkerungsgeographie (SS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: GEOG 101   , GEOG 102   oder GEOG 103   oder Erlaubnis des Ausbilders.
Untersuchung grundlegender demographischer Prozesse und Erforschung ihrer räumlichen/geographischen Dimensionen.

GEOL 100 - Erdressourcen und Naturgefahren

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor.
Untersucht die Auswirkungen geologischer Prozesse und Gefahren auf menschliche Aktivitäten, die Bewertung menschlicher Auswirkungen auf die natürliche physische Umwelt sowie das geologische Vorkommen, die Verfügbarkeit und die Nutzung von Mineral- und Energieressourcen.

GEOL 105 - Die Erde erkunden

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor.
Entwickelt ein Verständnis der physikalischen Aspekte der Geologie, einschließlich des Studiums der Materialien, Prozesse und Struktur der Erde.

GEOL 106 - Die Erde im Wandel der Zeit

Credits: (4) Lehrmethode: Zweistündiger Vortrag Sechs Stunden Labor.
Voraussetzungen: GEOL 105   .
Untersucht die historischen Aspekte der Geologie, einschließlich der Geschichte der physischen Ereignisse und des Lebens während der Evolution des Planeten. GEOL 106 wird die Laborwissenschaftsanforderung des College Core B erfüllen. – Physikalische und Naturwissenschaften.

GEOL 310 - Mineralogie

Credits: (4) Lehrmethode: Zwei Stunden Vorlesung sechs Stunden Labor.
Voraussetzungen: GEOL 105   .
Voraussetzungen: CHEM 101   oder Erlaubnis des Ausbilders.
Führt die Schüler in Konzepte und Techniken des Studiums von Mineralien ein, sowohl im makroskopischen als auch im mikroskopischen Maßstab. Studium der Mineralbildung, der wichtigsten Mineralgruppen, ihrer Kristallographie, Zusammensetzung, Strukturen, Klassifizierung, Identifizierung und Umweltaspekte. Einführung in die Prinzipien der Untersuchung optischer Eigenschaften von Mineralien im Dünnschliff unter dem petrographischen Mikroskop. Zu den Techniken gehören die Mikrofotografie und die automatisierte, digitale Bildanalyse von Mineralien. Einführung und Demonstration des Röntgendiffraktometers, des Rasterelektronenmikroskops und der Elektronenmikrosonde als Instrumente für die mineralogische Analyse.

GEOL 312 - Eruptive und metamorphe Petrologie

Credits: (4) Lehrmethode: Zwei Stunden Vorlesung sechs Stunden Labor.
Voraussetzungen: GEOL 310   .
Einführung in Zusammensetzung, Textur, Klassifikation, Ursprung, Evolution und Verteilung von magmatischen und metamorphen Gesteinen basierend auf etablierten Feldbeziehungen und experimentellen Bestimmungen. Laborschwerpunkt auf Handproben und Dünnschliffen.

GEOL 320 - Sedimentäre Petrologie und Stratigraphie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: GEOL 310   .
Einführung in Herkunft, Zusammensetzung, Textur, Klassifizierung, Transport und Ablagerung von Sedimenten und Interpretation von Sedimentablagerungen. Laborschwerpunkt auf der Sammlung und Analyse von Sedimenten und Sedimentgesteinen, einschließlich Handproben und Dünnschliffen.

GEOL 335 - Allgemeine Paläontologie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor.
Voraussetzungen: GEOL 106   .
Studium fossiler Pflanzen- und Tierstämme mit Schwerpunkt auf Prinzipien der Paläontologie sowie der taxonomischen Klassifikation, der wichtigsten morphologischen Merkmale und der allgemeinen evolutionären Entwicklung wichtiger Fossilgruppen.

GEOL 360 - Geomorphologie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: GEOL 105   .
Kreuzgelistet: GEOS 350  

Einführung in Oberflächenprozesse und Landschaftsformen. Fluviale, äolische, glaziale, Karst- und Küstenzonenprozesse analysiert. Karten- und Luftbildinterpretation inklusive.

GEOL 361 - Geologie von Virginia

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: GEOL 105   und entweder GEOL 100   oder GEOL 106   .
Untersuchung der geologischen Merkmale von Virginia, wobei die Erschließung von Mineralien, Gesteinen, Fossilien und die physiographische/geologische Provinzentwicklung von Virginia durch den geologischen Zeitmineralreichtum und Umweltprobleme in Virginia hervorgehoben werden.

GEOL 365 - Ozeanographie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor
Voraussetzungen: Acht Stunden aus einer der folgenden Naturwissenschaften: Astronomie, Biologie, Chemie, Geologie, Meteorologie, physikalische Wissenschaftsprozesse oder Physik.
Einführung in die physikalischen, chemischen, geologischen und biologischen Prozesse in der Meeresumwelt und deren Wechselwirkungen. Beinhaltet die Analyse aktueller Themen wie globale Klima- und Meeresspiegeländerungen, Mineral- und Energieressourcen aus dem Meer, Meeresverschmutzung und Seerecht.

GEOL 406 - Geophysik

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor.
Voraussetzungen: PHYS 112   oder PHYS 222   , GEOL 105   und MATH 152   oder Erlaubnis des Ausbilders.
Kreuzgelistet: PHYS 406  

Untersuchung der Grundlagen und Techniken moderner geophysikalischer Methoden und deren Anwendung auf Standortuntersuchungen für ingenieur- und umweltgeologische Projekte. Einige Samstagslabore können erforderlich sein.

GEOL 408 - Geodatenanwendungen in der Geologie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor.
Voraussetzungen: 12 Stunden Geologie und Erlaubnis des Lehrers.
Einführung in das Studium der theoretischen und praktischen Analyse von Geodaten in der Geologie. Dazu gehören das Lesen von Karten, die Fotointerpretation und der Einsatz von Fernerkundungs-, Bildverarbeitungs- und geografischen Informationssystemen zur Interpretation geologischer räumlicher Informationen für die Ressourcenerkundung und das Umweltmanagement.

GEOL 440 - Strukturelle Geologie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: GEOL 310   .
Die Beschreibung und Felderkennung geologischer Strukturen der Erdkruste umfasst Grundlagen der Gesteinsmechanik und Anwendungen der Spannungs- und Dehnungstheorie auf den Ursprung von Strukturen, Tektonik der Gebirgsbildung und globale Plattentektonik.

GEOL 441 - Geologische Feldmethoden

Credits: (4) Lehrmethode: Zwei Stunden Vorlesung, vier Stunden Labor.
Voraussetzungen: GEOL 440   .
Einführung in Techniken und Grundkonzepte geologischer Feldmethoden. Der Schwerpunkt liegt auf der Datenerhebung und -kartierung in einer Vielzahl von Feldsituationen sowie auf der Berichterstattung, Interpretation und Präsentation von Felddaten in Papier- und elektronischer Form.

GEOL 445 - Sommerkursschule für angewandte Geologie

Credits: (6) Lehrmethode: Ungefähr zwei Monate Korrespondenz und 40 Stunden Feldarbeit und Unterricht pro Woche.
Voraussetzungen: GEOL 105   und entweder GEOL 100   oder GEOL 106   .
Intensive Ausbildung in geologischen Feldmethoden mit Schwerpunkt Kartierung, Datensammlung und Geologie Virginias mit Anwendungen in Ingenieur- und Umweltbelangen sowie in der Landnutzungsplanung. Der Universitätscampus dient als Basis, von der aus Feldstudien durchgeführt werden. Der Kurs erfordert Exkursionen mit Übernachtung, die es ermöglichen, eine Vielzahl von geologischen Feldbedingungen zu untersuchen, einschließlich Exkursionsstopps in allen geologischen Provinzen von Virginia. Der Kurs kann Transport-, Verpflegungs- und Campinggebühren erfordern. Der Kurs ersetzt nicht GEOL 441   , Geologische Feldmethoden, für Studenten mit Hauptfach Geologie.

GEOL 451 - Regulatorische Fragen in der Umweltgeologie

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: GEOL 474   (Hydrogeology) und entweder Vorrang oder Erlaubnis des Ausbilders.
Untersucht den gesellschaftlichen und regulatorischen Rahmen, in dem ein Großteil der professionellen Praxis der Umweltgeologie stattfindet. Die relevante aktuelle und sich entwickelnde Gesetzgebung wird ebenso angesprochen wie die Rolle von Bundes-, Landes- und Kommunalbehörden bei der Verkündung des Gesetzes. Klassendiskussionen und Aufgaben werden die Funktionen des praktizierenden professionellen Geologen in den verschiedenen Forschungs-, Regulierungs- und Beratungsrollen im Zusammenhang mit Umweltregulierungen hervorheben.

GEOL 455 - Prinzipien der Ingenieurgeologie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: GEOL 105   und entweder GEOL 100   oder GEOL 106   und Mathematik durch Trigonometrie.
Mindestens ein Semester Physik wird dringend empfohlen. Eine Studie über die Anwendung geologischer Prinzipien und Datenerfassungstechniken zur Bewertung von Entwurfs- und Bauproblemen in Bezug auf Ingenieurprojekte wie Dämme, Autobahnen, Deponien, Tunnel und Reservoirs, einschließlich einer Übersicht über die Verfügbarkeit und Eignung von Boden und Gestein als Baumaterialien

GEOL 460 - Seniorenseminar in den Geologischen Wissenschaften

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: GEOL 312   .
Führt Studenten in den geologischen Beruf ein und wie Geowissenschaftler wissenschaftliche Daten kommunizieren und präsentieren. Die Studierenden erwerben Kenntnisse in der kritischen Analyse wissenschaftlicher und technischer Daten und in der Kritik von Informationen aus nicht-wissenschaftlichen und wissenschaftlichen Quellen. Die Studierenden werden in verschiedenen schriftlichen und mündlichen Präsentationsstilen üben, beispielsweise für professionelle Präsentationen auf Tagungen sowie für wissenschaftliche Artikel und Branchenberichte.

GEOL 461 - Regionale Geologie der Vereinigten Staaten

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: GEOL 320   .
Regionaler Überblick über den strukturellen und stratigraphischen Rahmen geologischer Provinzen der Vereinigten Staaten mit Schwerpunkt auf geologischen Merkmalen und der Entwicklung der Regionen der Appalachen und des westlichen Landesinneren.

GEOL 474 - Hydrogeologie

Credits: (4) Lehrmethode: Drei Stunden Vorlesung zwei Stunden Labor.
Voraussetzungen: GEOL 105   und entweder GEOL 100   oder GEOL 106   MATH 151   oder Erlaubnis des Ausbilders.
Mindestens ein Semester Physik wird dringend empfohlen.Eine qualitative und quantitative Untersuchung der Verfügbarkeit und Bewegung von Grundwasser sowie der Entwicklung der Ressource Grundwasser. Einbezogen werden relevante geologische und ingenieurtechnische Aspekte der Grundwasserströmung und der Einfluss des Menschen auf das Grundwasserregime. Das Labor beinhaltet eine Felduntersuchung.

GEOL 481 - Seminar in modernen Themen der Geologie

Credits: (1-3) Lehrmethode: Ein bis drei Stunden Vorlesung und/oder Feldunterricht.
Voraussetzungen: GEOL 105   und entweder GEOL 100   oder GEOL 106   und Erlaubnis des Ausbilders.
Schwerpunkt auf geologischer Literatur, Präsentation im Klassenzimmer und Gruppendiskussion zu aktuellen geologischen Themen und/oder Vor-Ort-Untersuchung klassischer geologischer Lokalitäten.

GEOL 488 - Abschlussprojekt für Ehrungen

Credits: (3) Voraussetzungen: Die Einschreibung in die Honors Academy und der Abschluss aller anderen Honors Academy-Anforderungen sind mindestens 3,5 GPA in allen Kursen und in Geologie.
Um einen Bachelor-Abschluss mit Auszeichnung in Geologie zu erwerben, muss ein Student Forschung betreiben und eine Abschlussarbeit auf der Grundlage der Forschung schreiben. Um Anerkennungen zu erhalten, muss ein Schüler eine Note von “A” oder “B” für das Abschlussprojekt erhalten.

GEOL 495 - Praktikum in Geologie

Credits: (1-6) Voraussetzungen: 8 Semesterwochenstunden in Geologie oder anderen Laborwissenschaften, 2,5 GPA in Geologiekursen und Genehmigung des Lehrstuhlinhabers.
Beinhaltet die Anwendung der im Unterricht und im Labor erlernten Fähigkeiten und Konzepte in einer realen Situation durch ein Voll- oder Teilzeitpraktikum in einem professionellen Umfeld bei einem Unternehmen oder einer Organisation, die in einem bestimmten Bereich der Geologie tätig ist. Die Studierenden werden sowohl vom Personal des Praktikumsplatzes als auch von einem Mitglied der Fakultät für Geologie betreut.

GEOL 498 - Unabhängige Studie

Credits: (1-6) Voraussetzungen: Eines der folgenden: GEOL 105   und entweder GEOL 100   oder GEOL 106   oder BIOL 102.
Siehe “Unabhängige Studie  .”

Geowissenschaften

Physikalische Studiengänge, bezeichnet (PS), können die Anforderungen für die erforderlichen sechs bis acht zusätzlichen Stunden an wissenschaftlichen Credits für den Bachelor of Science in einigen anderen Studiengängen als Geographie erfüllen. Sozialwissenschaftliche Studiengänge, bezeichnet (SS), erfüllen die Voraussetzungen für den Studiengang Sozialwissenschaften. Kurse in Techniken der Geographie werden mit (T) bezeichnet. Kurse, die sich als US-amerikanischer Geographiekurs für den Studiengang Sozialwissenschaften qualifizieren, sind mit einem Sternchen gekennzeichnet.

GEOS 125 - Einführung in Geodaten (T)

Credits: (3) Lehrmethode: Drei Stunden Vorlesung/Labor.
Voraussetzungen: Drei Stunden GEOG oder GEOS oder Erlaubnis des Ausbilders.
Studie, wie physische und kulturelle Informationen auf Karten dargestellt werden. Erstellung von Karten, Diagrammen und Grafiken, die geographische Phänomene darstellen.

GEOS 130 - Physische Geographie (PS)

Credits: (4) Lehrmethode: Drei Stunden Vorlesung und zwei Stunden asynchrone Online-Labs und Feldarbeit.
Einführung in die physikalische Geographie der Erde (Atmosphärensysteme, Biosphäre und Landschaftsformen) und die Wechselbeziehungen zwischen verschiedenen Umweltelementen.

GEOS 241 - Umweltverordnung

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: GEOG 140   oder Erlaubnis des Ausbilders.
Überprüfung der einschlägigen US-amerikanischen und internationalen Umweltgesetze und -vorschriften sowie der wichtigsten Analyseinstrumente, die bei der Erstellung und Durchsetzung solcher Gesetze und Vorschriften hilfreich sind.

GEOS 250 - Einführung in GIS (T)

Credits: (4) Lehrmethode: Inverted Course: Drei Stunden Vorlesung (online) und zwei Stunden Labor. Online-Kurs: Drei Stunden Vorlesung (asynchron) und zwei Stunden Labor (asynchron).
Kreuzgelistet: ITEC 250  

Der Kurs soll die Studierenden in die allgemeinen Konzepte von Geographischen Informationssystemen (GIS) einführen und in die Verwendung von GIS in einer Vielzahl von Disziplinen einführen.

GEOS 270 - Grundlagen der Kartographie (T)

Credits: (4) Lehrmethode: Vier Stunden Vorlesung und Labor.
Voraussetzungen: GEOS 125   und GEOS 250   .
Kartographische Theorie mit Schwerpunkt Kartengestaltung wird in Vorlesung und Praxis mit einem Lab diskutiert. Zu den Themen gehören unter anderem das Studium des Kartenlayouts, der Balance, der Typografie, der Farbverwendung, der Verwendung von Kartenprojektionen zur Präsentation räumlicher Informationen, der Verwendung von Kartensymbolen sowie das Erlernen des Entwerfens verschiedener Kartenkategorien, einschließlich Punktkarten, proportionale Symbole, und Choroplethenkarten.

GEOS 315 - Mittlere GIS-Konzepte (T)

Credits: (4) Lehrmethode: Drei Stunden Vorführung und zwei Stunden Online-Labor.
Voraussetzungen: GEOS 250  
Intermediate GIS-Konzepte werden im Zusammenhang mit der Geoverarbeitung und der Analyse geographischer Phänomene untersucht. Die Studierenden lernen, verschiedene Erweiterungen und Werkzeuge für eine Vielzahl von GIS-Routinen zu verwenden. Behandelt werden Datenstrukturen in GIS, Datenquellen für GIS sowie Daten- und Softwarekompatibilitätsprobleme in GIS.

GEOS 335 - Biogeographie (PS)

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: GEOS 130   , oder BIOL 105   , BIOL 215   oder BIOL 216   , oder die Erlaubnis des Kursleiters.
Untersuchung der Prozesse, die die Verbreitungsmuster terrestrischer Organismen beeinflussen. Einführung in die angewandte Biogeographie.

GEOS 350 - Geomorphologie (PS)

Credits: (4) Lehrmethode: Drei Stunden Vorlesung, drei Stunden Labor.
Voraussetzungen: GEOL 105   .
Kreuzgelistet: GEOL 360  

Einführung in Oberflächenprozesse und Landschaftsformen. Fluviale, äolische, glaziale, Karst- und Küstenzonenprozesse analysiert. Karten- und Luftbildinterpretation inklusive.

GEOS 362 - Wasserressourcen (PS)

Credits: (4) Lehrmethode: Vier Stunden Vorlesung, Labor und Feldarbeit.
Voraussetzungen: GEOS 130   , GEOL 100   oder GEOL 105   und GEOS 250   , oder die Erlaubnis des Kursleiters.
Eine Einführung in die wissenschaftlichen und politischen Aspekte von Wasserressourcen mit Schwerpunkt auf dem US-Kontext.

GEOS 380 - Räumliche Analysetechniken (T)

Credits: (4) Lehrmethode: Drei Stunden Vorlesung und zwei Stunden Synchronlabor.
Voraussetzungen: GEOS 250   und STAT 200   .
Die Lehrveranstaltung, die sowohl aus Vorlesungen als auch aus GIS-Laboranwendungen bestehen wird, widmet sich der Beschreibung und Anwendung von Methoden zur Analyse räumlicher Verteilungen sowie der Bewertung und Bewertung geographischer Forschungsprobleme im Kontext der GIS-Technologie.

GEOS 410 - Erweitertes GIS (T)

Credits: (4) Lehrmethode: Vier Stunden Vorlesung und Labor.
Voraussetzungen: GEOS 125   , GEOS 250   , GEOS 315   .
Theorie und Praxis eines Geoinformationssystems. Geodatenerfassung, Bearbeitung von Datensätzen, GIS-Modellierung, Überlegungen zu Geodatenbanken, Bearbeitung von Geodaten und Erstellung von Karten in gedruckter Form mit einem umfassenden geografischen Informationssystem.

GEOS 425 - Fernerkundung (T)

Credits: (4) Lehrmethode: Drei Stunden Vorlesung drei Stunden Labor.
Voraussetzungen: MATH 137   , GEOS 130   (oder GEOL 105   ) und GEOS 125   .
Bietet den Schülern die Möglichkeit, (1) Theorie und Praxis moderner Fernerkundungsprodukte (digitale Luftbilder, digitale Orthofotos, luftgestützte und satellitengestützte Sensorplattformen und deren Bilder) zu erlernen, (2) die bei der Analyse verwendeten Technologien zu erlernen und mit ihnen zu experimentieren, Bild Verarbeitung und Interpretation dieser Produkte und (3) die Verwendung der Produkte in analogem und digitalem Format für andere geografische Technologien erlernen.

GEOS 480 - Seminar

Credits: (1-4) Lehrmethode: Drei Stunden Seminar.
Voraussetzungen: Junior oder Senior stehend.
Intensives Studium eines Spezialgebietes der Geographie. Themen, die von Dozenten und Schülerinteressen bestimmt werden.

GEOS 488 - Abschlussprojekt für Ehrungen

Credits: (3) Voraussetzungen: Einschreibung in die Honors Academy, Erfüllung aller anderen Anforderungen der Honors Academy, mindestens 3,5 GPA in allen Kursen und in Geographie.
Projekt und Thema sind vom Studierenden, dem Fakultätsmitglied, mit dem der Studierende zusammenarbeitet, und dem Fachbereich festzulegen. Um Anerkennungen zu erhalten, muss ein Schüler für das Abschlussprojekt eine Note von “A” oder “B” erhalten.

GEOS 490 - Feldforschungsmethoden (T)

Credits: (3) Lehrmethode: Drei Stunden Vorlesung und Feldarbeit.
Voraussetzungen: Junior oder Senior stehend. Grundlegende Elemente der geographischen Feldforschung in der Gegend von Radford.
Der Kurs konzentriert sich auf Werkzeuge der Feldanalyse. Die Studierenden bereiten Einzel- oder Gruppenprojekte als Anhaltspunkte für den Erwerb der Logik der Raumanalyse vor. Dieser Kurs kann verwendet werden, um die Anforderungen für das Nebenfach Appalachian Studies zu erfüllen.

GEOS 492 - Landnutzung

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: Junior oder Senior stehend.
Studium der Konzepte und Nachteile der Landnutzung. Der Kurs betont die Kompatibilität von geoökologischen Systemen und Landnutzung.

GEOS 493 - Planungstechniken

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: Junior oder Senior stehend.
Untersuchung von Fragen im Zusammenhang mit der umfassenden Planung von Gemeinden und Grundstücken über den städtischen Bereich hinaus. Die Betonung der Erörterung wichtiger Planungen betrifft die besondere Aufmerksamkeit, die der Natur der ländlichen Probleme und zukünftigen Richtungen gewidmet wird.

GEOS 495 - Gezielte Feldforschung

Credits: (1-6) Lehrmethode: Feldkurs, variable Wochenanzahl.
Feldkurs zu Regionen in den Vereinigten Staaten und anderswo in der Welt.

GEOS 496 - Senior Capstone-Projekt

Credits: (3) Lehrmethode: Drei Stunden Recherche.
Voraussetzungen: Letztes Semester Senior stehendes Hauptfach Geoinformatik.
Ein Einzel- oder Gruppenprojekt, das die in einem der Schwerpunkte des Geographie-Hauptfachs erworbenen Kenntnisse und Fähigkeiten anwendet.

GEOS 498 - Unabhängige Studie

GEOS 499 - Praktikum

Credits: (2-9) Anwendung der im Unterricht erlernten Fähigkeiten und Konzepte auf ein reales Problem. Als Junior oder Senior erstellt der teilnehmende Student einen Arbeitsvorschlag und reicht ihn dem Träger und dem betreuenden Dozenten ein. Agentur kann Studenten für Arbeit bezahlen. Note “P” oder “F” nach erfolgreichem Abschluss des Projekts.

GRMN 100 - Grundkenntnisse Deutsch

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Ausgewogene Betonung auf Hören, Sprechen, Lesen und Schreiben.

GRMN 200 - Mittelstufe Deutsch I

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Voraussetzungen: GRMN 100   oder zwei Jahre Highschool-Deutsch.
Ausgewogene Betonung auf Hören, Sprechen, Lesen und Schreiben.

GRMN 210 - Mittelstufe Deutsch II

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Voraussetzungen: GRMN 200   oder zwei Jahre Highschool-Deutsch.
Überprüfung der Grundlagen anhand von grammatikalischen, literarischen und kulturellen Materialien.

GRMN 300 - Lesungen auf Deutsch

Credits: (4) Lehrmethode: Vier Stunden Vortrag und Sprachpraxis.
Voraussetzungen: GRMN 210   oder zwei Jahre Highschool-Deutsch.
Überprüfung der Grundlagen anhand von grammatikalischen, literarischen und kulturellen Materialien.

GRMN 301 - Deutsche Grammatik und Komposition

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: GRMN 210   .
Intensives mündliches und schriftliches Üben der vollständigen Grammatik, wie sie von Muttersprachlern verwendet wird.

GRMN 302 - Deutsche Grammatik und Komposition

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: GRMN 210   .
Intensives mündliches und schriftliches Üben der vollständigen Grammatik, wie sie von Muttersprachlern verwendet wird.

GRMN 303 - Deutsche Konversation

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: GRMN 210   oder drei Jahre Highschool-Deutsch.
Intensives situatives Üben der Konversationsfähigkeit.

GRMN 304 - Deutsche Kultur

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: GRMN 210   .
Kontrastreiche Darstellung der modernen deutschen Kultur und ihres historischen Hintergrunds.

GRMN 450 - Deutsche Literaturübersicht

Credits: (4) Lehrmethode: Vier Stunden Vortrag.
Voraussetzungen: GRMN 300   oder vier Jahre Highschool-Deutsch.
Ein Überblick über die deutschsprachige Literatur durch Analyse ausgewählter repräsentativer Werke vor ihrem historischen, kulturellen und literarischen Hintergrund.

GRMN 460 - Sonderthemen

Credits: (3-4) Lehrmethode: Drei- bis vierstündiger Vortrag.
Voraussetzungen: GRMN 300   .
Vertiefung in Themen der Sprache, Literatur oder Kultur. Alle Arbeiten in deutscher Sprache.

GRMN 498 - Unabhängiges Studium

Credits: (1-6) Voraussetzungen: Erlaubnis des Ausbilders.
Design für fortgeschrittene Fremdsprachenstudierende, die eine eigenständige Sprach- und Kulturwissenschaft oder ein anderes wissenschaftliches Studium unter der Leitung eines Fakultätsmentors durchführen möchten. Die Studierenden studieren in Absprache mit ihrem Mentor und mit Zustimmung des Lehrstuhls oder des Verzeichnisses. Der Mentor der Studierenden gestaltet die Lehrpläne und Prüfungen für die Sprach- und Kulturwissenschaften. Studierende können ihren Interessen auch für weitere Forschungen nachgehen. Sie können die Forschungsthemen auch gemeinsam mit ihrem Mentor gestalten. Siehe “Unabhängige Studie  .”

Gesundheits- und Sozialdienste

CHHS 475 - Globale Perspektiven im Gesundheits- und Sozialwesen

Credits: (3) Voraussetzungen: Wenden Sie sich an den Programmdirektor.
Offen für alle Studierenden und Studiengänge. Seminar- und Felderfahrung mit Schwerpunkt auf internationalen Gesundheitsfragen in Bezug auf politische, soziale, kulturelle, ökologische und ökonomische Faktoren in ausgewählten internationalen/interkulturellen Kontexten.

Gesundheitserziehung

HLTH 111 - Persönliche Gesundheit

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Bietet den Schülern gesundheitsbezogene Informationen, um kluge Gesundheitsentscheidungen in Bezug auf Bereiche wie Drogen (legal und illegal), Ernährung, Gewichtskontrolle, Stressmanagement, Fitness und andere persönliche Gesundheitsprobleme zu treffen.

HLTH 200 - Wellness-Lifestyle

Credits: (3) Lehrmethode: Zwei Stunden Vorlesung, zwei Stunden körperliche Aktivität pro Woche mit Laborbewertung.
Bietet den Schülern das Wissen und die Fähigkeiten, um sich gesund und fit für das Leben zu halten. Der Vortrag informiert über Gesundheitswissen. Die Aktivitätsklassen führen eine Vielzahl von Fitnessfähigkeiten und -techniken ein, um dem Einzelnen zu helfen, lebenslange Fitness zu verfolgen. Die Laborbewertungen liefern persönliche Gesundheits-/Wellnessdaten. Alle drei Komponenten sind integriert, um das Engagement für einen Wellness-Lifestyle zu fördern.

HLTH 205 - Peer-Ausbildung

Credits: (1) Lehrmethode: Einstündiger Vortrag.
Dieser Kurs führt die Studenten in die Peer-to-Peer-Gesundheitsförderung ein, wobei der Schwerpunkt auf Programmierfähigkeiten, Hör- und Empfehlungsfähigkeiten, Kenntnissen über Gesundheitsthemen an Hochschulen, Präsentationsfähigkeiten, Gruppenentwicklung und Service Learning liegt. Studenten, die diesen Kurs abschließen, sind berechtigt, an der Prüfung teilzunehmen, um sie über das BACCHUS-Netzwerk als national zertifizierte Peer Educators zu zertifizieren.

HLTH 245 - Grundlagen der Gesundheitserziehung und Gesundheitsförderung

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Dient als Einstieg in den Beruf der Gesundheitserziehung und Gesundheitsförderung. Es untersucht die zugrunde liegenden Faktoren im Zusammenhang mit der Gesundheit und führt den Studenten in den Prozess des Umgangs mit aktuellen Gesundheitsproblemen in den Vereinigten Staaten ein. Dieser Studiengang entspricht nicht den allgemeinen Bildungsanforderungen.

HLTH 250 - Verbrauchergesundheit

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: HLTH 200   .
Bietet den Schülern das Wissen und die Fähigkeiten, die erforderlich sind, um legitime Gesundheitsinformationen und Fehlinformationen zu unterscheiden. Darüber hinaus lernen die Schüler, fundierte Entscheidungen in Bezug auf Fitness und Ernährung, schwerwiegende Gesundheitsprobleme und andere gesundheitsbezogene Krankheiten und Zustände zu treffen.

HLTH 300 - Gemeindegesundheit und Epidemiologie

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: HLTH 245   , STAT 200   , mind. 2,5 kumulativer GPA oder Erlaubnis des Ausbilders.
Einführung in Fragen des öffentlichen und öffentlichen Gesundheitswesens. Es werden grundlegende Prinzipien der Epidemiologie eingeführt, und die Studierenden werden diese Prinzipien anwenden, um zu verstehen, wie Morbiditäts- und Mortalitätsstatistiken berechnet und interpretiert werden.

HLTH 320 - Grundlagen für Gesundheit und Sicherheit

Credits: (3) Lehrmethode: Drei Stunden Vorlesung, zwei Stunden Labor.
Voraussetzungen: HLTH 200   und mindestens 2,5 kumulativer GPA.
Bietet eine Studie über wesentliche Faktoren in Bezug auf sicheres und unsicheres Verhalten. Psychologische und philosophische Faktoren werden im Hinblick darauf untersucht, wie sie modifiziert werden können, um Unfälle zu vermeiden. Der Kurs vermittelt grundlegende Kenntnisse und entwickelt entsprechende Einstellungen, Gewohnheiten und Fähigkeiten in Bezug auf persönliche Sicherheit, Erste Hilfe und Unfallverhütung. Die Schüler können nach erfolgreichem Abschluss des Kurses eine ARC-Zertifizierung und Erste Hilfe erhalten.

HLTH 321 - Erste Hilfe und Sicherheit

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Studien zu Einstellungen, Gewohnheiten und Fähigkeiten in Bezug auf Sicherheit, Erste Hilfe und Unfallverhütung. Studenten können nach erfolgreichem Abschluss des Kurses eine ARC-Zertifizierung in CPR und Erste Hilfe erhalten.

HLTH 325 - Vielfalt der Gesundheit in den Vereinigten Staaten

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: HLTH 111   , HLTH 200   , NUTR 214   oder NURS 111   mindestens 2,5 kumulatives GPA.
Entwickelt, um Schüler über Fragen der Vielfalt, gesundheitsbezogene Disparitäten und Kontroversen im Zusammenhang mit der Gesundheit von rassischen, ethnischen und anderen Bevölkerungsgruppen in den Vereinigten Staaten zu informieren. Dieser Kurs kann verwendet werden, um die Anforderungen für das Nebenfach Frauenstudien zu erfüllen.

HLTH 362 - Gemeinschaftliche Gesundheit, Krankheiten und Störungen

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: HLTH 200   und mindestens 2,5 kumulativer GPA.
Bietet wichtige Gesundheitsinformationen, die von zukünftigen Lehrern mit K-12-Schulkindern geteilt werden können.

HLTH 382 - Lehrmethoden K-12 Gesundheitserziehung

Credits: (4) Lehrmethode: Drei Stunden Vortrag, zwei Stunden Praxiserfahrung.
Voraussetzungen: ESHE 210   und mindestens 2,5 kumulativer GPA.
Lehramtskandidaten erhalten ein Verständnis für entwicklungsgerechte Unterrichtspraktiken im Bereich der Gesundheitserziehung für den Unterricht von Kindern im Grundschulalter bis zur Sekundarstufe. Der Kurs baut auf früheren Lehrplänen von Lehramtskandidaten auf und vermittelt grundlegende pädagogische Fähigkeiten, die für einen erfolgreichen Unterricht in der Gesundheitserziehung der Grund-, Mittel- und Oberstufe erforderlich sind.

HLTH 410 - Theorie der Fahrerausbildung

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: Junior-Status und mindestens 2,5 kumulativer GPA.
Vermittelt Kenntnisse, Einstellungen, Fähigkeiten und Methoden, die für die Ausbildung von Fahrern erforderlich sind. Dies ist der erste von zwei Kursen, die für die Zertifizierung zur Fahrerausbildung erforderlich sind.

HLTH 412 - Fahrerschulung-Fahreraufgabenanalyse

Credits: (3) Lehrmethode: Eine Stunde Vorlesung, vier Stunden Labor.
Vor- oder Zusatzvoraussetzungen: HLTH 410   und aktueller Führerschein aus Virginia und mindestens 2,5 kumulativer GPA.
Kritische Analyse des Straßenverkehrssystems, der Fahraufgabe, Verkehrsprobleme, Faktoren, die zur Leistung des Autobahnbenutzers beitragen und Kenntnisse, Einstellungen und Fähigkeiten, die für die Kompetenz der Verkehrsbürger erforderlich sind. Entwickelt Verkehrsbürgerkompetenzen und führt Methoden und Materialien ein, um diese Kompetenzen bei anderen zu entwickeln.

HLTH 450 - Aktuelle Gesundheitsprobleme – Topical

Credits: (1-3) Lehrmethode: Ein bis drei Stunden.
Voraussetzungen: Mindestens 2,5 kumulativer GPA.
Die Studierenden untersuchen die Implikationen ausgewählter aktueller Gesundheitsprobleme im Hinblick auf die Gesundheitserziehung/Gesundheitsförderung. Themen können unter anderem Gesundheitsberatung, Verbrauchergesundheit, Gesundheit am Arbeitsplatz, Sucht und öffentliche Gesundheit sein. Je nach Thema kann dieser Kurs genutzt werden, um die Anforderungen für das Nebenfach Frauenforschung zu erfüllen.

HLTH 451 - Aufklärung über Drogenkonsum und Drogenmissbrauch

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: Mindestens 2,5 kumulativer GPA.
Bietet den Schülern einen Hintergrund über die Geschichte des Drogenkonsums und -missbrauchs in den Vereinigten Staaten. Die Studierenden vergleichen Medikamente nach Klassifizierung, physiologischen Wirkungen der Medikamente und Potenzial für Missbrauch und Abhängigkeit. Die Studierenden erforschen die Auswirkungen von Missbrauch und Abhängigkeit auf die Gesellschaft.

HLTH 453 - Menschliche Sexualität

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: Mindestens 2,5 kumulativer GPA.
Eine Studie über Information, Bildung und Kommunikation über die menschliche Sexualität in Bezug auf die Menschen in unserer Gesellschaft. Dieser Kurs kann verwendet werden, um die Anforderungen für das Nebenfach Frauenstudien zu erfüllen.

HLTH 460 - Internationale Gesundheit

Credits: (3) Lehrmethode: Drei Stunden Vortrag.
Voraussetzungen: Mindestens 2,5 kumulativer GPA.
Analyse von Fragen der öffentlichen und internationalen Gesundheit in Bezug auf das Individuum, die Gemeinschaft und die Gesellschaft.


Schau das Video: Openlayers 6 Tutorial #9 - Interaction With Vector Features