Mehr

Wie summiere ich Werte innerhalb des Gitterpolygons in QGIS?

Wie summiere ich Werte innerhalb des Gitterpolygons in QGIS?


Ich habe ein Gitter voller Sechsecke, die ich versuche, Punkte zu sortieren. Anstatt jedoch die Vector > Analysetools > Punkte im Polygon die die Anzahl der Punkte in jedem Sechseck zählt, versuche ich, die Werte anderer Attribute für jedes Sechseck zusammenzufassen. Noch besser wäre es, wenn ich dies tun und die Punkte in jedem Sechseck zählen könnte.

Mein Datatset ist beispielsweise wie folgt formatiert:

ID Lat Long Score 1 43,1 –431,5 0,75 2 44,3 –431,6 0,89 3 40,8 –429.7 0,12 4 100,1 80,9 0,36 5 99,8 76,1 0,65 6 91,2 75,9 0,24

Was ich hoffe, wird in etwa so aussehen:

Hexagon-Summe N 1 1,76 3 2 1,25 3

Nach vielem Ausprobieren habe ich meine Antwort gefunden. Für GIS-Anfänger wie mich suchte ich nach einer räumlichen Verknüpfung, die mit QGIS einfach zu realisieren war:

Vector > Datenverwaltungstools > Verknüpfungsattribute nach Standort


QGIS-Schnittstelle für SWAT+: QSWAT+

Für erfahrene QSWAT-Benutzer heben wir zuerst die Dinge hervor, die in QSWAT+ neu oder anders sind.

Umgebung: Sie verwenden 64-Bit-Tools (Installation, Umgebung und Tools erforderlich) und QSWAT+ verwendet SQLite anstelle von Microsoft Access-Datenbanken. Linux und MacOS werden ebenfalls unterstützt. Sie erstellen und führen SWAT+-Modelle ausschließlich mit kostenloser Open-Source-Software aus.

QGIS ist Version 3, nicht 2: Dies bedeutet, dass wir Python 3 anstelle von Python 2 verwenden Unterschiede für den Benutzer sind nicht sehr groß und man sollte sich schnell daran gewöhnen. QGIS 3 kann sicher neben einer bestehenden QGIS 2-Installation installiert werden.

Bäche und Kanäle: Teilbecken werden nach wie vor durch Bacheinzugsgebiete gebildet, aber, Teilbecken können mehrere Kanäle enthalten (Erstellen von Kanälen und Streams). HRUs fließen in Kanäle ab und sind daher genauer positioniert als in QSWAT.

Landschaftseinheiten: Flächen, die zu Kanälen entwässern, können in Überschwemmungsgebiete und

Hanglagen, die jeweils eine Landschaftseinheit bilden (Erstellen von Landschaftseinheiten). Personalabteilungen

gehören zu Landschaftseinheiten.

Kurzkanalzusammenführung: Teilbecken können wie in QSWAT zusammengeführt werden, aber zusätzlich Kanäle können innerhalb von Teileinzugsgebieten zusammengelegt werden (Merging Short Kanäle) mit dem Ziel,

oder Stauseen, oder in Seen eingeschlossen, auf Landnutzung WETN geändert werden, gibt es keine HRUs mehr mit Landnutzung WATR.

Rastermodelle: Neben Modellen, die auf abgegrenzten Teilbecken basieren, können Rastermodelle erstellt und verwendet (mit Rastermodellen).

Parameter: Über das Parameterformular können zahlreiche Parameter eingestellt werden (Parametereinstellungen).

Umweltströme: Es können verschiedene Umweltströme generiert werden (Umweltströme).

2. Umgebung und erforderliche Tools

 Microsoft Windows (jede Version, soweit uns bekannt) oder Linux (wahrscheinlich jede aktuelle Version, aber nur auf Ubuntu getestet) oder MacOS (nur auf Catalina getestet)  Texteditor (zB NotePad unter Windows, gedit unter Linux, TextEdit unter MacOS, Emacs in

any), mit dem Sie ASCII-Textdateien lesen und bearbeiten können.

 QGIS. Die Anweisungen in diesem Dokument gehen davon aus, dass Sie einen 64-Bit-Computer haben und die 64-Bit-Versionen von QGIS, QSWAT+ und SWAT+ verwenden sollten.

 Ein Tool zum Anzeigen und Bearbeiten von SQLite-Datenbanken. Eine gute Wahl unter Windows ist das kostenlose Open-Source-SQLiteStudio, das heruntergeladen werden kann von

https://sqlitestudio.pl. Unter Linux und auf Macs können Sie auch SQLiteStudio verwenden oder SQLiteBrowser finden Sie in Ihrer Distribution.

Der Quellcode für QSWAT+ ist erhältlich bei

 Installieren Sie QGIS, indem Sie QGIS-OSGeo4W-3.16.4-1-Setup-x86_64 (oder neuere Version) ausführen. Es kann von der QGIS-Downloadseite heruntergeladen werden, wo Sie das auswählen sollten Langzeit-Release-Repository und das eigenständige 64-Bit-Installationsprogramm. Verwenden Sie die Standardeinstellung Ordner C:/Program Files/QGIS 3.16 als Installationsordner.

Beachten Sie, dass Sie eine neuere Version als 3.16 verwenden können, vorausgesetzt, es handelt sich um QGIS 3, nicht um QGIS 2, das mit QSWAT+ nicht kompatibel ist, aber nicht um eine frühere. Wir empfehlen Ihnen, die aktuelle Langzeitversion (LTR) zu verwenden, da diese für einige Zeit (derzeit ein Jahr) stabil bleibt und die Version ist, mit der QSWAT+ getestet wird.

 Installieren Sie QSWAT+, indem Sie swatplustools-installer, Version 2.0 oder höher, ausführen. Es kann sein heruntergeladen von der SWAT+-Seite der SWAT-Website. Sie können darüber informiert werden

Windows hat Ihren PC geschützt, und Sie müssen auf Weitere Informationen und dann auf Trotzdem ausführen klicken, um

fahren Sie mit der Installation fort. Anschließend müssen Sie die Lizenz akzeptieren. Dies ist ein kombiniertes Installationsprogramm, das QSWAT+, den SWAT+ Editor und einige andere bereitstellt

Materialien. Sie können wählen, welche Komponenten Sie benötigen (für die Erstinstallation QSWAT+, den SWAT+ Editor, wahrscheinlich den globalen Wettergenerator und die,

SSURGO/STATSGO-Bodendaten, wenn Sie irgendwo in den USA modellieren) und Sie müssen auch ein paar Entscheidungen treffen:

o Der SWAT+ Editor ist zusammen mit dem SWAT+ Programm und anderen Materialien standardmäßig in C:/SWAT/SWATPlus installiert, aber der Benutzer, der die Installation durchführt hat die Möglichkeit, dieses Verzeichnis zu ändern. Wenn Sie diesen Standard ändern möchten, müssen Sie beim ersten Mal das Formular QSWAT+ Parameter verwenden Führen Sie QSWAT+ aus, um das SWATPlus-Verzeichnis auf den von Ihnen gewählten Pfad zu setzen. Das Die Einstellung wird dann von QSWAT+ beibehalten und wird in Zukunft verwendet, es sei denn, du änderst es wieder.

o QSWAT+ ist ein Plugin für QGIS. Es kann für alle Benutzer installiert werden, oder nur die Benutzer, der das Installationsprogramm ausführt. Im zweiten Fall wird das Plugin in den persönlichen Dateien des Benutzers platziert und erscheint nur als Plugin, wenn derselbe Benutzer QGIS startet. Dies erfordert keine Administratorrechte und ist die natürliche Wahl, wenn Sie die Installation auf Ihrem persönlichen Laptop oder auf einem Computer durchführen, auf dem Sie sich befinden primärer Benutzer. Im Fall aller Benutzer wird das Plugin innerhalb des QGIS platziert Installationsdateien. Dies erfordert Administratorrechte. Es hat auch die

Dies hat zur Folge, dass QSWAT+ neu installiert werden muss, wenn Sie QGIS aktualisieren. Das Installationsprogramm muss Sie möglicherweise auch auffordern, zum Installationsort von QGIS zu navigieren, wenn es kann es nicht an den üblichen Orten finden.

Beachten Sie, dass es möglich ist, QSWAT+ für mehrere Benutzer einzeln zu installieren. Wenn dies bequemer ist, als die Option für alle Benutzer zu verwenden, einfach von jedem Benutzer Ausführen der QSWAT+-Komponente des swatplustools-installer.

 Ihre Linux-Distribution hat möglicherweise ein QGIS-Paket als Teil ihrer Standardsammlung. Vorausgesetzt, es ist QGIS 3.16 Version oder höher (nicht QGIS 2), können Sie es verwenden und Sie können das Standard-Paketverwaltungssystem verwenden, um es zu installieren. Die folgenden Anweisungen sind eine Alternative zum Erhalten der neuesten Langzeitversion von QGIS, derzeit 3.16, die die früheste Version ist, die mit QSWAT+ Version 2.0 kompatibel ist.  Beginnen Sie mit dem QGIS-Download Seite und wählen Sie Linux. Folge dem

Anleitung für Ihre Verteilung. Beachten Sie, dass die Anweisungen auf der QGIS-Seite die Installation von qgis-plugin-grass beinhalten, dies jedoch für QSWAT+ nicht erforderlich ist, d.

um die tar-Datei zu entpacken. Sie entscheiden dann, ob Sie es nur für Sie oder für alle installieren. Im ersten Fall steht es nur dem Benutzer zur Verfügung, der es installiert. Im zweiten Fall steht es jedem Benutzer zur Verfügung, erfordert jedoch das Root-Benutzerpasswort zur Installation. Um die erste Option zu wählen, verwenden Sie den Befehl

und um die zweite Option zu wählen, verwenden Sie den Befehl

Dadurch wird das QSWAT+ Plugin für QGIS in den persönlichen Dateien des Benutzers mit der ersten Option und innerhalb der QGIS-Installation mit der zweiten Option installiert. Es wird auch installiert den SWAT+ Editor und andere Tools und Daten im SWATPlus-Verzeichnis. Mit dem ersten Option ist SWATPlus

ist das Home-Verzeichnis des Benutzers) und bei der zweiten Option ist es /usr/local/share/SWATPlus.

Zur Deinstallation gibt es auch die Shell-Skripte uninstallforme.sh und unistallforall.sh.

 Erhalten Sie QGIS aus dem Download Seite, wählen Sie Download für macOS, das Offizielle All-in-one, signierte Installer und die Langzeitversion (die stabilste) Version, derzeit 3.16, die früheste Version, die mit QSWAT+ 2.0 kompatibel ist. Dadurch erhalten Sie eine .dmg-Datei, öffnen Sie sie, stimmen Sie der Lizenz zu und Sie erhalten ein kleines Fenster mit einem QGIS-Symbol und einem Anwendungssymbol. Ziehen Sie das QGIS-Symbol auf das

Anwendungssymbol. Dies platziert QGIS in Ihrem Anwendungsordner und dauert einige Minuten.

Wenn Sie QGIS in MacOS 10.15 (Catalina) öffnen, erhalten Sie eine Antwort, die es nicht sein kann geöffnet, weil Apple es nicht auf Schadsoftware überprüfen kann. Klicken Sie auf Anzeigen in Finder-Taste, und klicken Sie dann mit der rechten Maustaste, anstatt mit der linken Maustaste auf QGIS zu klicken (oder halten Sie Strg während Sie klicken) auf QGIS und wählen Sie dann Öffnen. Die gleiche Warnung vor böswilligen Software erscheint, aber dieses Mal gibt es eine Schaltfläche Öffnen, auf die Sie klicken, um QGIS zu starten. Danach wird QGIS normal geöffnet.

Installieren Sie QSWAT+ mit dem swatplus-mac-installer von der SWAT+-Seite der SWAT-Website. Dies geschieht in Form eines komprimierten tar-Archivs. Speichern Sie es irgendwo, öffnen Sie ein Terminal und wechseln Sie mit cd in das Verzeichnis, in dem es gespeichert ist. Verwenden Sie den Befehl

tar -xvf swatplus-mac-installer.tgz

um die tar-Datei zu entpacken. Sie entscheiden dann, ob Sie es nur für Sie oder für alle installieren. Im ersten Fall steht es nur dem Benutzer zur Verfügung, der es installiert. Im zweiten Fall steht es jedem Benutzer zur Verfügung, erfordert jedoch das Root-Benutzerkennwort zur Installation. Um die erste Option zu wählen, verwenden Sie den Befehl

Für die zweite Option, wenn Sie nicht QGIS 3.16 verwenden, sondern eine andere Version, 3.18, sagen wir, Sie müssen installforall.sh bearbeiten und in Zeile 3 ersetzen

Sie sollten die gleiche Änderung an uninstallforall.sh vornehmen

Dadurch wird das QSWAT+ Plugin für QGIS in den persönlichen Dateien des Benutzers mit der ersten Option und innerhalb der QGIS-Installation mit der zweiten Option installiert. Es wird auch installiert den SWAT+ Editor und andere Tools und Daten im SWATPlus-Verzeichnis. Mit dem ersten Option ist SWATPlus

ist das Home-Verzeichnis des Benutzers) und mit dem zweite Option ist /usr/local/share/SWATPlus.

Zur Deinstallation gibt es auch die Shell-Skripte uninstallforme.sh und unistallforall.sh.  Derzeit gibt es ein Problem, dass Sie eine neue Version eines Pakets namens . installieren müssen

Kissen. Öffnen Sie dazu ein Terminalfenster und verwenden Sie den Befehl

/Applications/QGIS-LTR.app/Contents/MacOS/bin/pip3 Installationskissen -U

Und Sie werden sehen, dass Pillow-7.2.0 deinstalliert und Pillow-8.1.0 (oder vielleicht später) installiert wird.

 Verzeichnisse installiert

Die im SWATPlus-Verzeichnis erstellten Verzeichnisse sind:

SWATPlusEditor mit Editor und SWAT+ ProgrammAT

Datenbanken, die eine Vorlagenprojektdatenbank, eine Referenzdatenbank, eine Vorlage enthalten Projektdatei, die globale Wettergenerator-Datenbank (sofern für Windows ausgewählt) und die SSURGO/STATSGO-Bodendatenbank (falls für Windows ausgewählt).

Dokumente, die dieses Handbuch enthalten (sofern im Windows QSWAT+-Installationsprogramm ausgewählt, immer für Linux und Mac)

BeispielDatensätze, die das in diesem Handbuch verwendete Robit-Beispiel enthalten

TauDEM5Bin enthält die TauDEM-Programme, die bei der Abgrenzung von Wassereinzugsgebieten verwendet werden. Sie Sie benötigen dies nicht unter Windows, wenn Sie QSWAT oder QSWAT3 installiert haben.

o Nur Windows: ConvertFromArc enthält einen Konverter von ArcSWAT Projekte zu QSWAT+ Projekten.

o SWATGraph (optional im Windows-Installer) mit runSWATGraph.bat (Windows) oder runSWATGrap.sh (Linux und MacOS) Dies ergibt Stand-alone Zugriff auf das SWATGraph-Programm. Sie benötigen dies unter Windows nicht, wenn Sie QSWAT installiert haben.

In MacOS, wenn Ihre Version von QGIS nicht 3.16 ist, müssen Sie bearbeiten

runSWATGrap.sh, ersetzt QGIS3.16 in Zeile 3 durch die entsprechende Zeichenfolge für

Benutzer können der QSWAT+-Benutzergruppe unter https://groups.google.com/d/forum/qswatplus beitreten. Es gibt auch Benutzergruppen für den SWAT+ Editor und das SWAT+ Modell.

gleiches projiziertes Koordinatensystem. Benutzer können auf Anhang II verweisen, um globale Daten vorzubereiten für QSWAT+. Die in diesem Handbuch verwendeten Beispieldateien sind im SWATPlus-Verzeichnis verfügbar in einem Verzeichnis ExampleDatasets/Robit. Dieses Verzeichnis enthält:

Ein DEM im Verzeichnis DEM

Ein Stream erreicht eine Datei zum Einbrennen in das DEM im Verzeichnis RobitStreamsEine Outlet-Datei im Verzeichnis MainOutlet

Landnutzungs- und Bodenkarten in den Verzeichnissen Landuse und SoilKlimadaten im Verzeichnis ClimateRobit

 Einige CSV-Dateien zum Erstellen von Datenbanktabellen und

Eine Datei mit beobachteten Daten beobachtetFlow.csv im Verzeichnis Observed.

Benutzern wird empfohlen, den Standort SWATPlus/ExampleDatasets/Robit in Ihrem . zu speichern

Favoriten- oder Schnellzugriffsliste im Windows Explorer (in Linux-Dateien verwenden Sie Strg-D, um ein Lesezeichen zu setzen,

im Mac Finder ziehen Sie es in die Seitenleiste). (Im Mac Finder suchen Sie nach

/usr/local/share/SWATPlus und Sie können /usr möglicherweise nicht sehen. Um es sichtbar zu machen, öffnen Sie

Finder und verwenden Sie dann im oberen Menü Go, wählen Sie Go to Folder und geben Sie /usr in das Feld ein.) sind häufige Verweise auf SWATPlus/ExampleDatasets/Robit beim Laden von Dateien und Karten, und es ist mühsam, darauf zuzugreifen, wenn sein Weg lang ist. Wir bezeichnen diesen Ordner als Robit

5. Struktur und Lage der Ausgabedaten

Wir werden ein Projekt namens Demo1 in einem Ordner QSWATPlus_Projects/Robit erstellen. (Auf Windows können Sie C:QSWATPlus_Projects erstellen, unter Linux oder Mac vielleicht Erstellen Sie QSWATPlus_Projects in Ihrem Home-Ordner.) Dadurch wird Folgendes erstellt:

1. Ein Ordner QSWATPlus_Projects/Robit/Demo1, der als Projektordner bezeichnet wird.

2. Eine Datei QSWATPlus_Projects/Robit/Demo1/Demo1.qgs heißt Projektdatei. Diese enthält Details zum aktuellen Status von QGIS und den von uns gewählten Projekteinstellungen. Wenn wir das Projekt später erneut öffnen möchten, ist Demo1.qgs die Datei, nach der wir suchen.

3. Ein Ordner QSWATPlus_Projects/Robit/Demo1/Scenarios/Default/TxtInOut, der enthalten alle SWAT+ Eingabe- und Ausgabedateien.

4. Ein Ordner QSWATPlus_Projects/Robit/Demo1/Scenarios/Default/Results, der möglicherweise wird vom SWAT+ Editor verwendet und dient zum Speichern von Ergebnisdateien aus der Visualisierung. 5. Wenn wir einen SWAT-Lauf als Sim1 speichern möchten, sagen wir, dann ein Ordner

QSWATPlus_Projects/Robit/Demo1/Scenarios/Sim1 wird erstellt (eine Kopie von QSWATPlus_Projects/Robit/Demo1/Scenarios/Default, einschließlich seiner Unterordner).

6. Ein Ordner QSWATPlus_Projects/Robit/Demo1/Watershed mit mehreren Unterordnern: 6.1. Raster zur Aufnahme der verwendeten Raster, aufgeteilt in 3 weitere Unterordner

6.1.1. DEM, das die lokale Kopie Ihres DEM sowie alle Dateien enthält daraus generiert wie Fließrichtung, Bäche und Teilbecken als Raster 6.1.2. Landschaft, die beim Erstellen von Überschwemmungsgebieten Überschwemmungs-Raster enthält

und die Raster, die zu ihrer Generierung erstellt wurden.

6.1.3. Landuse, um die lokale Kopie Ihres Landuse-Rasters zu enthalten 6.1.4. Boden, um die lokale Kopie Ihres Boden-Rasters zu enthalten

6.3. Text, der Berichte enthalten soll.

6. Setup für Robit Watershed, Lake Tana Basin

Der Rest dieses Dokuments beschreibt und zeigt Tools, wie sie in Windows erscheinen. Linux- und Mac-Versionen von QGIS werden fast identisch aussehen. Es wird davon ausgegangen, dass Benutzer allgemeine Aufgaben wie das Erstellen von Verzeichnissen unter Linux und MacOS kennen oder das Internet verwenden können, um dies herauszufinden.

Starten Sie QGIS 3 und wählen Sie das Menü Plugins -> Plugins verwalten und installieren und finden Sie QSWATPlus3_64. Klicken Sie auf das Kontrollkästchen, um die Installation durchzuführen, was einige Sekunden dauert. Das Das QSWAT+-Symbol wird in der Symbolleiste angezeigt.

Abbildung 1: QGIS 3 mit geladenem QSWAT+ Plugin

Sie sollten auch überprüfen, ob das Processing-Plugin im Plugins-Menü aktiviert ist. Das ist ein Standardbestandteil von QGIS und sollte standardmäßig aktiviert sein, ist es aber möglicherweise nicht. Du kannst sagen ob es so ist aktiviert, indem die Verarbeitung als Menüelement oben im QGIS-Fenster angezeigt wird, da es tut in Abbildung 1.

Starten Sie QSWAT+, indem Sie auf das QSWAT+-Symbol klicken. Die Hauptschnittstelle von QSWAT+ ist angezeigt..

Klicken Sie auf das Kästchen Neues Projekt. Ein Browser wird angezeigt, der ein übergeordnetes Verzeichnis für die . anfordert neues Projekt. Navigieren Sie zu einem Ordner wie C:QSWATPlus_Projects. Sie müssen wahrscheinlich Erstellen Sie den Ordner Robit, also klicken Sie im linken Bereich mit der rechten Maustaste auf QSWAT_Projects, um ein Menü zu öffnen. Wählen Sie New -> Folder und geben Sie Robit ein, um den Standardnamen von New Folder zu überschreiben, und drücken Sie

Eingeben. Robit wird im rechten Bereich angezeigt. Wählen Sie es aus, damit es im Textfeld unten angezeigt wird und

Abbildung 2: QSWAT+-Schnittstelle bei Schritt 1

In diesem Stadium wird die Projektdatenbank als Demo1.sqlite im Projektordner erstellt und eine Kopie der SWAT-Referenzdatenbank swatplus_datasets.sqlite wird dort ebenfalls erstellt.

Zu diesem Zeitpunkt sollten alle Ihre Karten in einer flächentreuen Projektion erstellt werden (wahrscheinlich, aber nicht unbedingt, UTM1). Alle Karten sollten sich im gleichen Projektionskoordinatensystem befinden. Siehe Anhang

II

7. Wasserscheidenabgrenzung

Um die automatische Abgrenzung von Wasserscheiden zu starten, klicken Sie auf die Schaltfläche Wasserscheide abgrenzen. Dann klick die Schaltfläche in der Gruppe DEM auswählen.

UTM ist keine flächentreue Projektion, aber nahe daran und ausreichend nahe, um SWAT+ auf den meisten Wasserscheiden verwenden zu können.

Navigieren Sie zum Ordner Robit/DEM/srtm_30m und öffnen Sie die Datei hdr.adf. Dieses DEM ist ein ESRI Raster (oder Raster) und besteht aus einer Reihe von Dateien. Die Datei namens hdr.adf ist diejenige, die Sie wählen müssen für ein solches Gitter. QSWAT+ akzeptiert eine Vielzahl von Rasterdateiformaten. Am meisten gebräuchlich sind wahrscheinlich GeoTiff-Dateien, die normalerweise ein .tif-Suffix haben und einzeln vorliegen Dateien.

Abbildung 3: Auswahl des DEM

Der Name des Höhenkartenrasters wird im DEM-Textfeld unter dem angezeigt

Dialogfeld "Wasserscheide". Das ausgewählte DEM wird in den Quellordner des Projekts kopiert und

ggf. in das GeoTiff-Format (.tif) konvertiert. Wenn die Einheiten Ihres DEM keine Meter sind, können Sie Wählen Sie die Registerkarte DEM-Eigenschaften aus und ändern Sie sie. Diese Registerkarte zeigt auch die DEM-Zellengröße, Zelle Fläche, Projektionssystem und Ausdehnung in Grad.

Benutzer können ein vorhandenes Stream-Netzwerk mit der Option In vorhandenen Stream brennen einbrennen Netzwerk: Verwenden Sie eine Datei mit der Erweiterung *.shp (Abbildung 4). Überprüfen Sie das Brennen in einem bestehenden Stream

Netzwerkoption und wählen Sie die Datei Robit/RobitStreams/robReach.shp.

Mit dem Abgrenzungsformular können Sie sich für ein vordefiniertes Wassereinzugs- und Bachnetz entscheiden, indem Sie Wählen Sie die Registerkarte Vorhandene Wasserscheide verwenden. Wenn Sie daran interessiert sind, ein vordefiniertes

Wassereinzugsgebiet und Bachnetz finden Sie in Anhang III: Verwendung eines vordefinierten Wassereinzugsgebiets und Kanalnetz).

Abbildung 4: Erstellen des Stream-Netzwerks

7.1.1 Kanäle und Streams erstellen

Als nächstes sollten die Schwellenwertgrößen zum Erstellen von Kanälen und Streams festgelegt werden. Sie können nach Fläche, in verschiedenen Einheiten wie Quadratkilometer oder Hektar oder nach Anzahl der Zellen festgelegt werden. Ändern Sie bei Bedarf die Schwellenwertmethode, um Hektar zu verwenden, ändern Sie die Fläche für Kanäle auf 9 und für Bäche auf 90, und drücke auf Create Streams: die Anzahl der Zellen wird an den entsprechenden Wert angepasst (100 bzw. 1000).Der Schwellenwert ist die Anzahl der Zellen (oder des Bereichs), die erforderlich sind, um einen Kanal oder einen Stream zu bilden: Eine Zelle wird Teil eines Kanals oder Streams, wenn mindestens die Schwellenwertanzahl von Zellen in sie fließt. Bachläufe sind Abschnitte des Bachnetzes zwischen bedeutenden Punkten, wobei bedeutende Punkte Bachquellen, Überwachungspunkte wie Wasserstandsmesser, Bacheinmündungen, Einlässe und Auslässe von Wassereinzugsgebieten sind. Ein Unterbecken ist ein Gebiet

Entwässerung in einen Bach reichen. Teilbecken sind die Hauptabteilungen des Einzugsgebiets und typischerweise die Einheiten, deren SWAT-Ergebnisse wir generieren und untersuchen möchten. Kanäle sind feinere Unterteilungen und Erweiterungen von Stream-Reichweiten und ermöglichen es uns, die

Komponenten des Einzugsgebiets, die das SWAT+-Modell bilden werden: Landschaftseinheiten, Stauseen, Teiche, Punktquellen und hydrologische Reaktionseinheiten. Dieser Schritt erstellt Streams (Abbildung 5). Es lädt auch das Stream-Einbrenn-Shapefile, falls eines ausgewählt wurde.

Abbildung 5: Anzeige von Stream- und Kanalnetzwerken networks

7.1.2 Ein- und Auslässe

Für dieses Beispiel wird eine Einlass-/Auslassdatei bereitgestellt, die nur einen Hauptauslass enthält. Überprüfen Sie die Verwendung eine Shapefile-Option für Einlässe/Auslässe, und navigieren Sie zu Robit/MainOutlet/MainOutlet.shp. Das Auslass hinzugefügt (Abbildung 6).

Benutzer können Auslässe, Reservoirs, Teiche, Einlässe und Punktquellen hinzufügen, indem sie die Option Zeichnen auswählen Ein-/Auslässe Option. Hier werden Sie zuerst gefragt, ob Sie die Datei mit den vorhandenen Ein-/Ausgängen hinzufügen möchten, oder einen neuen erstellen. Nachdem Sie diese Auswahl getroffen haben, wählen Sie den hinzuzufügenden Punkttyp aus und klicken Sie auf

Watershed and Channel Network für Details zu den Feldern, die in einer Einlass-/Auslassdatei benötigt werden. Wir Fügen Sie in diesem Beispiel keine zusätzlichen Auslässe, Teiche, Reservoirs, Einlässe oder Punktquellen hinzu.

Abbildung 6: Steckdose hinzugefügt

Wenn Sie mehrere Punkte in Ihrer Einlass-/Auslassdatei haben, können Sie nur eine Auswahl von verwenden Sie. Wählen Sie dazu die Option Ein-/Ausgänge auswählen. Halten Sie Strg gedrückt und wählen Sie die Punkte aus, indem Sie Ziehen Sie die Maus, um ein kleines Rechteck um sie herum zu erstellen. Ausgewählte Punkte werden gelb und eine Zählung wird unten links im Hauptfenster angezeigt. Sie müssen diese Option nur verwenden, wenn Sie nur eine Teilmenge von Steckdosen verwenden möchten. Standardmäßig werden alle Punkte in der Auslassdatei oder die gezeichneten verwendet.

Ihnen wird mitgeteilt, wie viele Punkte erfolgreich gefangen wurden. Wenn einige nicht geschnappt wurden (oder um dies im Voraus zu überprüfen, bevor Sie die Wasserscheide erstellen), können Sie auf Snapshot überprüfen klicken, was zeigt die eingerasteten Ein-/Auslässe, d. h. die innerhalb des definierten Schwellenabstandes.

Wenn Sie auf Wasserscheide erstellen klicken, wird die Wasserscheide erstellt (Abbildung 7). Überprüfen Sie, ob die Abgrenzung Formular zeigt, dass die richtige Anzahl von Punkten gefangen wurde (in unserem Fall 1) und keiner fehlgeschlagen ist. Beachten Sie, dass wir in Abbildung 7 etwas vergrößert haben, um die Wasserscheide besser zu fokussieren. Wählen Sie dazu die Unterbeckenebene im Ebenenbedienfeld aus und klicken Sie dann auf Zoom zum Layer-Button (in der oberen Symbolleiste, direkt unter Processing).

Abbildung 7: Abgegrenzte Wasserscheide

In QSWAT+ ist es möglich, Teilgebiete in Landschaftseinheiten zu unterteilen. Zwei Landschaftseinheiten sind möglich, Aue und Hanglage. Wenn wir Landschaftseinheiten definieren, wenn wir später zur Definition kommen Hydrologische Reaktionseinheiten (HRUs) diese werden innerhalb jeder Landschaftseinheit definiert, und wenn wir auch nur einige HRUs auswählen, dann wird jede Landschaftseinheit separat behandelt, sodass jede Landschaftseinheit mindestens eine HRU enthält. Die Wahl der Definition von Landschaftseinheiten gilt für das gesamte Einzugsgebiet. Es ist möglich, dass sehr kleine Teileinzugsgebiete vollständig in das Überschwemmungsgebiet fallen, aber im Allgemeinen hat jedes Teileinzugsgebiet zwei Landschaftseinheiten.

7.1.3 Landschaftseinheiten erstellen

Um Landschaftseinheiten zu definieren, klicken wir auf die Registerkarte Landschaft erstellen und dann auf die Schaltfläche Erstellen. Dies öffnet das Landschaftsanalyseformular (Abbildung 8).

Abbildung 8: Erstellen von Landschaftseinheiten durch Puffern von Streams

Es gibt drei mögliche Methoden zum Erstellen von Landschaftseinheiten. Die erste besteht darin, das Überschwemmungsgebiet einfach als Puffer zu gestalten, der um den Bach gezogen wird. Es ist keine Geländeanalyse erforderlich. Die Breite des Überschwemmungsgebiets auf jeder Seite des Baches wird als ein Vielfaches (standardmäßig 10) der Bachbreite festgelegt. Die Breite des Hauptstroms variiert mit der Entwässerungsfläche, so dass die

Die Breite der Überschwemmungsgebiete wird ebenfalls variieren und flussabwärts zunehmen. Diese Methode wird am ehesten verwendet, wenn das Gelände größtenteils flach ist und andere Methoden schlechte Ergebnisse liefern können.

Die zweite Methode heißt DEM-Inversion. Es wird berechnet, indem alle DEM-Höhen negiert und die Fließrichtungen neu berechnet und berechnet werden, wie viel Wasser dann Fluss in jeden Punkt, die Flussakkumulation. Punkte, an denen die Flussakkumulation a . überschreitet Schwelle, die Ridgeschwelle, werden als Ridge bezeichnet. Dies spiegelt genau die Methode von Berechnen, wo Ströme auftreten, und der Standardschwellenwert wird auf den gleichen Wert wie der Stromschwellenwert eingestellt. Eine Neigungsposition für jeden Punkt wird dann berechnet. Dies ist das Verhältnis des Tropfens von jedem Punkt, an dem sein Wasserfluss auf einen Bach trifft, zum Gesamttropfen von seinem Gratpunkt (wo sein umgekehrter Fluss auf einen Rücken trifft) zum selben Bachpunkt. Wenn dieses Verhältnis kleiner als der Schwellenwert für die Hangposition ist, ist seine Landschaftsposition Überschwemmungsgebiet, andernfalls ist es bergauf. 0,1 ist ein typischer Wert für die Neigungsposition und ist die Standardeinstellung (Abbildung 9)

Abbildung 9: Erstellen von Landschaftseinheiten durch Invertieren des DEM

Die dritte Methode zum Erstellen von Landschaftseinheiten ist die Zweiglängenmethode. Dabei wird dieselbe Neigungspositionsmethode verwendet, jedoch eine andere Methode zum Definieren von Graten. Wir können das berechnen

Zweiglänge eines beliebigen Paares benachbarter Punkte als kleinerer der Abstände von jedem Punkt zu

wo sich ihre Fließwege treffen (die unendlich sein können, wenn diese Pfade zu verschiedenen Wassereinzugsauslässen führen). Ein Punkt liegt auf einem Grat, wenn er eine Zweiglänge mit einem benachbarten Punkt hat, die einen Schwellenwert überschreitet. Dann verwenden wir für jeden Punkt in der Wasserscheide für seinen Bachpunkt, an dem sein Fließweg einen Bach trifft, und für seinen Kammpunkt den nächstgelegenen Punkt, der als auf einem Kamm klassifiziert ist, und berechnen seine Neigungsposition wie bei der DEM-Inversion. Benutzer sollten beachten, dass die Berechnung der Verzweigungslängenmethode möglicherweise eine Größenordnung länger dauert als die DHM-Inversion. Da nicht klar ist, welche Methode für eine bestimmte Wasserscheide am besten geeignet ist, muss die Wahl vom Benutzer getroffen werden und wird wahrscheinlich am besten visuell getroffen. Die Schnittstelle ermöglicht es daher, mehrere Versionen möglicher Landschaftseinheiten zu erstellen und später beim Erstellen von HRUs eine auszuwählen. Zu diesem Zweck zeigen Landschaftseinheitsraster nur die Überschwemmungsfläche und sind angegeben der Name bufferfloodn wenn durch Pufferung erzeugt, wobei n der Puffermultiplikator ist, invfloodn_m wenn erzeugt durch DEM-Inversion, wobei n.m der Schwellenwert für die Neigungsposition ist und branchfloodn_m wenn_ durch die Zweiglängenmethode erstellt. Benutzer können daher auf Wunsch mehrere erstellen

Kandidaten mit unterschiedlichen Methoden und/oder unterschiedlichen Parametern. Abbildung 10 zeigt das Ergebnis der Erstellung von drei mit jeder der Methoden mit den Standardparametereinstellungen, wobei nur die dritte derzeit im Kartenbereich sichtbar ist. Für diese Übung sollten Sie die gleichen drei Auenraster. Klicken Sie auf Fertig, um das Formular Landschaftsanalyse zu schließen.

Abbildung 10: Potentielle Überschwemmungsraster erstellt

7.1.4 Teilgebiete zusammenführen

In QSWAT+ können Benutzer Teilgebiete auswählen und zusammenführen. Dies ist besonders wichtig bei der Vermeidung kleine Unterbecken. Um Teilbecken zusammenzuführen, wählen Sie die Option Teilbecken auswählen im Menü Zusammenführen Registerkarte Unterbecken. Halten Sie die Strg-Taste gedrückt und klicken Sie in die Teilbecken, die Sie auswählen möchten. Ausgewählt Unterbecken werden gelb und unten links im Dialogfenster wird eine Zählung angezeigt (Abbildung 11).

Abbildung 11: Für Zusammenschluss identifiziertes Teilgebiet

Für diese Übung werden wir das ausgewählte Teilbecken nicht zusammenführen. Lassen Sie die Strg-Taste los und klicken Sie auf die Karte außerhalb der Wasserscheide und das ausgewählte Teilbecken wird deselektiert. Wenn Sie die Option Kleine Teilbecken auswählen aktivieren, können Sie untenstehende Teilbecken zusammenführen ein bestimmter Schwellenwert (d. h. entweder die Fläche in Hektar oder ein Prozentsatz der mittleren Teilgebietsfläche) (Abbildung 12). Klicken Sie für diese Übung auf das Optionsfeld Prozentsatz der mittleren Fläche und lassen Sie das Standardwert 5 im Feld daneben. Klicken Sie auf Auswählen. Es zeigt Ihnen Unterbecken mit einer weniger als 5 % der mittleren Fläche. Wenn Sie fertig sind, klicken Sie auf „Speichern“, um Ihre Auswahl zu speichern, oder „Abbrechen“, um Ihre Auswahl zu verwerfen. Klicken Sie auf Zusammenführen, um die Zusammenführung durchzuführen. Hinweis: Sie Ein Teilgebiet, das an seinem Ausgang einen Auslass oder Einlass hat, kann nicht zusammengeführt werden. In diesem Beispiel ist das einzige kleine Teilbecken das am Wassereinzugsgebiet, das nicht zusammengeführt werden kann, und QSWAT+ wird dies melden.

Abbildung 12. Teileinzugsgebiete mit einer Fläche von weniger als 5 % der mittleren Teileinzugsgebietsfläche, die für die Verschmelzung vorgesehen ist stromabwärts gelegene Unterbecken.

Die dritte Registerkarte im Abgrenzungsformular ist das Hinzufügen von Seen. Wir haben keine Seen in unserem Robit Beispiel, und es ist ein wesentliches Thema, daher werden wir später in Abschnitt 11 darauf zurückkommen.

Um die Abgrenzung der Wasserscheide abzuschließen, müssen Sie auf OK klicken. Das rechnet und spart Informationen über die Wasserscheide mit der Meldung Topologie konstruieren und verursacht die Unterbecken zu nummerieren. Dieser Schritt beendet die Abgrenzung der Wasserscheide und aktiviert das Erstellen the HRUs-Option (Abbildung 13).

Abbildung 13. Die Abgrenzung der Wasserscheide ist abgeschlossen und HRUs erstellen ist aktiviert

7.2.1 Landnutzungs- und Bodenkarten

Nachdem Sie die Becken berechnet haben, die Sie benötigen, um die Details des Hydrologischen zu berechnen calculate

Response Units (HRUs), die von SWAT+ verwendet werden. Dies sind Unterteilungen von Einzugsgebieten in kleinere Einheiten, von denen jede eine bestimmte Kombination aus Boden/Landnutzung (Getreide)/Neigungsbereich aufweist.

Dazu klicken wir auf Create HRUs, wählen Robit/Landuse/roblandusenew/hdr.adf als Landnutzungskarte und wählen Sie Robit/Soil/mowr_soil90/hdr.adf als Bodenkarte. Sie können es bemerken dass die Landnutzungskarte wie ausgewählt als ESRI-Raster mit dem Namen hdr.adf geladen wird. Aber der Boden map heißt statt mowr_soil90/hdr.adf mowr_soil90_clip.tif. Das ist weil QSWAT+ prüft, ob Landnutzungs- und Bodenkarten wesentlich größer als das DEM sind (mindestens 10 DEM-Pixel in jede Richtung) und schneidet sie gegebenenfalls ab, um das Laden einer größeren Karte als nötig zu vermeiden. Das Clipping konvertiert sie auch in das GeoTiff-Format. Wenn Sie solche Karten für QSWAT+ vorbereiten, müssen Sie also sicherstellen, dass ihre Projektion mit dem DEM übereinstimmt und dass sie das Wassereinzugsgebiet leicht abdecken, aber machen Sie sich keine Sorgen, sie zuzuschneiden

Tabelle bzw. Bodentabelle.

Wählen Sie für Landnutzung die Option CSV-Datei verwenden im Pulldown-Menü Landuse-Tabelle. Eine Form erscheint und fragt nach der CSV-Datei für die Landuse-Suche. Navigieren Sie zu Robit/Robit_landuses.csv und klicken Sie auf Öffnen. Dies liest die CSV-Datei und erstellt eine Tabelle Robit_landuses in der Projektdatenbank. Das csv-Datei hat die geeignete Struktur für eine Landnutzungs-Lookup-Tabelle. Der Inhalt ist in Abbildung 14 dargestellt. Die erste Zeile, die normalerweise eingeschlossen ist, wird ignoriert, wenn ihr erstes Feld nicht numerisch ist. Auf jeder anderen Zeile ist das erste Feld, das durch ein Komma getrennt ist, ein Wert aus der Landnutzungskarte. Das zweites Feld ist ein SWAT+ Landnutzungscode, wie er in einer der Tabellen plant or urban in the . gefunden wird Projektdatenbank oder wie vom Benutzer in einer neuen Tabelle definiert. Optional eine dritte Spalte mit Überschrift BESCHREIBUNG kann eingefügt werden, und ein drittes Textfeld (eventuell leer, aber vorangestellt durch ein Komma) in jeder folgenden Zeile enthalten. Mehr als ein Kartenwert kann demselben Landnutzungscode zugeordnet sein, aber Kartenwerte dürfen nicht wiederholt werden. Der Tabellenname wird bestimmt als folgt. Erstens, wenn der Dateiname Landnutzung enthält (wie bei uns), wird er als Grundlage verwendet. Ansonsten wird landuse_lookup als Basis verwendet. Zweitens, wenn die Basis nicht als Tabelle existiert name wird es verwendet, ansonsten wird nacheinander 0, 1 usw. angehängt, bis ein unbenutzter Tabellenname ist gefunden und verwendet. In unserem Fall ist Robit_landuses der Tabellenname. Sie müssen nicht lesen die csv-Datei erneut: Wenn Sie das Projekt erneut ausführen, wird Robit_landuses im Pulldown-Menü verfügbar sein (und ist die Standardauswahl, da sie in der Projektdatei als Landnutzungs-Lookup-Tabelle aufgezeichnet wird).

Abbildung 14: Robit_landuses.csv

Die SWAT+ Landnutzungscodes sind in der Regel in den Tabellen Werk oder Stadt im Projekt zu finden Datenbank, aber es steht den Benutzern frei, ihre eigenen Tabellen einzurichten. Erstens können sie die Landnutzung ändern und Bodendatenbank von ihrem Standardwert der Projektdatenbank in eine andere Datenbank um. Zweitens die Pflanze oder

urban table muss diesen Namen nicht verwenden: die Pulldown-Menüs mit den Bezeichnungen Plant table und Urban

table wird alle Tabellen mit plant bzw. urban in ihren Namen aufnehmen. Benutzer können auch Verwenden Sie die CSV-Optionen in diesen Menüs, um eine CSV-Datei mit den entsprechenden Daten zu laden und zu erstellen ein passender Tisch.

Bei Rastermodellen, bei denen Rasterzellen möglicherweise nur wenige Landnutzungszellen enthalten, besteht die Gefahr, dass Nodata-Landnutzungszellen dazu führen können, dass die gesamte Rasterzelle keinen Landnutzungswert hat. Um dies zu vermeiden, werden nodata-Landnutzungswerte durch einen Standardwert ersetzt. Der Standardwert ist der Wert, der in der Landuse-Lookup-Tabelle durch Null abgebildet wird, andernfalls der zuerst gelesene. Da die Reihenfolge der Einträge in Datenbanktabellen beliebig ist, empfiehlt es sich, 0 in Nachschlagetabellen aufzunehmen, wenn Sie Rastermodelle erstellen.

Wählen Sie für Boden auf ähnliche Weise die Option CSV-Datei verwenden aus, und öffnen Sie dann Robit/Robit_soils.csv. Es bildet Werte ab von unserer Bodenkarte bis zu Bodennamen, die im SNAM-Feld der Benutzeröltabelle gefunden werden, sind wir dabei erstellen.

7.2.2 Bodeneigenschaften definieren

Sofern sich unser Projekt nicht in den USA befindet und wir SSURGO oder STATSGO verwenden, benötigen wir auch eine Tabelle zur Beschreibung der Bodeneigenschaften. Dies hat traditionell einen Namen useroil, oder einen, der das beinhaltet Name und ist normalerweise in der Projektdatenbank zu finden. Dies sind die derzeit im Formular vorhandenen Standardwerte für die Datenbank und den Tabellennamen. Sie können die Datenbank ändern, wenn Sie Ihre Bodendaten in einer anderen SQLite-Datenbank, (diese muss jedoch Ihre Pflanzen- und Stadttabellen enthalten, da gut) und Sie können jede Tabelle mit useroil im Namen verwenden. Die Standardeinstellung global_usersoil im Projektdatenbank ist für die globalen Bodenkarten der FAO geeignet, aber nicht in unserem Fall. Lassen Sie die Standardauswahl der Landnutzungs- und Bodendatenbank unverändert (die Projektdatenbank), stellen Sie sicher die Option Bodendaten ist auf usersoil eingestellt und wählen Sie CSV-Datei verwenden im Pulldown-Menü der Usersoil-Tabelle Speisekarte. Öffnen. Robit/Robit_usersoil.csv zum Erstellen und Auswählen der Tabelle Robit_usersoil.

Die anderen Bodendatenoptionen gelten für Wassereinzugsgebiete in den USA, für die Sie verwenden STATSGO-, STATSGO2- oder SSURGO-Bodenkarten. Wenn Sie das STATSGO oder das SSURGO/STATSGO2 Option werden Bodendaten automatisch aus dem

swatplus_soils.sqlite-Datenbank, die in SWATPlus/Datenbanken gespeichert ist. Es wird keine Bodensuchtabelle benötigt

mit SSURGO/STATSGO2. Für STATSGO ist eine Nachschlagetabelle erforderlich, die den Boden kartiert Ordnen Sie Werte einer von vier Optionen zu, die alle auf der Tabelle statsgo in swatplus_soils.sqlite basieren:

1. Muid-Werte wie AL001

2. muid+seqn-Werte wie AL001+1

3. muid+name Werte wie AL001+DICKSON 4. s5id-Werte wie TN0042

Die Nachschlagetabelle muss eine dieser Optionen konsistent verwenden. Wo das Suchziel übereinstimmt mehr als eine Zeile in der statsgo-Tabelle die erste (nach steigenden ID-Werten geordnet) wird verwendet. Die vier obigen Beispiele würden also alle die erste Zeile (ID 1) in der Tabelle ergeben.

Wir werden eine der zuvor erstellten Überschwemmungskarten verwenden, um unsere Teilgebiete in

Landschaftseinheiten bzw. Verwenden Sie das Pulldown-Menü mit der Bezeichnung Überschwemmungskarte auswählen (optional), um auszuwählen

invflood0_10.tif. Dieses Menü enthält alle Dateien, die in den Projektdateien gefunden wurden

Ordner Watershed/Landscape/Flood: Sie können solche Dateien selbst hinzufügen, wenn Sie möchten. Sie brauchen

Raster mit derselben Projektion wie das Projekt sein und muss den Wert 1 für Überschwemmungspixel und sonst keine Daten haben. Wenn Sie nicht aus diesem Menü auswählen. keine Landschaftseinheiten erstellt werden. Wenn Sie in diesem Ordner Ihre eigenen Hochwasserkarten platzieren, sollten Sie die

diejenigen mit durchschnittlichen Steigungen über 10 %. Geben Sie 10 in das Feld ein und klicken Sie auf Einfügen. Die Pistenbänder Kästchen zeigt an, dass die Zwischengrenze eingefügt ist.

Wir werden auch ein FullHRUs-Shapefile generieren: Klicken Sie in das Kontrollkästchen. Das Generieren dieser Datei ist optional, da es bei vielen HRUs einige Zeit dauern kann. Wenn Sie HRU-Ausgaben nach dem Ausführen von SWAT+ visualisieren möchten, müssen Sie diese Datei generieren.

Um die Daten aus den DEM-, Landnutzungs-, Boden- und Hangkarten einzulesen und die Berechnung vorzubereiten HRUs, stellen Sie sicher, dass Aus Karten lesen aktiviert ist und klicken Sie auf Lesen (Abbildung 15). Es gibt auch eine Option Aus vorheriger Ausführung lesen. Dies kann beim erneuten Ausführen des Projekts verwendet werden, sofern Sie den Abgrenzungsschritt nicht erneut ausgeführt und die Boden- oder Landnutzungseingaben oder die Neigungsbänder nicht geändert haben, um Informationen aus der Projektdatenbank abzurufen, anstatt die Raster erneut zu lesen. Das Auslesen aus der Datenbank geht wesentlich schneller.

seine Nachschlagetabelle. (Dies sollte auch für die Bodenkarte passieren, aber in diesem Fall gibt es anscheinend einen sehr breiten Wertebereich, von 106 bis 198, aber QGIS erkennt nicht, dass tatsächlich nur 4 Werte vorkommen.).

 Shapefiles Full HRUs und Full LSUs wurden erstellt und hinzugefügt. Dies ermöglicht Benutzern um zu sehen, wo sich in jedem Teileinzugsgebiet die Landschaftseinheiten (LSUs) und potenzielle Hydrological Response Units (HRUs) physisch befinden. Eine Landschaftseinheit ist die Region, die in einen Kanalbereich entwässert, weiter unterteilt in die Überschwemmungs- und Aufwärtsgebiete, wenn ein Überschwemmungsraster verwendet wird. LSUs bilden einzelne Regionen: Sie bilden jeweils ein einzelnes Polygon. Eine HRU ist die Sammlung von Pixeln innerhalb einer LSU, die denselben Landnutzungs-, Boden- und Neigungsbereich aufweisen. HRUs bilden typischerweise eine Sammlung von Polygonen. Wenn wir zum Beispiel Subbasin 3 vergrößern, wählen Sie im Legenden-Panel (linke Taste) Full HRUs, öffnen Sie seine Attributtabelle (rechte Taste), stellen Sie die Maus auf Feature(s) auswählen (QGIS-Symbolleiste) oder verwenden Sie

View -> Select -> Select Feature(s)) und klicken Sie auf den Südosten von Subbecken 3, dann

Scrollen Sie durch die Attributtabelle, um die ausgewählte Linie zu finden, dann erhalten wir eine Ansicht wie in Abbildung 17. Wir sehen, dass diese potenzielle HRU aus mehreren Teilen besteht, sich wie erwartet im Subbecken 3 befindet, in Kanal 57 entwässert, die Landschaftseinheit Upslope hat , Landnutzung AGRL, den Boden LVx und das Neigungsband 10 nach oben. Seine Fläche von 18,45 ha beträgt 5,4 % von das Teilbecken und 59,9 % der ansteigenden Landschaftseinheit des Kanals. Schließen Sie das Attribut Tabelleneditor. Das Generieren des FullHRUs-Shapefiles ist optional, da es einige Zeit in Anspruch nehmen kann, ist jedoch erforderlich, wenn Sie später HRU-Ergebnisse visualisieren möchten. Zählungen der Teilbecken (9), Kanäle (87) und vollständige (potenzielle) HRUs (516) werden in HRUs erstellen angezeigt bilden, ob die FullHRUs-Datei erstellt wird oder nicht.

Abbildung 17: Anzeigen einer bestimmten HRU

Bevor Sie mit der HRU-Definition fortfahren, sehen Sie im Hauptfenster von QSWAT+ dass ein neues Element Bericht zum Anzeigen auswählen verfügbar ist und Sie nur zwei anzeigen können Berichte an dieser Stelle, bei denen es sich um die Höhen- und Landnutzungs- und Bodenberichte handelt. Die Höhe Der Bericht gibt Auskunft darüber, wie viel Land sich auf jeder Höhe von der niedrigsten bis zur höchsten befindet, sowohl für das gesamte Einzugsgebiet als auch für jedes Teileinzugsgebiet (Abbildung 18). Der Landnutzungs- und Bodenbericht listet die Landnutzungs-, Boden- und Hangbandflächen für jedes Teilgebiet auf (Abbildung 19). Es listet auch die Bereiche, unterteilt in Querformat-Einheiten, falls diese verwendet werden, für jede Kanalreichweite auf.

(in unserem Fall 9 Hektar) können die Kanalreichweiten innerhalb des Netzes sehr kurz sein, da die Kreuzungen zufällig nahe beieinander liegen und ihre Einzugsgebiete entsprechend klein sind. Abbildung 20 zeigt eine nur 72,4 Meter lange Kanalstrecke im Teilgebiet 3 mit einem Einzugsgebiet, Landschaftseinheit (GBE) Nummer 121 (gelb markiert) von nur 0,54 ha. Dies ist in der Tat in 2 potenzielle HRUs unterteilt, eine von nur 0,09 ha! Solche HRUs werden am besten entfernt, da SWAT+ Zeit damit verbringt, sie zu verarbeiten, ihr Effekt jedoch unbedeutend ist. Wir werden später kleine HRUs entfernen, aber es gibt eine Regel, dass jede Kanalreichweite und sogar jede Landschaftseinheit, wenn wir sie verwenden, mindestens eine behält. Um dem entgegenzuwirken, besteht die Möglichkeit, kurze Gerinne in benachbarte zu verschmelzen, indem man einen Schwellenwert entweder in Prozent des Teilgebiets oder als Fläche in Hektar wählt und das Gerinnenetz neu erstellt. Verwenden Sie den Schieberegler im

Kurze Kanalzusammenführungsgruppe (oder geben Sie in das Feld ein), um den Schwellenwert auf 2% einzustellen, wählen Sie die Option Erneut zusammenführen Option für kurze Kanäle und klicken Sie erneut auf Lesen. Wir sehen, dass die Kanalzahl auf 72 sinkt, und

die vollen HRUs zählen bis 4552. Wenn wir den Landnutzungs- und Bodenbericht für das Teilgebiet 3 betrachten, sehen wir, dass die kleinste Kanaleinzugsfläche jetzt 2,62 % des Teilgebiets mit einer Einzugsfläche von 9 Hektar beträgt. Wenn wir dies immer noch für zu klein halten, können wir den Schwellenwert für den kurzen Kanal ändern und Klicken Sie erneut auf Lesen. Aber wir werden mit der Einstellung fortfahren, die wir haben. Die kurze Kanalzusammenführung Schwelle kann vor dem ersten Read eingestellt werden, wenn Sie möchten.

Abbildung 20: Kleine Kanalreichweite und ihr Entwässerungsgebiet

7.2.4 Aufteilung und Freistellung von Landnutzungen

An dieser Stelle haben Sie die Möglichkeit, Landnutzungen aufzuteilen und Landnutzungen auszunehmen, beides

beeinflusst, wie HRUs definiert werden.

 Durch das Aufteilen von Landnutzungen können Sie genauere Landnutzungen definieren, als es Ihre Landnutzungskarte bietet. Wenn Sie beispielsweise wissen, dass in diesem Einzugsgebiet 50 % des AGRL (generisches Agrarland) für Mais und die anderen 50 % für Teff verwendet werden, könnten Sie AGRL in 50 % MAIS und 50 % TEFF aufteilen (Abbildung 21 ). Es ist möglich, die ursprüngliche Landnutzung (hier AGRL) als eine der Unterlandnutzungen zu nutzen. Die Prozentsätze sind ganze Zahlen und müssen für jede geteilte Landnutzung 100 ergeben. Teilen Sie AGRL in 50 % MAIS und 50 % TEFF auf als gezeigt. Wählen Sie dazu zunächst AGRL im Pulldown-Menü Landnutzung zum Aufteilen auswählen aus. Dadurch wird sofort ein Select sub-landuse-Formular ausgelöst. Wählen Sie MAIS und klicken Sie auf OK. Damit ist die erste Zeile der Tabelle abgeschlossen. Klicken Sie auf die Schaltfläche Unterlandnutzung hinzufügen, wählen Sie TEFF und klicken Sie auf OK. Dies fügt die zweite Zeile hinzu. Ändern Sie dann die beiden Prozentsätze in 50, klicken Sie auf Änderungen speichern, um den Inhalt der Tabelle als geteilte Landnutzung zu speichern, und schließlich Klicken Sie auf Splits speichern, um das Formular auszufüllen und zu verlassen.

 Durch die Freistellung von Landnutzungen können wir sicherstellen, dass eine Landnutzung in der HRU erhalten bleibt

Berechnung, auch wenn sie unter die Schwellenwerte fällt, die wir später definieren werden. Beispielsweise könnten wir beschließen, die Waldnutzung FRST auszunehmen (Abbildung 22). Machen Sie diese Ausnahme.

Abbildung 22: Freistellung einer Landnutzung

7.2.5 Teiche und Stauseen

Es gibt 3 Möglichkeiten, in QSWAT+ Teiche und Reservoirs zu bilden:

1. Seen können hinzugefügt werden, und diese müssen entweder als Teiche oder als Reservoirs ausgewiesen werden. Siehe Abschnitt 11.

2. Punkte können als Teich- oder Reservoirpunkte im Zu-/Ablauf-Shapefile identifiziert werden. In diesem Fall muss sich jeder dieser Punkte innerhalb des Fangpunkts eines Kanals befinden. Der Kanal wird am Schnapppunkt in zwei Teile geteilt, wobei der stromabwärts gelegene Teil als Kanal verbleibt und der stromaufwärts gelegene Teil zu einem Teich oder Reservoir wird. Alle Pixel mit Landnutzungs-WATR in der angrenzenden LSU werden Teil des Teichs oder Reservoirs, anstatt potenziell HRUs werden. Hier ist die angrenzende LSU des Kanals die Überschwemmungs-LSU, wenn a Auenkarte ausgewählt ist, sonst die gesamte LSU.

3. Ein Reservoirschwellenprozentsatz kann eingestellt werden. Dies ist der Mindestprozentsatz von WATR in der angrenzenden LSU für das WATR-Gebiet, um ein Reservoir zu werden. Wenn das Schwelle erreicht ist, wird die Rinne durch ein Reservoir ersetzt, mit Fläche die WATR-Fläche von die angrenzende LSU. Der Standardschwellenwert beträgt 101%, wodurch der

automatisches Anlegen von Reservoirs. Wenn wir den Schwellenwert an dieser Stelle ändern, benötigen wir zum erneuten Auslesen der Daten aus den Landnutzungs-, Boden- und Hangkarten: Aus vorherigem Lauf lesen ist ausgewählt und die HRU-Erstellungsoptionen sind deaktiviert, bis wir erneut auf Lesen klicken. Das Die Einstellung für die kurze Kanalzusammenführung wird beibehalten (oder kann geändert werden) und wird erneut angewendet. Verbundene Kanäle, die die Schwelle zur Bildung automatischer Reservoirs erfüllen, bilden ein einzelnes Reservoir. Ausgenommen hiervon ist, wenn bei der Abgrenzung ein Teich oder ein Stausee auf einem Kanal markiert wurde. Die Lage des Teiches oder Reservoirs verhindert eine Kombination mit einem stromabwärts gelegenen Reservoir. Dies gibt Benutzern die Möglichkeit, das ansonsten automatische Zusammenführen von Reservoirs zu steuern.

Kanäle, die zu Teichen oder Reservoirs werden, verschwinden effektiv aus dem Leitungsnetz (Wasserfluss). Kanäle, Landschaftseinheiten und HRUs, die normalerweise zu ihnen geleitet würden, werden stattdessen zum Teich oder Reservoir geleitet.

Diese Wasserscheide hat keine WATR-Gebiete und somit könnten sich auch bei einer Reduzierung der Reservoirschwelle keine Stauseen oder Teiche bilden.

Nachdem alle Daten eingelesen und gespeichert wurden, ist die Auswahl Single/Multiple HRUs aktiviert. Dominante Landnutzung, Boden, Hang und Dominante HRU-Optionen bieten jeweils nur eine HRU Querformat (d. h. jede ist eine einzelne HRU-Option). Dominante Landnutzung, Boden, Hang wählt die Landnutzung mit der größten Fläche in der Landschaftseinheit, den Boden mit der größten Fläche in der Landschaftseinheit und den Hangbereich mit der größten Fläche in der Landschaftseinheit und nutzt sie für die gesamte Landschaftseinheit. Dominante HRU wählt die größte der potenziellen HRUs in jede Landschaftseinheit und macht ihre Landnutzungs-, Boden- und Neigungsbereiche zu denjenigen, die für die gesamte Landschaftseinheit gewählt werden.

Die Optionen mit Filtern nach Landnutzung, Boden, Neigung Filtern nach Fläche und Zielanzahl von HRUs erstellen mögliche mehrere HRUs in jeder Landschaftseinheit. Für die Option Mehrere HRUs Benutzer können unbedeutende HRUs ausschließen, indem sie prozentuale Schwellenwerte oder Flächen berücksichtigen or Schwellen. Die Option Nach Landnutzung, Boden und Neigung filtern, ignoriert potenzielle HRUs für die Landnutzung, Boden oder Neigung kleiner als der gewählte Schwellenwert sind. Die Bereiche von HRUs, die ignoriert werden, werden proportional auf die Bereiche verteilt, die in jedem beibehalten werden Landschaftseinheit. Die Option Nach Bereich filtern ignoriert HRUs, die unter einem angegebenen . liegen Schwellenwert (entweder Prozent der Landschaftseinheit oder Fläche). Endlich die Option von Target Anzahl der HRUs begrenzt die Anzahl der HRUs im gesamten Einzugsgebiet auf einen bevorzugten Benutzer user (d. h. zwischen der Untergrenze von einer HRU pro Landschaftseinheit und der Obergrenze der Beibehaltung aller potentiellen HRUs).

Verwenden Sie für diese Übung die Methode Filtern nach Landnutzung, Boden und Neigung und wählen Sie die Schwellenwertmethode für Prozent der Landschaftseinheit. Für Landnutzung ist der Wert von 51 als Maximum, das wir wählen können, gibt an, dass es eine Landschaftseinheit gibt, bei der der Höchstwert für eine Landnutzung 51% beträgt. Wenn wir einen höheren Wert als 51 % wählen, versuchen wir, alle Landnutzungskategorien in dieser Landschaftseinheit zu ignorieren. Daher ist 51% das Minimum über die

Landschaftseinheiten des maximalen Landnutzungsprozentsatzes in jeder Landschaftseinheit. Für diese Übung, Wählen Sie 10 % für Landnutzung aus, indem Sie den Schieberegler verwenden oder in das Feld eingeben, und klicken Sie auf Los. Das

Interface berechnet dann den Min-Max-Prozentsatz für einen Boden als 51%. Wählen Sie 10 für Boden, klicken Sie auf Gehen. Wählen Sie auf ähnliche Weise 10 für die Steigung. In dieser Phase kann der Benutzer HRUs erstellen, indem er auf Erstellen . klickt HRUs (Abbildung 23). Die Anzahl der erstellten HRUs (651) wird oben auf der Karte angezeigt Segeltuch. (Diese Zahl ist aufgrund der Aufteilung der AGRL-HRUs höher als die Anzahl der FullHRUs (455), die zuvor gemeldet wurden.)

Abbildung 23: Erstellen mehrerer HRUs durch Filtern nach Landnutzung, Boden und Neigung

HRUs erstellen wird nun als erledigt gemeldet und der dritte Schritt ist aktiviert (Abbildung 24). Eine Datei Aktuell Act

LSUs wurden hinzugefügt, und wenn Sie eine Datei mit vollständigen HRUs angefordert haben, wurde auch eine Datei mit tatsächlichen HRUs hinzugefügt

hinzugefügt worden. Diese enthalten die tatsächlichen LSUs nach jeder Kanalzusammenführung und die potenziellen HRUs, die als tatsächliche HRUs beibehalten wurden (und weisen daher typischerweise einige Lücken auf, die diejenigen darstellen, die nicht beibehalten wurden). Die Shapefile-Attribute-Tabelle der tatsächlichen LSUs zeigt die LSU-Kennungen, die

Kanal und das Unterbecken. Die Shapefile-Attributtabelle der tatsächlichen HRUs zeigt das Teilgebiet und den Kanal, die Landschaftskategorie, die (ursprüngliche) Landnutzung, den Boden und das Neigungsband sowie die HRU-Nummer(n). Bei geteilten HRUs kann es mehr als eine HRU-Nummer für ein Shape geben, da es unmöglich ist, in einem Shapefile die Aufteilung des Originals durch beliebige Beträge anzuzeigen potenzielle HRUs. Wenn Sie sich die jetzt verfügbaren Berichte ansehen, werden Sie feststellen, dass es eine HRUs gibt Bericht, der nur die nach der HRU-Auswahl verbleibenden Landnutzungen, Böden und Hangbänder enthält und auch Details zu den gebildeten HRUs enthält (Abbildung 25). Wenn Sie die ändern möchten HRU-Schwellenwerte, dann können Sie erneut auf die Schaltfläche HRUs erstellen klicken und Lesen von auswählen vorherigen Durchlauf, klicken Sie auf Lesen, ändern Sie die Schwellenwerte und/oder die Landnutzungen, die aufgeteilt oder ausgenommen werden sollen, und führen Sie den Schritt HRUs erstellen erneut aus.

Abbildung 25: HRUs-Bericht

Ein neues Shapefile wurde hinzugefügt, Titel Channel reicht. Dieser wird aus den Kanälen gebildet Shapefile, das während der Abgrenzung erstellt wurde, aber Kanäle zusammengeführt hat. Ein weiteres Shapefile, das die automatisch zu jedem Kanal hinzugefügten Punktquellen und alle hinzugefügten Reservoirs anzeigt, wurde ebenfalls hinzugefügt. Zur Vereinfachung wird jedem Kanal eine Punktquelle hinzugefügt. Benutzer können Daten (im SWAT+ Editor) für beliebige Punktquellen hinzufügen, die sie in ihr Modell aufnehmen möchten: Punktquellen ohne Daten werden ignoriert.

Es wird dringend empfohlen, das Projekt zu diesem Zeitpunkt (über das Dateimenü von QGIS) zu speichern. Sie können jetzt auf die Schaltfläche Edit Inputs and Run SWAT klicken, um den SWAT+ Editor zu starten. Stellen Sie die restlichen Parameter und Eingabedaten ein, die Sie benötigen, und führen Sie das SWAT+-Modell aus. Dieses Dokument behandelt nicht den Editor - Sie müssen die SWAT+ Editor-Dokumentation konsultieren

für Details, aber es gibt ein paar Dinge, die Sie wissen müssen, um das Robit-Beispiel auszuführen. Überprüfen Sie den nächsten Unterabschnitt, bevor Sie den Editor starten.

 Einrichten des Robit-Beispiels im SWAT-Editor

Vor dem Start können Sie Wettergeneratorinformationen vorbereiten. Die Robit-Beispieldaten nimmt solche Daten in das Robit-Verzeichnis auf, und es sind keine weiteren Vorbereitungen erforderlich.

Zweitens müssen Sie (sofern vorhanden) beobachtete Wetterdaten angeben. Das Robit-Beispiel Daten enthalten solche Daten in Robit/ClimateRobit, und es ist keine weitere Vorbereitung erforderlich.

Klicken Sie nach dem Starten des Editors (Abbildung 26) auf Start, um die Projekt- und Referenzdatenbanken zu importieren. Klicken Sie dann auf dem Bildschirm mit der Projektzusammenfassung (Abbildung 27) auf Erste Schritte und dann auf das nächste

Bildschirm Wettergeneratoren jetzt hinzufügen.

Abbildung 27: Projektzusammenfassung SWAT+ Editor

Um den Wettergenerator einzurichten, klicken Sie auf Daten importieren und wählen Sie CSV-Dateien als Datenformat aus. Navigieren Sie zu Robit/WGEN_Robit_stat.csv als Stations-CSV-Datei und

Robit/WGEN_Robit_mon.csv als CSV-Datei mit Monatswerten. Aktivieren Sie das Kontrollkästchen, um anzugeben, dass

Abbildung 28: Wettergeneratordaten importieren

Die Daten des Wetterdatengenerators werden importiert und Sie sehen eine einzelne Zeile, da in diesen Daten nur eine einzige Station vorhanden ist (Abbildung 29).

Abbildung 29: Importierte Wettergeneratordaten

Wählen Sie bei eingerichtetem Wettergenerator oben links Wetterstationen aus. Im Wetter Klicken Sie im Formular Stationen auf Daten importieren. Die von Robit beobachteten Daten liegen im SWAT2012-Format vor, also Lassen Sie dies als Auswahl im ersten Feld. Navigieren Sie zum Verzeichnis der Wetterdateien, um das Ordner Robit/ClimateRobit. Für ein Verzeichnis zum Speichern der Dateien können Sie überall wählen, wo Sie wie, aber der Standard des Ordners Scenarios/Default/TxtInOut, in dem andere Eingabedateien abgelegt werden gespeichert, ist eine sinnvolle Wahl. Klicken Sie auf Start (Abbildung 30).

Abbildung 30: Importieren von beobachteten Wetterdaten

Das Formular Wetterstationen wird erneut angezeigt und zeigt eine einzelne Station mit Daten für Niederschlag, Temperatur, Sonneneinstrahlung, relative Luftfeuchtigkeit und Windgeschwindigkeit (Abbildung 31).

Abbildung 31: Beobachtete Wetterdaten importiert

7.3.2 Simulationszeitraum

Klicken Sie links auf das dreieckige Symbol für Run SWAT+, um die Simulationseinstellungen zu öffnen Seite (Abbildung 32).

Abbildung 32: Simulationseinstellungen

Unter Simulationseinstellungen kann der Ordner für die SWAT+ Eingabedateien als Standard belassen werden. Wählen Sie Simulationszeitraum festlegen.

Wir haben tägliche Daten für Anfang 1990 bis Ende 2013, aber um den Zeitaufwand für die Ausführung und den Import der Ausgabedaten gering zu halten, beschränken wir den Zeitraum auf 1990 bis 2000. Verwenden Sie die Datumsauswahl, um das Enddatum in . zu ändern 31. Dezember 2000. Beachten Sie, dass Sie das Jahr sowohl um Dekaden als auch um Jahre vor- oder zurückstellen können. Nach Auswahl des Jahres müssen Sie auf den Tag (31. Dezember) klicken, um die Änderung zu registrieren (Abbildung 33).

Abbildung 33: Enddatum der Simulation einstellen

Wählen Sie Ausgabe zum Drucken auswählen. . Wir verwenden 3 als Aufwärmphase. SWAT+ läuft für die ersten drei drei Jahre, aber die Ausgabe wird ignoriert.

Für die zu druckenden Objekte ist eine Ausgabe vorausgewählt. Wir werden eine Vielzahl von Ausgaben visualisieren, also Wählen Sie nur drei der oberen Felder unter Monatlich, Jährlich und Durchschnitt aus. Dann suchen und hinzufügen

Kanal unter Daily, den wir für die Berechnung der Umweltströme benötigen. Wir werden nicht

schließen Sie andere tägliche Ausgaben ein, da es einige Zeit dauern wird, fast 3000 Datensätze für jeden Kanal, lsu oder hru in die angeforderte Ausgabe zu schreiben (Abbildung 34).

Abbildung 34: Druckoptionen einstellen

Scrollen Sie nach unten und stellen Sie sicher, dass Eingabedateien schreiben, SWAT+ ausführen und Ausgabe analysieren für Visualisierung sind alle überprüft (Abbildung 32). Wir brauchen nicht die Debug-Version, die Sie würde normalerweise nur verwenden, wenn das Modell Fehler aufweist, um weitere Informationen zu erhalten. Klicken Sie auf Speichern Einstellungen und Ausführung ausgewählt. Wir sehen, wie die Eingabedateien geschrieben werden, dann wird SWAT+ ausgeführt, und die Ausgabedateien werden gelesen. Sie werden in einer Ausgabedatenbank gespeichert,

swatplus_outputs.sqlite im Ordner Scenarios/Default/Results. Wir haben viele ausgewählt

Ausgänge, so dass dies einige Minuten dauert. Wenn es fertig ist, können wir den SWAT+-Editor beenden. 8. Ausgabevisualisierung mit QSWAT+

Nachdem SWAT+ ausgeführt und die Ausgabe importiert wurde, sodass eine Ausgabedatenbank vorliegt

swatplus_output.sqlite im Verzeichnis Scenarios/Default/Results des Projekts, dann eine Schaltfläche Visualize wird im QSWAT+-Hauptformular verfügbar (Abbildung 35). Visualisierung ermöglicht

Abbildung 35: QSWAT+-Hauptformular mit Visualisierungsschaltfläche

Klicken Sie im QSWAT+-Hauptformular auf Visualisieren, um das Formular Ergebnisse visualisieren anzuzeigen (Abbildung 36). Hier zeigt das Pulldown-Menü Szenario auswählen die Simulationen oder Szenarien an, die verfügbar, derzeit nur die Standardeinstellung. Wählen Sie diejenige aus, die Sie anzeigen möchten. Dann benutze Wählen Sie die Ausgabetabelle SWAT+ aus, um zu sehen, welche Tabellen verfügbar sind. Das hängt davon ab, was Sie gewählt haben, im SWAT+ Editor zu drucken, und für HRU-Ergebnisse, ob ein FullHRUs-Shapefile generiert wurde3.

Die angezeigten Start- und Endtermine sind zunächst die Start- und Endtermine der Ausgabe aus dem

Standardszenario. Beachten Sie, dass das Anfangsjahr 1993 ist, da wir ab 1990 simuliert haben, aber eingestellt haben nyskip to 3. Sie können Termine innerhalb dieser auswählen, wenn Sie möchten, um den Zeitraum zu verkürzen

visualisiert. Wenn andere Szenarien ausgewählt werden, werden die Daten bei Bedarf geändert, um sicherzustellen, dass Daten für den gesamten Zeitraum verfügbar sind.

Es gibt drei Möglichkeiten, die durch die Registerkarten für Statische Daten, Animation und Plot angezeigt werden. Zum Statische Daten Für jeden Grundwasserleiter, Kanal, HRU oder LSU wird ein einzelner Summenwert berechnet und als Karte angezeigt. Für die Animation gibt es eine animierte Anzeige des Wertes in jedem Grundwasserleiter, Kanal, HRU oder LSU zu jedem Zeitschritt in der Animation. Plot unterstützt die Erstellung und Anzeige von Plots ausgewählter Variablen. Dieser Abschnitt befasst sich mit statischen Daten: Animation und

HRU-Tabellen (deren Namen mit 'hru_' beginnen) sind zum Plotten verfügbar, aber nicht für die statische Visualisierung oder Animation, es sei denn, es wurde eine FullHRUs-Datei generiert. Anstatt diese Warnung viele Male zu wiederholen, gehen wir im Rest dieses Abschnitts davon aus, dass das FullHRUs-Shapefile generiert wurde.

Plotten werden in den folgenden Abschnitten beschrieben. Stellen Sie sicher, dass die Registerkarte Statische Daten ausgewählt ist. Statische Ergebnisse werden durch das Generieren eines Shapefiles erzeugt, und dieses wird standardmäßig aufgerufen

<table>results.shp (z. B. lsunit_pw_monresults.shp) und im Results-Verzeichnis des of aktuelles Szenario. Sie können diese Standardeinstellung beibehalten oder den Dateinamen und den Speicherort nach Belieben ändern. Möglicherweise bemerken Sie Dateien namens hrus.shp, lsus.shp, rivs.shp, subs.shp, aquifers.shp undhp

deep_aquifers.shp in diesem Verzeichnis. Wählen Sie keinen dieser als Ihren Dateinamen: Die ersten vier sind Kopien der tatsächlichen HRUs, LSUs, Kanäle und Subbasin-Shapefiles, die von QSWAT+ generiert, in diesen Ordner kopiert und als Grundlage für das Ergebnis-Shapefile (und für die Animation) verwendet werden. Die Aquifer-Shapefiles wurden für den gleichen Zweck erstellt. Sie werden in das Ergebnisverzeichnis kopiert oder dort erstellt, weil diese Shapefiles durch nachfolgende Durchläufe von QSWAT+ geändert werden können und nicht die gleichen HRUs, LSUs, Kanäle oder Unterbecken wie bei diesem Durchlauf aufweisen.

Wählen Sie lsunit_pw_mon als SWAT+-Ausgabetabelle aus.

Das Pulldown-Menü in Variablen auswählen enthält alle Ausgabevariablen Ihrer ausgewählten from Tabelle. Sie können diese einzeln auswählen und über die Schaltfläche Hinzufügen zur Box hinzufügen unten, oder klicken Sie einfach auf Alle, um alle anzuzeigen. Sie können Ihre Auswahl anpassen, indem Sie und . auswählen Verwenden Sie Del, um einzelne zu löschen, oder verwenden Sie Clear, um alle zu löschen. Daten aus allen Variablen, die Sie Platz in der Box wird in die Ergebnisdatei eingefügt. Sie müssen dann einen von ihnen auswählen, um zu sein angezeigt. Im Allgemeinen ist es eine gute Idee, Alle auszuwählen, da Sie so verschiedene anzeigen können Variablen, ohne die Ergebnisdatei ändern zu müssen.

Abbildung 36: Ergebnisformular visualisieren

Für jede Variable, für jeden Grundwasserleiter, Kanal, LSU oder HRU können die Ausgabedaten einen Wert für jeden Tag, Monat oder Jahr Ihrer Simulation oder ein durchschnittliches Jahr für die gesamte Simulation haben (je nachdem, welche Ausgaben Sie zum Drucken ausgewählt haben). . Um die Ergebnisse grafisch darzustellen, müssen wir für jede Variable für jedes Teilbecken einen einzelnen Wert erzeugen und wählen dafür a

Zusammenfassung. Verfügbare Zusammenfassungen sind:

Summen: Die Zusammenfassung ist die Summe der Werte für die Variable für den Grundwasserleiter, Kanal, LSU oder HRU..

Tägliche Mittelwerte: Die Zusammenfassung ist der Tagesmittelwert der Gesamtsumme, die Gesamtsumme dividiert durch die Anzahl der Tage in der Simulation.

Monatlicher Mittelwert: Die Zusammenfassung ist der monatliche Mittelwert der Gesamtsumme, die Gesamtsumme dividiert durch die Anzahl der Monate in der Simulation. Die Anzahl der Monate kann ein Bruchteil seinJahresmittel: Die Zusammenfassung ist das Jahresmittel der Gesamtsumme, die Gesamtsumme dividiert durch die

Anzahl der Jahre in der Simulation. Die Anzahl der Jahre kann ein Bruchteil sein.

Maxima: Die Zusammenfassung ist der Maximalwert für die Variable für den Grundwasserleiter, Kanal, LSU oder HRU..

Minima: Die Zusammenfassung ist der Mindestwert für die Variable für den Grundwasserleiter, Kanal, LSU oder HRU.

Wenn die Ausgabetabelle ein Jahresdurchschnitt ist (der Name endet auf '_aa'), lautet die Zusammenfassungsmethode bereits als Jahresmittelwert ausgewählt und das Menü Zusammenfassung auswählen nicht aktiviert ist.

Für Variablen, die effektiv Mittelwerte sind, wie z. B. Durchflussraten, sind nur einige der Zusammenfassungen physikalisch sinnvoll, nämlich der Mittelwert für die gewählte Ausdruckshäufigkeit, Maximum und Minimum. Benutzer sollten daher bei der Auswahl von Zusammenfassungen für solche Variablen vorsichtig sein.

Abbildung 37: Statische Ergebnisse anzeigen

Eigenschaften und wählen Sie dann die Registerkarte Symbologie).

Um eine andere Variable aus der Liste anzuzeigen, wählen Sie diese mit der Maus aus und klicken Sie auf Erstellen. Zu Ändern Sie die Zusammenfassung, wählen Sie die neue aus dem Pulldown-Menü aus und klicken Sie auf Erstellen. Wir haben eine LSU-Ergebnistabelle gewählt, damit sie durch Einfärben von LSU-Formen angezeigt wurde. HRU-Ausgabefarben HRU-Formen. Ergebnisse von Kanälen werden mit Kanälen angezeigt. Die Dicke der Kanalformen ist proportional zur Kanalbreite.

Statische Ergebnisdateien werden mit Karten-Tooltipps geliefert, die die Kanal-, LSU-, HRU- oder Grundwasserleiternummer anzeigen, sodass Sie die Nummer und den Ergebniswert jedes Merkmals überprüfen können. Stellen Sie sicher, dass die Die Schaltfläche Kartentipps anzeigen gedrückt ist (Abbildung 41) und dass die Ergebnisebene im Menü ausgewählt ist Ebenenbedienfeld, und wenn die Maus über ein Feature fährt, werden dessen Kanal-, LSU-, HRU- oder Aquifer-Nummer sowie der Ergebniswert angezeigt.

Möglicherweise möchten Sie einen Ausdruck anzeigen, der eine Kombination von Ergebniswerten oder eine Funktion eines vorhandenen Ergebnisses ist. Dies kann wie folgt erreicht werden.

Generieren Sie zunächst wie oben beschrieben ein Ergebnis-Shapefile und stellen Sie sicher, dass Sie in seinen Variablen zumindest alles enthalten, was Sie in Ihrem Ausdruck verwenden möchten. Klicken Sie dann mit der rechten Maustaste auf seinen Eintrag in im Ebenenbedienfeld und wählen Sie Attributtabelle öffnen. Klicke oben auf das gelbe Bleistiftsymbol links, um mit der Bearbeitung zu beginnen, und wählen Sie dann Feldrechner öffnen (Abakussymbol).

Stellen Sie im Feldrechner sicher, dass Neues Feld erstellen aktiviert ist, geben Sie ihm einen Namen (höchstens 10 Zeichen und noch kein Feldname), wählen Sie als Feldtyp Dezimalzahl (real), Ändern Sie die Länge und Genauigkeit, wenn Sie möchten, und erstellen Sie dann den Ausdruck. Der einfachste Weg dazu doppelklicken Sie auf Einträge im mittleren Bereich: Felder und Werte enthält alle all vorhandene Feldnamen, Math enthält mathematische Funktionen, Operatoren eine Vielzahl von

numerische und logische Operatoren (von denen einige auch als Schaltflächen über dem linken Bedienfeld verfügbar sind) und so weiter.

Wenn Sie auf Elemente doppelklicken, werden sie dem linken Bereich hinzugefügt. Sie können dieses Panel auch direkt bearbeiten (damit Sie Fehler leicht löschen können). Wenn der Ausdruck gültig ist, wird der resultierende Wert aus der ersten Zeile der Tabelle unten angezeigt.

Wenn Sie mit Ihrem Ausdruck zufrieden sind, klicken Sie auf OK, um den Taschenrechner und das gelbe Bleistift, um die Bearbeitung abzuschließen. Bestätigen Sie, dass Sie die Änderungen am Layer speichern möchten.

Sie finden den oder die neuen Feldnamen zu den Variablen hinzugefügt, die zur Anzeige ausgewählt werden können. Wählen Sie eine aus, ändern Sie die Zusammenfassungsmethode, wenn Sie möchten, und klicken Sie auf Erstellen, um Ihre neue anzuzeigen Variable angezeigt.

Beachten Sie, dass diese Methode Daten zur Attributtabelle der aktuellen Ergebnisdatei hinzufügt: Sie fügt keine Daten zur aktuellen Tabelle aus der Ausgabedatenbank hinzu. Dies bedeutet, dass es beispielsweise nicht animiert oder geplottet werden kann. Um solche Daten der Originaltabelle hinzuzufügen, ist es oft möglich, eine SQL-Anweisung zu verwenden: SQL hat eine mächtige Ausdruckssprache. Zum Beispiel könnten wir SQLiteStudio verwenden, um a . hinzuzufügen Spalte flo_diff, der Unterschied zwischen flo_out und flo_in zu channel_sd_mon. Wir fahren fort wie folgt:

Verwenden Sie die Schaltfläche Spalte hinzufügen, um eine Spalte namens flo_diff hinzuzufügen, geben Sie REAL . ein  Klicken Sie auf das grüne Häkchen, um das Hinzufügen zu bestätigen

Wählen Sie im Menü Extras Open SQL Editor und geben Sie den Befehl ein

UPDATE channel_sd_mon SET flo_diff = flo_out - flo_in

Klicken Sie auf die blaue Schaltfläche Abfrage ausführen.

Wählen Sie im Visualisierungsformular eine andere Ausgabetabelle aus und wählen Sie dann channel_sd_mon erneut, um das erneute Lesen der Tabelle zu erzwingen und die Variable in den Pulldown-Menüs Static, Animation und Plot verfügbar zu machen.

Eine andere Methode, um die Leistungsfähigkeit von Tabellenkalkulationen auszunutzen, besteht darin, die Tabelle als CSV-Datei zu exportieren (einfach in SQLiteStudio), die CSV-Datei in ein Tabellenkalkulationstool wie Excel oder Open Office zu importieren, die Spalte(n) hinzuzufügen und ihre Daten zu generieren mit die verfügbaren Funktionen im

Tabellenkalkulationstool, bearbeiten Sie die Tabellenstruktur in SQLiteStudio, um die erforderliche(n) Spalte(n) hinzuzufügen, und importieren Sie die CSV-Datei wieder in die Tabelle

Der vorherige Abschnitt 8.4 präsentiert eine Methode zum Erzeugen von Ergebniswerten basierend auf Funktionen von Originalwerten, erfordert jedoch, dass sich die Originalwerte in derselben Tabelle befinden. SWAT-Ausgaben sind jedoch in einer Reihe von Tabellen gruppiert: Was ist, wenn eine Funktion von Werten aus verschiedenen Tabellen erforderlich ist? Wie das geht, erklären wir in diesem Abschnitt.

Die visualisierbaren Tabellen haben in der Regel Namen in der Form X_Y_Z4 wobei X lunit ist,

hru oder Kanal, und Z gibt die Häufigkeit an: day für täglich, mon für monatlich, yr für jährlich,

und aa für durchschnittliche jährliche. Wenn zwei Tabellen in derselben Ausgabedatenbank gemeinsame X und Z haben Werte dann können sie leicht in einem natürlichen Join kombiniert werden. Sie teilen automatisch die gleiche id-, jday-, mon-, tag-, yr-, unit-, gis_id- und name-Spalten, damit diese im Join erscheinen. und die verbleibenden Spalten sind einfach die Vereinigung aller anderen Spalten in den beiden Tabellen. Wenn Sie beispielsweise SQLiteStudio verwenden, können Sie die Ausgabedatenbank im Tools Wählen Sie im Menü Open SQL Editor aus und geben Sie einen Befehl wie . ein

CREATE TABLE lsunit_lswb_mon AS SELECT * FROM lsunit_ls_mon NATURAL JOIN lsunit_wb_mon

und klicken Sie auf die Schaltfläche Abfrage ausführen.

Beachten Sie, dass der neue Tabellenname lsunit_lswb_mon die X- und Z-Werte der beiden Eingaben beibehält Tabellen, damit das Visualisierungstool weiß, wie die Daten aus der neuen Tabelle dargestellt werden. Jetzt Wählen Sie das Szenario erneut aus (auch wenn es nur Standard gibt), die neue Tabelle wird in der Ausgabe angezeigt Tabellenmenü, und Sie können wie in Abschnitt 8.4 oben vorgehen.


Inhalt

Bereits 1950 nutzten Informatiker elektronische Maschinen, um relativ einfache Spielsysteme zu konstruieren, wie z Bertie das Gehirn 1950, um Tic Tac Toe zu spielen, oder Nimrod 1951, um Nim zu spielen. Diese Systeme verwendeten entweder elektronische Lichtanzeigen und hauptsächlich als Demonstrationssysteme auf großen Ausstellungen, um die Leistung der Computer zu dieser Zeit zu demonstrieren. [1] [2]

Weltraumkrieg! gilt als eines der ersten anerkannten Videospiele. 1961 für den Großrechner PDP-1 am Massachusetts Institute of Technology (MIT) von einer dortigen Studentengruppe entwickelt, ermöglichte es zwei Spielern, einen Weltraumkampf auf dem relativ einfachen Monitor der PDP-1 zu simulieren. Der Quellcode des Spiels wurde mit einem PDP-1 im ganzen Land an andere Institutionen weitergegeben, als die MIT-Studenten selbst umherzogen, wodurch das Spiel an Popularität gewann. [3]

Mainframe-Computerspiele

In den 1960er Jahren wurden eine Reihe von Computerspielen für Großrechner- und Minicomputersysteme entwickelt, die jedoch aufgrund der anhaltenden Knappheit der Computerressourcen, des Mangels an ausreichend ausgebildeten Programmierern, die sich für die Herstellung von Unterhaltungsprodukten interessierten, und der Schwierigkeit bei der Übertragung keine weite Verbreitung fanden Programme zwischen Computern in verschiedenen geografischen Gebieten. Bis Ende der 1970er Jahre hatte sich die Situation jedoch drastisch geändert. Die höheren Programmiersprachen BASIC und C wurden im Laufe des Jahrzehnts weit verbreitet, die leichter zugänglich waren als frühere, eher technische Sprachen wie FORTRAN und COBOL, wodurch die Entwicklung von Computerspielen einer größeren Benutzerbasis zugänglich gemacht wurde. Mit dem Aufkommen von Timesharing, das es ermöglichte, die Ressourcen eines einzelnen Mainframes auf mehrere Benutzer zu verteilen, die über Terminals mit dem Computer verbunden waren, war der Computerzugriff nicht mehr auf eine Handvoll Einzelpersonen an einer Institution beschränkt, was den Studenten mehr Möglichkeiten eröffnete eigene Spiele zu erstellen. Darüber hinaus schufen die weit verbreitete Einführung des PDP-10, das 1966 von der Digital Equipment Corporation (DEC) veröffentlicht wurde, und des tragbaren UNIX-Betriebssystems, das 1971 in Bell Labs entwickelt und 1973 allgemein veröffentlicht wurde, landesweit gemeinsame Programmierumgebungen, die weniger die Schwierigkeit, Programme zwischen Institutionen zu teilen. Schließlich die Gründung der ersten Zeitschriften für Computer wie Kreatives Rechnen (1974), die Veröffentlichung der frühesten Programmsammlungsbücher wie 101 GRUNDLEGENDE Computerspiele (1973) und die Verbreitung von Weitverkehrsnetzen wie dem ARPANET ermöglichten eine leichtere gemeinsame Nutzung von Programmen über große Entfernungen. Infolgedessen beeinflussten viele der Mainframe-Spiele, die in den 1970er Jahren von College-Studenten entwickelt wurden, die nachfolgenden Entwicklungen in der Videospielindustrie auf eine Weise, Weltraumkrieg! beiseite, die Spiele der 1960er Jahre nicht.

In der Spielhalle und auf Heimkonsolen waren rasante Action und Echtzeit-Gameplay in Genres wie Rennen und Zielschießen die Norm. Auf dem Mainframe waren solche Spiele jedoch in der Regel nicht möglich, da es an entsprechenden Displays fehlte (viele Computerterminals setzten bis in die 1970er Jahre noch auf Fernschreiber statt auf Monitore und selbst die meisten CRT-Terminals konnten nur zeichenbasierte Grafiken wiedergeben) und nicht genügend Rechenleistung und Speicher, um Spielelemente in Echtzeit zu aktualisieren. Während Mainframes der 1970er Jahre leistungsstärker waren als Arcade- und Konsolenhardware der damaligen Zeit, beeinträchtigte die Notwendigkeit, Computerressourcen über Timesharing an Dutzende gleichzeitiger Benutzer zu verteilen, ihre Fähigkeiten erheblich. Daher konzentrierten sich die Programmierer von Mainframe-Spielen auf Strategie- und Rätsellösungsmechaniken statt auf reine Action. Zu den bemerkenswerten Spielen der Zeit gehört das taktische Kampfspiel Star Trek (1971) von Mike Mayfield, das Versteckspiel Jage den Wumpus (1972) von Gregory Yob und das strategische Kriegsspiel Reich (1977) von Walter Bright. Das vielleicht bedeutendste Spiel dieser Zeit war Kolossales Höhlenabenteuer (oder einfach Abenteuer), erstellt 1976 von Will Crowther, indem er seine Leidenschaft für die Höhlenforschung mit Konzepten aus dem neu veröffentlichten Tabletop-Rollenspiel (RPG) kombinierte. Verliese und Drachen (D&D). 1977 von Don Woods erweitert, wobei der Schwerpunkt auf der High Fantasy von J.R.R. Tolkien, Abenteuer etablierte ein neues Genre, das auf Exploration und inventarbasiertem Rätsellösen basiert, das Ende der 1970er Jahre den Übergang zu PCs vollzog.

Während die meisten Spiele auf Hardware mit begrenzten grafischen Fähigkeiten erstellt wurden, war ein Computer, der beeindruckendere Spiele hosten konnte, das PLATO-System, das an der University of Illinois entwickelt wurde. Als Lerncomputer gedacht, verband das System Hunderte von Benutzern in den ganzen Vereinigten Staaten über Remote-Terminals mit hochwertigen Plasmadisplays und ermöglichte es den Benutzern, in Echtzeit miteinander zu interagieren. Dies ermöglichte es dem System, eine beeindruckende Reihe von Grafik- und/oder Multiplayer-Spielen zu hosten, darunter einige der frühesten bekannten Computer-RPGs, die hauptsächlich abgeleitet wurden, wie Abenteuer, von D&D, aber im Gegensatz zu diesem Spiel wurde mehr Wert auf Kampf und Charakterentwicklung gelegt als auf das Lösen von Rätseln. Beginnend mit Top-Down-Dungeon-Crawls wie Das Verlies (1975) und Das Spiel der Dungeons (1975), heute häufiger mit ihren Dateinamen bezeichnet, pedit5 und dnd, PLATO-RPGs wechselten bald mit Spielen wie . zu einer First-Person-Perspektive Moria (1975), Oubliette (1977), und Benutzerbild (1979), das es oft mehreren Spielern ermöglichte, sich zusammenzuschließen, um Monster zu bekämpfen und gemeinsam Quests abzuschließen. Mögen Abenteuer, haben diese Spiele letztendlich einige der frühesten PC-Spiele inspiriert.

Die ersten Arcade-Videospiele und Heimkonsolen

Der Beginn der modernen Videospielindustrie ging aus der gleichzeitigen Entwicklung des ersten Arcade-Videospiels und der ersten Heimvideospielkonsole in den frühen 1970er Jahren in den USA hervor.

Die Arcade-Videospielindustrie ist aus der bereits bestehenden Arcade-Spieleindustrie hervorgegangen, die zuvor von elektromechanischen Spielen (EM-Spielen) dominiert wurde. Nach der Ankunft von Segas EM-Spiel Periskop (1966) erlebte die Spielhallenindustrie eine "technologische Renaissance", die von "audiovisuellen" EM-Neuheitenspielen angetrieben wurde, und etablierte die Spielhallen als ein gesundes Umfeld für die Einführung kommerzieller Videospiele in den frühen 1970er Jahren. [4] In den späten 1960er Jahren hatte ein College-Student Nolan Bushnell einen Teilzeitjob in einer Spielhalle, wo er mit EM-Spielen wie dem Fahrspiel von Chicago Coin vertraut wurde Schnellstraße (1969), beobachtete Kunden beim Spielen und half bei der Wartung der Maschinen, während er lernte, wie sie funktionierte und sein Verständnis für die Funktionsweise des Spielegeschäfts entwickelte. [5]

1966 hatte Ralph Baer während seiner Arbeit bei Sanders Associates die Idee für ein Unterhaltungsgerät, das an einen Fernsehmonitor angeschlossen werden konnte. Er präsentierte dies seinen Vorgesetzten bei Sanders und erhielt deren Zustimmung. Zusammen mit William Harrison und William Rasch verfeinerte er das Konzept von Baer zum Prototyp einer "Brown Box" einer Heimvideospielkonsole, die ein einfaches Tischtennisspiel spielen konnte. Die drei patentierten die Technologie, und Sanders, der nicht in der Kommerzialisierung tätig war, verkaufte Lizenzen für die Patente an Magnavox, um sie zu kommerzialisieren. Mit der Hilfe von Baer entwickelte Magnavox 1972 die Magnavox Odyssey, die erste kommerzielle Heimkonsole.

Gleichzeitig hatten Nolan Bushnell und Ted Dabney die Idee, einen münzbetriebenen Schrank zu bauen, in dem ein kleiner, kostengünstiger Mikrocomputer zum Laufen ist Weltraumkrieg! Bis 1971 hatten sich die beiden entwickelt Computerraum mit Nutting Associates, dem ersten anerkannten Arcade-Videospiel. [6] Bushnell und Dabney machten sich selbstständig und gründeten Atari. Bushnell, inspiriert vom Tischtennisspiel auf der Odyssee, beauftragte Allan Alcorn mit der Entwicklung einer Arcade-Version des Spiels, diesmal mit diskreter Transistor-Transistor-Logik (TTL) elektronischer Schaltung. Ataris Pong wurde Ende 1972 veröffentlicht und gilt als das erste erfolgreiche Arcade-Videospiel. Es entzündete das Wachstum der Arcade-Spieleindustrie in den Vereinigten Staaten sowohl von etablierten münzbetriebenen Spieleherstellern wie Williams, Chicago Coin und der Midway-Tochter von Bally Manufacturing als auch von neuen Start-ups wie Ramtek und Allied Leisure. Viele davon waren Pong Klone mit Ball-and-Paddle-Steuerung und führte 1974 zu einer Sättigung des Marktes, was die Hersteller von Arcade-Spielen 1975 zwang, neue Spiele zu entwickeln. Viele der neueren Unternehmen entstanden im Zuge von Pong scheiterte an eigenen Innovationen und wurde geschlossen, und bis Ende 1975 war der Arcade-Markt aufgrund der Verkaufserlöse neuer Spiele um etwa 50 % zurückgegangen. [7] Darüber hinaus verklagte Magnavox Atari und mehrere andere dieser Arcade-Spielehersteller wegen Verletzungen von Baers Patenten. Bushnell hat die Klage für Atari beigelegt und im Rahmen des Vergleichs unbefristete Rechte an den Patenten für Atari erlangt. [8] Andere scheiterten an einem Vergleich, und Magnavox gewann rund 100 Millionen US-Dollar Schadenersatz aus diesen Patentverletzungsverfahren, bevor die Patente 1990 ausliefen. [9]

Arcade-Videospiele setzten sich in Japan aufgrund von Partnerschaften zwischen amerikanischen und japanischen Unternehmen schnell durch, die die japanischen Unternehmen über die technologischen Entwicklungen in den Vereinigten Staaten auf dem Laufenden hielten. Die Nakamura Amusement Machine Manufacturing Company (Namco) hat sich mit Atari zusammengetan, um zu importieren Pong Ende 1973 nach Japan. Innerhalb des Jahres veröffentlichten Taito und Sega Pong Klone in Japan bis Mitte 1973. Japanische Unternehmen begannen 1974 mit der Entwicklung neuartiger Titel und dem Export oder der Lizenzierung dieser Spiele durch Partner. [10] Darunter befanden sich auch Taitosto Waffenkampf (ursprünglich Westliche Waffe in seiner japanischen Version), die an Midway lizenziert wurde. Die 1975 veröffentlichte Version von Midway war das erste Arcade-Videospiel, das einen Mikroprozessor anstelle von diskreten TLL-Komponenten verwendet. [11] Diese Innovation reduzierte die Komplexität und den Zeitaufwand für das Design von Arcade-Spielen drastisch und die Anzahl der physischen Komponenten, die erforderlich sind, um ein fortschrittlicheres Gameplay zu erreichen. [12]

Der dedizierte Konsolenmarkt

Der Magnavox Odyssey hat sich in der Öffentlichkeit nie durchgesetzt, hauptsächlich aufgrund der eingeschränkten Funktionalität seiner primitiven diskreten elektronischen Komponententechnologie. [7] Bis Mitte 1975 waren großintegrierte (LSI) Mikrochips preiswert genug, um in ein Verbraucherprodukt integriert zu werden. Im Jahr 1975 reduzierte Magnavox die Anzahl der Teile der Odyssey mit einem von Texas Instruments entwickelten Drei-Chip-Set und veröffentlichte zwei neue Systeme, die nur Ball-and-Paddle-Spiele spielten, das Magnavox Odyssey 100 und das Magnavox Odyssey 200. Atari, im selben Jahr mit dem Single-Chip Home in den Verbrauchermarkt eingetreten Pong System. Im nächsten Jahr veröffentlichte General Instrument ein "Pong-on-a-Chip"-LSI und stellte es jedem interessierten Unternehmen zu einem günstigen Preis zur Verfügung. Die Spielzeugfirma Coleco Industries verwendete diesen Chip, um die millionenfach verkaufte Telstar-Konsolenmodellserie (1976-77) zu entwickeln.

Diese ersten Heimvideospielkonsolen waren beliebt, was zu einem großen Zustrom von Unternehmen führte, diePong und andere Videospiel-Klone, um die Nachfrage der Verbraucher zu befriedigen. Während es 1975 nur sieben Unternehmen gab, die Heimkonsolen auf den Markt brachten, waren es 1977 mindestens 82, mit mehr als 160 verschiedenen Modellen allein in diesem Jahr, die leicht dokumentiert werden konnten. Eine große Anzahl dieser Konsolen wurde in Ostasien hergestellt, und es wird geschätzt, dass über 500 Pong-Typ-Heimkonsolenmodelle wurden in dieser Zeit hergestellt. [7] Wie bei der vorherigen Paddel-und-Ball-Sättigung im Arcade-Spielfeld von 1975 aufgrund von Verbrauchermüdigkeit gingen die Verkäufe von dedizierten Konsolen 1978 stark zurück, unterbrochen durch die Einführung programmierbarer Systeme und elektronischer Handheld-Spiele. [7] Von den 1977 tätigen amerikanischen Unternehmen blieben 1978 nur Atari, Magnavox und Coleco auf dem Konsolenmarkt. [7]

So wie dedizierte Konsolen im Westen an Popularität verloren, gewannen sie in Japan kurzzeitig an Popularität. Diese TV-Geemu basierten oft auf lizenzierten Designs der amerikanischen Firmen, hergestellt von Fernsehherstellern wie Toshiba und Sharp. Bemerkenswert ist, dass Nintendo in dieser Zeit neben seinen aktuellen traditionellen und elektronischen Spielzeugproduktlinien in den Videospielmarkt eintrat und die Serie der Farbfernsehspielkonsolen in Zusammenarbeit mit Mitsubishi produzierte. [10]

Wachstum von Videospielhallen und das goldene Zeitalter

Nach der Sättigung des Ball-and-Paddle-Marktes im Jahr 1975 begannen Spieleentwickler, nach neuen Ideen für Spiele zu suchen, getragen von der Möglichkeit, programmierbare Mikroprozessoren anstelle von analogen Komponenten zu verwenden. Taito-Designer Tomohiro Nishikado, der entwickelt hatte Waffenkampf wurde zuvor von Ataris inspiriert Ausbrechen um ein schussbasiertes Spiel zu erstellen, Space Invaders, erstmals 1978 in Japan veröffentlicht. [13] Space Invaders führte mehrere wichtige Konzepte in Arcade-Videospielen ein oder machte sie populär, darunter das Spiel, das durch Leben anstelle eines Timers oder einer festgelegten Punktzahl geregelt wird, das Gewinnen zusätzlicher Leben durch das Sammeln von Punkten und die Verfolgung des am Automaten erzielten Highscores. Es war auch das erste Spiel, das den Spieler mit Wellen von Zielen konfrontierte, die auf den Spieler zurückschossen, und das erste, das während des Spiels Hintergrundmusik enthielt, wenn auch eine einfache Vier-Noten-Schleife. [14] Space Invaders war ein sofortiger Erfolg in Japan, mit einigen Spielhallen, die ausschließlich für Space Invaders Maschinen. [13] In den USA zwar nicht ganz so beliebt, aber Space Invaders wurde ein Hit, als Midway, der als nordamerikanischer Hersteller fungierte, 1979 über 60.000 Schränke bewegte. [15]

Space Invaders leitete das goldene Zeitalter der Arcade-Spiele ein, das von 1978 bis 1982 dauerte. Mehrere einflussreiche und meistverkaufte Arcade-Titel wurden in dieser Zeit von Atari, Namco, Taito, Williams und Nintendo veröffentlicht, darunter Asteroiden (1979), Galaxie (1979), Verteidiger (1980), Raketenkommando (1980), Sturm (1981), und Galaga (1981). Pac-Man, veröffentlicht im Jahr 1980, wurde zu einer Ikone der Populärkultur, und eine neue Welle von Spielen erschien, die sich auf identifizierbare Charaktere und alternative Mechaniken wie das Navigieren in einem Labyrinth oder das Überqueren einer Reihe von Plattformen konzentrierten. Abgesehen von Pac-Man und seine Fortsetzung, Frau Pac-Man (1982), waren die beliebtesten Spiele dieser Art während des goldenen Zeitalters Esel Kong (1981) und Q*bert (1982). [13]

Laut Fachpublikation Verkaufszeiten, stiegen die Einnahmen aus münzbetriebenen Videospielen vor Ort in den Vereinigten Staaten von 308 Millionen US-Dollar im Jahr 1978 auf 968 Millionen US-Dollar im Jahr 1979 auf 2,8 Milliarden US-Dollar im Jahr 1980 Pac Man einen noch größeren Videospiel-Wahn entfachte und mehr Spielerinnen in die Spielhallen lockte, stiegen die Einnahmen 1981 erneut auf 4,9 Milliarden US-Dollar Spielanzeige, bis Juli 1982, erreichten die gesamten Münzsammlungen einen Höchststand von 8,9 Milliarden US-Dollar, von denen 7,7 Milliarden US-Dollar aus Videospielen stammten. [16] Spezielle Videospielhallen wuchsen während des goldenen Zeitalters, wobei sich die Zahl der Spielhallen (Orte mit mindestens zehn Arcade-Spielen) zwischen Juli 1981 und Juli 1983 von über 10.000 auf etwas mehr als 25.000 mehr als verdoppelte. [13] [16] Diese Zahlen machten Arcade-Spiele zum beliebtesten Unterhaltungsmedium des Landes und übertrafen sowohl Popmusik (mit einem Umsatz von 4 Milliarden US-Dollar pro Jahr) als auch Hollywood-Filme (3 Milliarden US-Dollar). [16]

Das goldene Zeitalter der Spielhallen ging ab 1983 vorbei, teilweise beeinflusst durch den Zusammenbruch des Heimkonsolenmarktes im selben Jahr. Weitere Schlüsselfaktoren waren mangelnde Innovation, da die Spieler nur dann weiterhin Geld für Spiele ausgeben würden, wenn neue Gameplays angeboten würden. Darüber hinaus entstand in den 1980er Jahren eine neue moralische Panik um Videospiele, die Videospiele mit Gewalt und Sucht verband, negative Eindrücke über Videospielhallen hinterließ und jüngere Spieler vertrieb. [13]

Einführung von Cartridge-basierten Heimkonsolen

Die Entwicklungskosten von dedizierter Spielehardware für Arcade- und Heimkonsolen basierend auf diskreten Komponentenschaltungen und anwendungsspezifischen integrierten Schaltkreisen (ASICs) mit nur begrenzter Verbraucherlebensdauer veranlassten die Ingenieure, nach Alternativen zu suchen. Der Preis von Mikroprozessoren war bis 1975 weit genug gefallen, um diese zu einer praktikablen Option für die Entwicklung programmierbarer Konsolen zu machen, die Spielesoftware von einer Form austauschbarer Medien laden konnten. [17]

Der Fairchild Channel F von Fairchild Camera and Instrument wurde 1976 veröffentlicht. Es ist die erste Heimkonsole, die programmierbare ROM-Cartridges verwendet, die es den Spielern ermöglichen, Spiele auszutauschen, sowie die erste Heimkonsole, die einen Mikroprozessor verwendet, der Anweisungen aus dem ROM liest Patrone. Atari und Magnavox folgten 1977 mit der Veröffentlichung des Atari Video Computer Systems (VCS, später bekannt als Atari 2600) und des Magnavox Odyssey 2, wobei beide Systeme auch die Verwendung von Cartridges einführten. Um das Atari VCS schnell zu vervollständigen, verkaufte Bushnell Atari für 28 Millionen US-Dollar an Warner Communications und stellte die notwendige Geldspritze bereit, um das Systemdesign bis Ende 1977 fertigzustellen. [12] Der anfängliche Markt für diese neuen Konsolen war zunächst bescheiden, da die Verbraucher noch waren vorsichtig nach der Sättigung von dedizierten Heimkonsolen. [18] Es gab jedoch immer noch ein neu entdecktes Interesse an Videospielen, und neue Spieler wurden auf den Markt gezogen, wie Mattel Electronics mit Intellivision. [7] Im Gegensatz zum dedizierten Zuhause Pong Konsolen hatten programmierbare Cartridge-basierte Konsolen eine höhere Eintrittsbarriere mit den Kosten für Forschung und Entwicklung und Großserienproduktion, und weniger Hersteller traten in diesem Zeitraum auf den Markt. [7]

Diese neue Konsolenlinie hatte ihren Durchbruch, als Atari eine Lizenz von Taito erhielt, um die Atari VCS-Version des Arcade-Hits zu erstellen Space Invaders, das 1980 veröffentlicht wurde. Space Invaders vervierfachte die Verkäufe des Atari VCS, was es zur ersten "Killer-App" in der Videospielindustrie und zum ersten Videospiel, das über eine Million Mal verkauft wurde und 1981 schließlich über 2,5 Millionen verkaufte. [19] [20] Ataris Verbraucherverkäufe von 119 Millionen US-Dollar auf fast 204 Millionen US-Dollar im Jahr 1980 fast verdoppelt und dann 1981 auf über 841 Millionen US-Dollar explodiert, während der Umsatz in der gesamten Videospielbranche in den Vereinigten Staaten von 185,7 Millionen US-Dollar im Jahr 1979 auf knapp über 1 Milliarde US-Dollar im Jahr 1981 gestiegen ist. Durch eine Kombination von Konvertierungen eigener Arcade-Spiele wie Raketenkommando und Asteroiden und lizenzierte Konvertierungen wie Verteidiger, nahm Atari eine dominierende Führung in der Branche ein, mit einem geschätzten Marktanteil von 65 % der weltweiten Industrie nach Dollarvolumen bis 1981. Mattel belegte den zweiten Platz mit etwa 15 bis 20 % des Marktes, während Magnavox einen entfernten dritten Platz einnahm. und Fairchild verließ den Markt 1979 vollständig. [7]

Eine weitere kritische Entwicklung während dieser Zeit war das Aufkommen von Drittentwicklern. Ray Kassar von Warner Communication schätzte Ataris Programmierer nicht hoch und ein Teil seiner Managemententscheidungen hielt die Namen der Programmierer von den Credits für die von ihnen entwickelten Spiele fern. Dies führte dazu, dass Warren Robinett seinen Namen heimlich in einem der frühesten Easter Eggs in sein Spiel programmierte Abenteuer. [21] [22] Kassars Politik veranlasste vier von Ataris Programmierern, David Crane, Larry Kaplan, Alan Miller und Bob Whitehead, 1979 zurückzutreten und ihre eigene Firma Activision zu gründen veröffentlichen ihre eigenen Spiele, mit ihrem Durchbruchserfolg von Falle! im Jahr 1982. Atari verklagte die Aktivitäten von Activision, aber die Unternehmen einigten sich außergerichtlich, wobei Activision zustimmte, einen Teil ihrer Spieleverkäufe als Lizenzgebühr an Atari zu zahlen. [23] Eine weitere Gruppe von Atari-Entwicklern verließ und gründete 1981 Imagic nach dem Vorbild von Activision. [24]

Die Dominanz von Atari auf dem Markt wurde 1982 durch Coleco's ColecoVision in Frage gestellt Space Invaders für den Atari VCS getan hatte, entwickelte Coleco eine lizenzierte Version von Nintendos Arcade-Hit Esel Kong als gebündeltes Spiel mit dem System. Während Colecovision im Laufe seiner Lebensdauer nur etwa 4 Millionen Konsolen verkaufte, verglichen mit den 30 Millionen des Atari VCS, erschütterte sein Aufkommen im Jahr 1982 Atari und bereitete den Weg für das Unternehmen, eine Reihe von Fehltritten zu machen, die zum Absturz des Videospiels von 1983 führten. 25] [7]

Eine Handvoll Spiele aus dieser Zeit gelten als Meilensteintitel in der Geschichte der Videospiele und begründeten einige der frühesten Titel in beliebten Genres. Robinetts Abenteuer, selbst inspiriert vom Textabenteuer Kolossales Höhlenabenteuer, gilt als das erste grafische Adventure-Spiel sowie das erste Action-Adventure-Spiel [26] und das erste Konsolen-Fantasy-Spiel. [27] Activisions Falle!, war nicht nur einer der erfolgreicheren Drittanbieter-Titel, sondern legte auch die Grundlage für Side-Scrolling-Plattformspiele. [28] Utopie for the Intellivision ist das erste Städtebauspiel und gilt als eines der ersten Echtzeit-Strategiespiele. [29] [30]

Frühe Hobby-Computerspiele

Die Früchte der Einzelhandelsentwicklung bei frühen Videospielen erschienen hauptsächlich in Videospielhallen und Heimkonsolen, aber gleichzeitig gab es einen wachsenden Markt für Heimcomputer. Solche Heimcomputer waren ursprünglich eine Hobbyaktivität, mit Minicomputern wie dem Altair 8800 und dem IMSAI 8080, die Anfang der 1970er Jahre auf den Markt kamen. Gruppen wie der Homebrew Computer Club in Menlo Park, Kalifornien, stellten sich vor, wie aus diesen Minicomputersystemen neue Hardware und Software entwickelt werden könnte, die schließlich den heimischen Markt erreichen könnten. [31] Erschwingliche Heimcomputer erschienen in den späten 1970er Jahren mit der Ankunft der "1977 Trinity": dem Commodore PET, dem Apple II und dem TRS-80. [32] Die meisten werden mit einer Vielzahl von vorgefertigten Spielen sowie der BASIC-Programmiersprache geliefert, die es ihren Besitzern ermöglicht, einfache Spiele zu programmieren. [33]

Bald bildeten sich Bastlergruppen für die neuen Computer und PC-Spielesoftware folgte. Bald viele dieser Spiele – zunächst Klone von Mainframe-Klassikern wie Star Trek, und später Portierungen oder Klone beliebter Arcade-Spiele wie Space Invaders, Frogger, [34] Pac-Man (sehen Pac-Man Klone) [35] und Esel Kong [36] —wurden über eine Vielzahl von Kanälen verbreitet, wie z.B. das Drucken des Quellcodes des Spiels in Büchern (wie David Ahls GRUNDLEGENDE Computerspiele), Zeitschriften (Elektronische Spiele und Kreatives Rechnen) und Newsletter, die es den Benutzern ermöglichten, den Code selbst einzugeben. [37] [38] [39]

Während Hobbyprogrammierung in den Vereinigten Staaten als Zeitvertreib angesehen wurde, während mehr Spieler zu Videospielkonsolen strömten, suchten solche "Schlafzimmer-Programmierer" in Großbritannien und anderen Teilen Europas nach Möglichkeiten, von ihrer Arbeit zu profitieren. [40] [41] Programmierer verbreiteten ihre Werke durch den physischen Versand und den Verkauf von Disketten, Kassetten und ROM-Kassetten. Bald bildete sich eine kleine Heimindustrie, in der Amateurprogrammierer Disketten in Plastiktüten verkauften, die in die Regale der örtlichen Geschäfte gestellt oder per Post verschickt wurden. [41]

Mainframe-Spiele wurden während dieser Zeit immer noch von Studenten und anderen entwickelt, wobei leistungsfähigere Sprachen verwendet wurden, die auf diesen Systemen zur Verfügung standen. Ein Team von MIT-Studenten, Tim Anderson, Marc Blank, Bruce Daniels und Dave Lebling, wurde inspiriert von Kolossales Höhlenabenteuer um das Textabenteuerspiel zu erstellen Zork 1977 und 1979 und gründete später Infocom, um den Titel im Jahr 1980 kommerziell neu zu veröffentlichen. [42] Die ersten grafischen Abenteuerspiele von Sierra On-Line wie Mysteriöses Haus, mit einfachen Grafiken neben Text, entstand auch ungefähr zur gleichen Zeit. Schurke, der Namensgeber des Roguelike-Genres, wurde 1980 von Glenn Wichman und Michael Toy entwickelt, die eine Möglichkeit suchten, das Gameplay von Kolossales Höhlenabenteuer. [43]

Erste Handheld-LCD-Spiele

In Verbindung mit kostengünstigen Mikroprozessoren ebneten tragbare elektronische Spiele den Weg für die frühesten tragbaren Videospielsysteme in den späten 1970er Jahren. 1979 brachte die Milton Bradley Company das erste Handheld-System mit austauschbaren Cartridges auf den Markt, Microvision, das einen eingebauten LCD-Matrix-Bildschirm verwendete. Während der Handheld im ersten Produktionsjahr einen bescheidenen Erfolg hatte, führten der Mangel an Spielen, die Bildschirmgröße und der Absturz von Videospielen von 1983 zum schnellen Untergang des Systems. [44]

1980 brachte Nintendo das erste seiner Game & Watch-Reihe heraus, elektronische Handheld-Spiele mit LCD-Bildschirmen. [45] Game & Watch schnurrte Dutzende anderer Spiele- und Spielzeugfirmen, um ihre eigenen tragbaren Spiele zu entwickeln, von denen viele Kopien von Game & Watch-Titeln oder Adaptionen beliebter Arcade-Spiele waren. Die verbesserte LCD-Technologie bedeutete, dass die neuen Handhelds zuverlässiger sein und weniger Batterien verbrauchen als LED- oder VFD-Spiele, da die meisten nur Uhrenbatterien benötigen. Sie könnten auch viel kleiner gemacht werden als die meisten LED-Handhelds, sogar klein genug, um sie wie eine Uhr am Handgelenk zu tragen. Tiger Electronics hat dieses Konzept des Videospiels mit billigen, erschwinglichen Handhelds übernommen und produziert bis heute Spiele in diesem Modell.

Die Videospielindustrie erlebte ihre ersten großen Wachstumsschmerzen in den frühen 1980er Jahren, als Verlage auftauchten und viele Unternehmen wie Electronic Arts über 20 Jahre überlebten – neben nächtlichen Operationen, die die Entwickler der Spiele betrogen. Während einige Spiele der frühen 1980er-Jahre einfache Klone bestehender Arcade-Titel waren, ermöglichten die relativ geringen Veröffentlichungskosten für PC-Spiele mutige, einzigartige Spiele.

Videospiel-Absturz von 1983

Der Erfolg von Activision als Drittentwickler für das Atari VCS und andere Heimkonsolen inspirierte Anfang der 1980er Jahre bis 1983 andere Drittentwickler, von denen mindestens 100 verschiedene Unternehmen behaupteten, Software für den Atari VCS zu entwickeln. [7] Es wurde prognostiziert, dass dies zu einer Verkaufsschwemme führte, wobei 1983 nur 10 % der Spiele 75 % der Verkäufe erzielten, basierend auf Schätzungen von 1982. [46] Außerdem gab es Fragen zur Qualität dieser Spiele. Während einige dieser Firmen Experten für Spieledesign und -programmierung anstellten, um hochwertige Spiele zu entwickeln, wurden die meisten von Programmieranfängern besetzt, die von Risikokapitalgebern ohne Erfahrung in diesem Bereich unterstützt wurden. Infolgedessen wurde der Atari-VCS-Markt mit großen Mengen an Spielen von schlechter Qualität verwässert. Diese Spiele verkauften sich nicht gut und Einzelhändler reduzierten ihre Preise, um ihr Inventar loszuwerden. Dies wirkte sich weiter auf den Verkauf hochwertiger Spiele aus, da die Verbraucher dazu verleitet würden, Spiele zu Schnäppchenpreisen anstelle von Qualitätsspielen zu einem regulären Preis zu kaufen. [47]

Ende 1983 gab es mehrere Faktoren, darunter ein überschwemmter Markt mit Spielen von schlechter Qualität und der Verlust der Kontrolle über die Veröffentlichung, das mangelnde Vertrauen der Verbraucher in den Marktführer Atari aufgrund der schlechten Leistung einiger hochkarätiger Spiele und Heimcomputer, die sich als eine neue und fortschrittlichere Plattform für Spiele, verursachte einen schweren Abschwung in der nordamerikanischen Videospielindustrie. Der Crash von 1983 machte mehrere nordamerikanische Unternehmen, die von Ende 1983 bis Anfang 1984 Konsolen und Spiele herstellten, bankrott. Der US-Markt von 3 Milliarden US-Dollar sank 1983 auf 100 Millionen US-Dollar bis 1985, [48] während der weltweite Markt für Videospiele, der 1982 auf 42 Milliarden US-Dollar geschätzt wurde, fiel bis 1985 auf 14 Milliarden Dollar. [49] Warner Communications verkaufte Atari 1984 an Jack Tramiel von Commodore International, [50] während Magnavox und Coleco die Branche verließen. Die Auswirkungen des Absturzes schwächten auch die Arcade-Spieleindustrie und den Markt für PC-Spiele für einige Jahre nach dem Absturz.

Der Crash hatte einige geringfügige Auswirkungen auf japanische Unternehmen mit amerikanischen Partnern, die vom Crash betroffen waren, aber da die meisten japanischen Unternehmen, die an Videospielen beteiligt sind, zu diesem Zeitpunkt eine lange Geschichte haben, konnten sie die kurzfristigen Auswirkungen überstehen. Der Absturz bereitete den Weg für Japan, um in den nächsten Jahren zum Marktführer in der Videospielbranche aufzusteigen, insbesondere mit der Einführung des umbenannten Famicom, dem Nintendo Entertainment System, 1985 in die USA und andere westliche Regionen zurück Veröffentlichungskontrolle, um dieselben Faktoren zu vermeiden, die zum Absturz von 1983 führten. [51]

Der Aufstieg der Computerspiele

Zweite Welle von Heimcomputern

Nach dem Erfolg von Apple II und Commodore PET in den späten 1970er Jahren entstand in den frühen 1980er Jahren eine Reihe billigerer und inkompatibler Heimcomputer. Diese zweite Charge umfasste die Commodore VIC-20 und 64 Sinclair ZX80, ZX81 und ZX Spectrum NEC PC-8000, PC-6001, PC-88 und PC-98 Sharp X1 und X68000 und die Atari 8-Bit-Familie, BBC Micro, Acorn Electron , Amstrad CPC- und MSX-Serie. Viele dieser Systeme fanden auf den regionalen Märkten Anklang.

Diese neuen Systeme trugen dazu bei, sowohl den Heimcomputer- als auch den Spielemarkt zu katalysieren, indem sie durch ihre konkurrierenden Werbekampagnen das Bewusstsein für Computer und Spiele schärfen. Dies war am bemerkenswertesten im Vereinigten Königreich, wo die BBC die Computerausbildung förderte und die Entwicklung der BBC Micro mit Acorn unterstützte. [52] Zwischen dem BBC Micro, dem ZX Spectrum und dem Commodore 64 entstand im Vereinigten Königreich eine neue Welle von "Schlafzimmer-Codierern" und begann, ihre eigene Software für diese Plattformen zu verkaufen, neben denen, die von kleinen professionellen Teams entwickelt wurden. [53] [54] [55] [56] Kleine Verlags- und Vertriebsunternehmen wie Acornsoft und Mastertronic wurden gegründet, um diesen Personen und Teams zu helfen, Kopien ihrer Spiele zu erstellen und zu verkaufen. Ubisoft begann Mitte der 1980er Jahre als ein solcher Distributor in Frankreich, bevor sie sich der Entwicklung und Veröffentlichung von Videospielen widmeten. [57] In Japan waren Systeme wie der MSX und die NEC-PC-Reihe beliebt, und mehrere Entwicklungshäuser entstanden, die Arcade-Klone und neue Spiele für diese Plattformen entwickelten. Zu diesen Unternehmen gehörten HAL Laboratory, Square und Enix, die alle später nach seiner Veröffentlichung im Jahr 1983 zu den ersten Drittentwicklern für das Nintendo Famicom wurden. [10]

Zu den bemerkenswerten Titeln aus dieser Zeit gehören die ersten Ultima Titel von Richard Garriott und dem ersten Zauberei Titel von Sir-Tech, beides grundlegende Rollenspiele auf dem PC. Das Weltraumhandels- und Kampfsimulationsspiel Elite von David Braben und Ian Bell führte eine Reihe neuer Grafik- und Gameplay-Features ein und gilt als eines der ersten Open-World- und Sandbox-Spiele. [58]

Spiele dominierten die Softwarebibliotheken von Heimcomputern. Ein Kompendium von 1984 mit Bewertungen der Atari 8-Bit-Software verwendet 198 Seiten für Spiele im Vergleich zu 167 für alle anderen. [59] In diesem Jahr löste der Computerspielmarkt den Konsolenmarkt ab, nachdem Computer in diesem Jahr die gleichen Fähigkeiten boten, und da ihr einfaches Design es den Spielen ermöglichte, die Hardware nach dem Einschalten vollständig zu beherrschen, waren sie fast so einfach als Konsolen zu spielen. [ Zitat benötigt ] Darüber hinaus wurde die erste Welle kommerzieller Lernvideospiele, wie z Der Oregon Trail und Wo auf der Welt ist Carmen Sandiego?, entstand aus der moralischen Panik, die mit Arcade-Spielen verbunden ist, und nutzte die zunehmende Popularität von Heimcomputern, um diese Titel als Alternative für besorgte Eltern sowie zur Verwendung im Klassenzimmer zu verkaufen. [60]

Später in den 1980er Jahren tauchte mit dem Commodore Amiga und Atari ST im Jahr 1985 und dem Atari ST die nächste Welle von Personal Computern auf. Beide Computer verfügten über fortschrittlichere Grafik- und Soundfunktionen als die vorherige Computergeneration und wurden zu wichtigen Plattformen für die Entwicklung von Videospielen, insbesondere im Vereinigten Königreich.Die Schlafzimmercoder hatten seitdem Entwicklungsteams gebildet und begannen, professionell Spiele für diese Systeme zu produzieren. Dazu gehörten Bullfrog Productions, gegründet von Peter Molyneux, mit der Veröffentlichung von Dicht besiedelt (das erste solche Götterspiel), DMA Design mit Lemminge, Psygnose mit Schatten der Bestie, und Team17 mit Würmer. [61]

Der IBM-PC-kompatibel

Während die zweite Welle von Heimcomputersystemen in den frühen 1980er Jahren florierte, blieben sie als voneinander geschlossene Hardwaresysteme, während Programme, die in BASIC oder anderen einfachen Sprachen geschrieben wurden, leicht kopiert werden konnten das Zielsystem. Unabhängig davon veröffentlichte IBM 1981 den ersten seiner IBM Personal Computer (IBM PC), der mit dem Betriebssystem MS-DOS ausgeliefert wurde. Der IBM-PC wurde mit einer offenen Architektur entworfen, um das Hinzufügen neuer Komponenten zu ermöglichen, aber IBM beabsichtigte, die Kontrolle über die Herstellung mit dem für das System entwickelten proprietären BIOS zu behalten. [62] Als IBM Schwierigkeiten hatte, die Nachfrage nach seinen PCs zu befriedigen, arbeiteten andere Computerhersteller wie Compaq daran, das BIOS zurückzuentwickeln und entwickelten bis 1983 IBM PC-kompatible Computer. [63] [64] [65] [66] [67] [ 68] 1987 dominierten IBM PC-kompatible Computer den Heim- und Geschäftscomputermarkt. [69]

Aus Sicht der Videospiele belebte die IBM PC-Kompatibilität die weitere Spieleentwicklung. Ein Softwareentwickler konnte schreiben, um die IBM PC-kompatiblen Spezifikationen zu erfüllen und sich keine Gedanken darüber machen, welche Marke oder welches Modell verwendet wird. Während der anfängliche IBM-PC nur einfarbige Textspiele unterstützte, portierten Spieleentwickler dennoch Mainframe- und andere einfache Textspiele auf den PC, wie Infocom mit Zork. IBM führte Video-Display-Controller wie den Color Graphics Adapter (CGA) (1981), den Enhanced Graphics Adapter (EGA) (1984) und das Video Graphics Array (VGA) (1987) ein, die jedoch die Fähigkeit des Computers zur Anzeige von Farbgrafiken erweiterten selbst mit VGA blieben diese noch hinter denen des Amiga zurück. Die ersten dedizierten Soundkarten für IBM PC-kompatible Geräte wurden ab 1987 auf den Markt gebracht, die eine digitale Tonumwandlungseingabe und -ausgabe ermöglichten, die die internen Lautsprecher des Computers weit übertraf, und mit Sound Blaster von Creative Labs im Jahr 1989 die Möglichkeit, einen Gamecontroller oder ähnliches anzuschließen Gerät.

2008 führte Sid Meier den IBM-PC als eine der drei wichtigsten Innovationen in der Geschichte der Videospiele auf. [70] Die Weiterentwicklung der Grafik- und Soundfähigkeiten der IBM-kompatiblen PCs führte zu mehreren einflussreichen Titeln aus dieser Zeit. Zahlreiche Titel, die bereits für die früheren Heimcomputer erstellt wurden, wurden später auf IBM PC-kompatible Systeme portiert, um die größere Verbraucherbasis zu nutzen, einschließlich der Zauberei und Ultima Serie, mit zukünftigen Raten für den IBM PC veröffentlicht. Die ersten grafischen Adventure-Spiele von Sierra On-Line wurden mit dem King's Quest Serie. Der Erste SimCity Spiel von Maxis wurde 1989 veröffentlicht. [71]

Zu dieser Zeit kam auch der Apple Macintosh. Im Gegensatz zum IBM-PC behielt Apple auf dem Macintosh ein geschlosseneres System bei und schuf ein System, das auf einem grafischen Benutzerschnittstellen (GUI)-gesteuerten Betriebssystem basiert. Infolgedessen hatte es nicht den gleichen Marktanteil wie die IBM-kompatiblen PCs, verfügte jedoch über eine respektable Softwarebibliothek mit Videospielen, typischerweise Ports von anderen Systemen. [62]

Die ersten großen Videospiel-Publisher entstanden in den 1980er Jahren und unterstützten hauptsächlich PC-Spiele sowohl auf IBM PC-kompatiblen Spielen als auch auf den beliebten früheren Systemen zusammen mit einigen Konsolenspielen. Zu den großen Verlagen, die zu dieser Zeit gegründet wurden, gehörten Electronic Arts [72] und Broderbund, während Sierra On-Line seine eigenen Publishing-Möglichkeiten für andere Entwickler erweiterte. [73] Activision, das sich immer noch von den finanziellen Auswirkungen des Videospiel-Absturzes von 1983 erholte, erweiterte sich um andere Software-Eigenschaften für das Büro und firmierte bis 1990 in Mediagenic um. [23]

Frühe Online-Spiele

DFÜ-Bulletin-Board-Systeme waren in den 1980er Jahren beliebt und wurden manchmal für Online-Spiele verwendet. Die frühesten derartigen Systeme waren in den späten 1970er und frühen 1980er Jahren und hatten eine grobe Klartextschnittstelle. Spätere Systeme verwendeten Terminal-Steuerungscodes (die sogenannte ANSI-Kunst, die die Verwendung von IBM-PC-spezifischen Zeichen beinhaltete, die nicht Teil eines Standards des American National Standards Institute (ANSI) waren) um eine pseudo-grafische Schnittstelle zu erhalten. Einige BBSs boten Zugang zu verschiedenen Spielen, die über eine solche Schnittstelle spielbar waren, von Textabenteuern bis hin zu Glücksspielen wie Blackjack (im Allgemeinen eher um "Punkte" als um echtes Geld gespielt). Auf einigen Multiuser-BBSs (bei denen mehr als eine Person gleichzeitig online sein konnte) gab es Spiele, die es den Benutzern ermöglichten, miteinander zu interagieren.

SuperSet-Software erstellt Schnepfe, ein Computerspiel im Textmodus im Jahr 1983, um ein neues IBM Personal Computer-basiertes Computernetzwerk zu testen und seine Fähigkeiten zu demonstrieren. Schnepfe wird offiziell als die ursprüngliche Inspiration für NetWare anerkannt. Es wird angenommen, dass es das erste Netzwerkspiel ist, das jemals für einen kommerziellen PC geschrieben wurde, und wird neben dem Spiel von 1974 anerkannt Labyrinthkrieg (ein vernetztes Multiplayer-Labyrinthspiel für mehrere Forschungsmaschinen) und Spasim (eine 3D-Multiplayer-Weltraumsimulation für Time-Shared-Mainframes) als Vorläufer von Multiplayer-Spielen wie den 1987er Jahren MIDI-Labyrinth, und Untergang im Jahr 1993. 1995 wurde iDoom (später Kali.net) für Spiele entwickelt, die nur lokale Netzwerkspiele über das Internet ermöglichten. Weitere Dienste wie Kahn, TEN, Mplayer und Heat.net folgten bald darauf. Diese Dienste wurden schließlich obsolet, als Spielehersteller begannen, ihre eigene Online-Software wie Battle.net, WON und später Steam einzubinden.

Die ersten Benutzeroberflächen waren Klartext - ähnlich wie BBSs -, aber sie funktionierten auf großen Mainframe-Computern und ermöglichten es einer größeren Anzahl von Benutzern, gleichzeitig online zu sein. Am Ende des Jahrzehnts verfügten Inline-Dienste über vollständig grafische Umgebungen mit spezieller Software für jede PC-Plattform. Beliebte textbasierte Dienste waren CompuServe, The Source und GEnie, während plattformspezifische grafische Dienste PlayNET und Quantum Link für den Commodore 64, AppleLink für den Apple II und Macintosh und PC Link für den IBM PC umfassten – allesamt geführt von dem Unternehmen, das schließlich zu America Online wurde – und einem konkurrierenden Dienst, Prodigy. Interaktive Spiele waren ein Merkmal dieser Dienste, obwohl sie bis 1987 textbasierte Displays und keine Grafiken verwendeten.

Mitte der 1980er Jahre erhielten Schulen und andere Institutionen Zugang zum ARPANET, dem Vorläufer des modernen Internets. Während die ARPANET-Verbindungen für Forschungszwecke gedacht waren, erforschten die Studenten Möglichkeiten, diese Konnektivität für Videospiele zu nutzen. Mehrbenutzer-Dungeon (SCHLAMM) wurde ursprünglich 1978 von Roy Trubshaw und Richard Bartle an der University of Essex als Multiplayer-Spiel entwickelt, war jedoch auf das Mainframe-System der Schule beschränkt, wurde jedoch angepasst, um ARPANET zu verwenden, als die Schule 1981 Zugang dazu erhielt, was es zum ersten Internet machte -verbundenes Spiel und das erste solche MUD und ein früher Titel von Massively Multiplayer Online Games. [74]

Die Wiederherstellung der Heimkonsole

8-Bit-Konsolen

Während der Videospiel-Crash von 1983 den US-Markt verwüstete, blieb der japanische Videospielsektor unversehrt. In diesem Jahr stellte Nintendo das Famicom (kurz für Family Computer) vor, während Newcomer Sega seinen Arcade-Spielhintergrund nutzte, um den SG-1000 zu entwerfen. Das Famicom wurde in Japan schnell zu einem kommerziellen Erfolg, mit 2,5 Millionen verkauften Konsolen bis Anfang 1985. Nintendo wollte das System auf dem schwachen US-Markt einführen, erkannte jedoch, dass der Markt immer noch mit dem Absturz von 1983 zu kämpfen hatte und Videospiele immer noch eine dort negative Wahrnehmung. [75] In Zusammenarbeit mit seiner Nintendo of America-Abteilung benannte Nintendo das Famicom in Nintendo Entertainment System (NES) um, was ihm das Aussehen eines Videokassettenrekorders und nicht eines spielzeugähnlichen Geräts gab, und brachte das System in den Vereinigten Staaten auf den Markt 1985 mit Zubehör wie ROB (Robotic Operating Buddy), um das System anspruchsvoller erscheinen zu lassen als frühere Heimkonsolen. [76] Das NES belebte den US-amerikanischen Videospielmarkt wieder, und bis 1989 ist der US-Markt auf 5 Milliarden US-Dollar angewachsen. Während seiner gesamten Lebensdauer wurden in den USA über 35 Millionen NES-Systeme verkauft, davon fast 62 Millionen weltweit. [77]

Neben der Belebung des US-Marktes hatte die Famicom/NES-Konsole eine Reihe anderer langjähriger Auswirkungen auf die Videospielindustrie. Nintendo nutzte das Rasierer- und Klingenmodell, um die Konsole zu nahezu Herstellungskosten zu verkaufen und gleichzeitig vom Verkauf von Spielen zu profitieren. [7] Da der Verkauf von Spielen für Nintendo von entscheidender Bedeutung war, kontrollierte es zunächst die gesamte Spieleproduktion, aber auf Anfrage von Unternehmen wie Namco und Hudson Soft erlaubte Nintendo Drittentwicklern, Spiele für die Konsolen zu entwickeln, kontrollierte jedoch den Herstellungsprozess streng. beschränkte diese Unternehmen auf fünf Titel pro Jahr und verlangte eine Lizenzgebühr von 30 % pro Spielverkauf, eine Zahl, die bis heute während der gesamten Konsolenentwicklung verwendet wurde. [78] Nintendos Kontrolle über Famicom-Spiele führte zu einem Bootleg-Markt für nicht autorisierte Spiele aus asiatischen Ländern, den es zu bekämpfen versuchte, indem es authentische Spiele mit dem "Nintendo Seal of Approval" markierte. Als das NES auf den Markt kam, zog Nintendo die Lehren, die es aus seinen eigenen Bootleg-Problemen mit dem Famicom und aus der Übersättigung des US-Marktes, die zum Absturz von 1983 führte, lernte und entwickelte das 10NES-Sperrsystem für NES-Spiele, für das ein spezieller Chip erforderlich war in Cartridges vorhanden sein, um auf NES-Systemen verwendet werden zu können. Das 10NES half, den Bootleg-Markt für NES-Spiele einzudämmen, aber nicht zu beseitigen. [79] [80] In den Vereinigten Staaten richtete Nintendo of America eine spezielle Telefon-Hotline ein, um Spielern bei schwierigeren Spielen Hilfe zu bieten, und startete Nintendo-Power Magazin mit Tipps und Tricks sowie Neuigkeiten zu kommenden Nintendo-Spielen. [81]

Segas SG-1000 schnitt gegen das Famicom in Japan nicht so gut ab, aber das Unternehmen verfeinerte es weiter und veröffentlichte 1985 Sega Mark III (auch als Master System bekannt). Während Nintendo in Japan und den USA mehr Erfolg hatte, Segas Mark III verkaufte sich in Europa, Ozeanien und Brasilien gut. [82] [83] [84]

Zahlreiche grundlegende Videospiel-Franchises wurden während der Famicom/NES- und Mark III/Master-System-Periode gegründet, hauptsächlich aus japanischen Entwicklungsunternehmen. Während Mario schon in aufgetaucht war Esel Kong und das Game & Watch- und Arcade-Spiel Mario-Brüder., Super Mario Bros., das 1985 debütierte, etablierte Mario als Nintendos Maskottchen und den ersten der Super Mario Franchise. [10] Sega stellte auch seine ersten Maskottchenfiguren vor, das Opa-Opa-Schiff von Fantasiezone 1986 und später ersetzt durch Alex Kidd via Alex Kidd in Miracle World 1986, obwohl keiner von beiden die öffentliche Anerkennung erhielt, die Mario erhalten hatte. [85] Andere wichtige Nintendo-Franchises wurden aus den Spielen geboren Die Legende von Zelda und Metroid, beide im Jahr 1986 veröffentlicht. Das Zentrum für rundenbasierte Computer-Rollenspiele wurde mit Drachenquest (1986) von Chunsoft und Enix, Final Fantasy (1987) von Square, und Fantasiestern (1987) von Sega. Capcoms Mega-Mann (1987) und Konamis Castlevania (1986) und Metallgetriebe (1987) haben auch laufende Franchises, mit Metallgetriebe gilt auch als das erste Mainstream-Stealth-Spiel. [86]

Mit der Dominanz von Nintendo wurde Japan zum Epizentrum des Videospielmarktes, da viele der ehemaligen amerikanischen Hersteller Ende der 1980er Jahre den Markt verlassen hatten. [87] Gleichzeitig erkannten Softwareentwickler von der Heimcomputerseite die Stärke der Konsolen, und Unternehmen wie Epyx, Electronic Arts und LucasArts begannen, sich der Entwicklung von Konsolenspielen zu widmen [88] 1989 wurde der Markt für Cartridge- basierte Konsolenspiele betrug mehr als 2 Milliarden Dollar, während es für Disk-basierte Computerspiele weniger als 300 Millionen Dollar waren. [89]

16-Bit-Konsolen

NEC veröffentlichte seine PC Engine 1987 in Japan, die in Nordamerika in TurboGrafx-16 umbenannt wurde. Während die CPU noch ein 8-Bit-System war, verwendete der TurboGrafx-16 eine 16-Bit-Grafikkarte, und NEC entschied sich, das System stark als "16-Bit" -System zu vermarkten, um sich vom 8-Bit-NES zu unterscheiden. Dieser Trick führte dazu, dass die Prozessorbitgröße in den nächsten zehn Jahren, einer Zeit, die als "Bitkriege" bekannt ist, ein Schlüsselfaktor bei der Vermarktung von Videospielkonsolen war. [90]

Sega brachte 1988 seine nächste Konsole, den Mega Drive in Japan auf den Markt und wurde 1989 für den Start in Nordamerika in Sega Genesis umbenannt. Sega wollte die Dominanz des NES in den Vereinigten Staaten mit dem Genesis herausfordern, und die anfängliche Kampagne konzentrierte sich auf die 16-Bit-Power des Genesis über das NES sowie eine neue Reihe von Sportspielen, die für die Konsole entwickelt wurden. Da es nicht gelang, die Dominanz von NES erheblich einzuschränken, stellte Sega Tom Kalinske zum Präsidenten von Sega of America ein, um eine neue Kampagne durchzuführen. Zu den Änderungen von Kalinske gehörten eine deutliche Preissenkung der Konsole und die Bündelung von Segas neuestem Spiel Sonic the Hedgehog, mit dem neuesten Maskottchen von Segas mit dem gleichen Namen, mit der Konsole. Kalinskes Änderungen gaben Genesis bis 1991 den Vorteil gegenüber dem NES und führten zu einem Konsolenkrieg zwischen Sega und Nintendo. Nintendos 16-Bit-Konsole, das Super Nintendo Entertainment System (SNES), hatte bei seiner ersten Einführung in den USA aufgrund der Stärke des Genesis Probleme. Dieser Konsolenkrieg zwischen Sega und Nintendo dauerte bis 1994, als Sony Computer Entertainment beide Unternehmen mit der Veröffentlichung der PlayStation störte. [91]

Neben anderen Aspekten des Konsolenkrieges zwischen Sega und Nintendo brachte diese Zeit eine Revolution in Sportvideospielen. Obwohl diese Spiele seit den ersten Arcade- und Konsolenspielen existierten, erforderte ihre begrenzte Grafik ein stark vereinfachtes Gameplay. Als Sega of America die Genesis zum ersten Mal in den Vereinigten Staaten vorstellte, hatte sie Namensrechte von hochkarätigen Personen in den verschiedenen Sportarten erhalten, wie z Pat Riley Basketball und Joe Montana Fußball, aber den Spielen fehlte noch jede Komplexität. Electronic Arts unter Trip Hawkins war bestrebt, ein realistischeres Fußballspiel für den Genesis zu entwickeln, das die Rechenkapazitäten dafür hatte, wollte jedoch nicht die hohen Lizenzgebühren zahlen, die Sega für die Entwicklung auf dem Genesis verlangte. Sie konnten sich die Namensrechte für John Madden sichern und die Genesis zurückentwickeln, um sie produzieren zu können John Madden Fußball, eines der ersten großen erfolgreichen Sportspiele. [92] Electronic Arts konzentrierte sich anschließend stark auf Sportspiele und expandierte in andere Sportarten wie Baseball, Hockey und Golf. [72]

Neo-Geo von SNK war bei seiner Veröffentlichung im Jahr 1990 die mit Abstand teuerste Konsole. Der Neo-Geo verwendete ähnliche Hardware wie die Arcade-Maschinen von SNK, was seinen Spielen eine bessere Qualität verlieh als andere 16-Bit-Konsolen, aber das System war kommerziell nicht lebensfähig. Die Neo-Geo war insbesondere die erste Heimkonsole mit Unterstützung für Speicherkarten, die es Spielern ermöglichte, ihren Spielfortschritt nicht nur zu Hause zu speichern, sondern auch mit kompatiblen Neo-Geo-Arcade-Spielen zu teilen. [93]

Die 1990er Jahre waren ein Jahrzehnt deutlicher Innovationen bei Videospielen. Es war ein Jahrzehnt des Übergangs von Rastergrafik zu 3D-Grafik und führte zu mehreren Genres von Videospielen, darunter Ego-Shooter, Echtzeitstrategie und MMO. Handheld-Spiele wurden im Laufe des Jahrzehnts immer beliebter, teilweise dank der Veröffentlichung des Game Boy im Jahr 1989. [94] Arcade-Spiele erlebten Anfang bis Mitte der 1990er Jahre einen Wiederaufschwung, gefolgt von einem Rückgang in den späten 1990er Jahren als Heimspiel Konsolen wurden häufiger.

Als die Arcade-Spiele jedoch zurückgingen, reifte die Heimvideospielindustrie in den 1990er Jahren zu einer Mainstream-Unterhaltungsform, aber ihre Videospiele wurden aufgrund ihres gewalttätigen Charakters auch immer umstrittener, insbesondere in Spielen von Mortal Kombat, Nachtfalle, und Untergang, die seit 1994 zur Gründung der Interactive Digital Software Association und ihrer Bewertungsspiele führten, indem sie ihre ESRB-Bewertungen unterzeichneten. [95] Zu den wichtigsten Entwicklungen der 1990er Jahre gehört die Popularisierung von 3D-Computergrafiken unter Verwendung von Polygonen (zunächst in Spielhallen, gefolgt von Heimkonsolen). und Computer) und den Beginn einer größeren Konsolidierung von Verlagen, Spiele mit höherem Budget, größere Produktionsteams und Kooperationen mit der Musik- und Filmindustrie. Beispiele hierfür sind Mark Hamills Engagement bei Geschwaderkommandant III, die Einführung von QSound mit Arcade-Systemboards wie dem CP System II von Capcom und die hohen Produktionsbudgets von Titeln wie Squaresofts Final Fantasy VII und Segas Shenmue.

Umstellung auf optische Medien

Ende der 1980er Jahre wurden Konsolenspiele auf ROM-Cartridges vertrieben, während PC-Spiele auf Disketten ausgeliefert wurden, Formaten mit begrenzter Speicherkapazität. Optische Medien, und insbesondere die CD-ROM, wurden erstmals Mitte der 1980er Jahre für den Musikvertrieb eingeführt und Anfang der 1990er Jahre wurden sowohl die Medien als auch die CD-Laufwerke kostengünstig in Consumer-Computergeräte integriert, einschließlich für beide Heimkonsolen und Computer. [96] Optische Medien boten nicht nur mehr Kapazität für Gameplay-Inhalte, sondern ermöglichten es auch, lange Videosegmente in Spiele einzubinden, wie beispielsweise Full-Motion-Videos oder animierte oder vorgerenderte Zwischensequenzen, wodurch Spiele mit mehr narrativen Elementen versehen werden konnten. [97]

Vor den 1990er Jahren erforschten einige Arcade-Spiele die Verwendung von Laserdiscs, wobei das bemerkenswerteste dabei war Drachenhöhle 1983. Diese Spiele gelten als interaktive Filme und verwenden Full-Motion-Videos von der Laserdisc, die den Spieler auffordern, zum richtigen Zeitpunkt über die Steuerung zu reagieren, um das Spiel fortzusetzen. [97] [98] Obwohl diese Spiele in den frühen 1980er Jahren populär waren, begrenzten die damals unerschwinglichen Kosten der Laserdisc-Technologie ihren Erfolg. Als die optische Medientechnologie in den 1990er Jahren ausgereift und im Preis gefallen war, entstanden neue Laserdisc-Arcade-Spiele, wie z Mad Dog McCree im Jahr 1990. [97] Die Pioneer Corporation veröffentlichte 1993 die LaserActive-Spielekonsole, die nur Laserdiscs verwendet, mit Erweiterungs-Add-Ons zum Spielen von Spielen aus der Sega Genesis- und NEC TurboGrafx-16-Bibliothek, jedoch mit einem Konsolen-Grundpreis von 1.000 US-Dollar und zusätzlichen ons bei 600 US-Dollar lief die Konsole nicht gut. [99]

Bei Konsolen waren optische Medien billiger in der Herstellung als ROM-Kassetten, und CD-ROMs konnten in einer Woche produziert werden, während die Montage der Kassetten zusätzlich zur größeren Kapazität zwei bis drei Monate dauern konnte. [100] Für die 16-Bit-Konsolen wurden Add-ons erstellt, um CD-Medien zu verwenden, einschließlich der PC Engine und des Mega Drive. Andere Hersteller stellten Konsolen mit Dual-Media her, wie zum Beispiel NECs TurboDuo.Philips brachte 1990 die CD-i auf den Markt, eine Konsole, die nur optische Medien verwendet, aber das Gerät hatte begrenzte Spielfunktionen und eine begrenzte Spielebibliothek. [101] Nintendo hatte in ähnlicher Weise mit Sony zusammengearbeitet, um ein CD-basiertes SNES zu entwickeln, das als Super NES CD-ROM bekannt ist 1994 veröffentlichte PlayStation-Konsole, die ausschließlich optische Medien verwendet. [102] Sony war in der Lage, davon zu profitieren, wie der japanische Markt die Spieleverkäufe in Japan für die PlayStation abwickelte, indem nur eine begrenzte Anzahl neuer CD-ROM-Spiele produziert wurde und die Möglichkeit bestand, schnell neue Kopien eines Spiels zu produzieren, falls es sich als erfolgreich erweisen sollte. ein Faktor, der bei ROM-Cartridges nicht leicht zu realisieren war, da aufgrund der schnellen Geschmacksänderung der Verbraucher fast alle für den Verkauf erwarteten Cartridges im Voraus produziert werden mussten. Dies half Sony in den 1990er Jahren, Nintendo und Sega zu überholen. [103] Einer der wichtigsten Titel auf der PlayStation, die sich an das CD-Format angepasst haben, war Final Fantasy VII, veröffentlicht im Jahr 1997 Squares Entwickler wollten die Serie von der 2D-Präsentation der Serie auf die Verwendung von 3D-Modellen umstellen. ROM gab ihnen den Platz für alle gewünschten Inhalte, einschließlich vorgerenderter Zwischensequenzen. [104] Final Fantasy VII wurde zu einem der wichtigsten Titel der Branche, da es die Idee von Konsolen-Rollenspielen auf die Verbraucher von Konsolenspielen ausdehnte. [97] [105] Seit der PlayStation verlassen sich alle Heimspielkonsolen außerhalb des Nintendo 64 und der Switch auf optische Medien für die physische Verteilung von Spielen. [100]

Auf der PC-Seite standen CD-Laufwerke zunächst als Peripheriegeräte für Computer zur Verfügung, bevor sie zu Standardkomponenten in PCs wurden. Die CD-ROM-Technologie war bereits 1989 verfügbar, mit Cyan Worlds' Das Mannloch als eines der ersten Spiele, die auf dem Medium verbreitet wurden. [97] Während CD-ROMs als besseres Mittel zum Vertrieb größerer Spiele dienten, setzte sich das Medium 1993 mit den Veröffentlichungen von Cyan's . durch Myst und Trilobytes Der 7. Gast, Adventure-Spiele, die Full-Motion-Videosegmente zwischen festen vorgerenderten Szenen integriert und das CD-ROM-Medium in das Spiel selbst integriert. Beide Spiele galten als Killer-Apps, um das CD-ROM-Format für PCs zu standardisieren. [106] [107]

Einführung von 3D-Grafiken

Neben dem Übergang zu optischen Medien erlebte die Branche als Ganzes in den 1990er Jahren einen starken Wandel hin zur Verwendung von Echtzeit-3D-Computergrafiken in Spielen. Es gab eine Reihe von Arcade-Spielen, die einfache Wireframe-Vektorgrafiken verwendeten, um 3D zu simulieren, wie z Kampfzone, Sturm, und Krieg der Sterne. Eine einzigartige Herausforderung in der 3D-Computergrafik besteht darin, dass das Echtzeit-Rendering normalerweise Gleitkommaberechnungen erfordert, für die bis in die 1990er Jahre die meisten Videospiel-Hardware nicht gut geeignet war. Stattdessen simulierten viele Spiele 3D-Effekte wie das Parallax-Rendering verschiedener Hintergrundebenen, das Skalieren von Sprites, wenn sie sich auf die Sicht des Spielers zu oder von ihr wegbewegten, oder andere Rendering-Methoden wie den SNES-Modus 7. Diese Tricks zum Simulieren von 3D-Rendering Grafiken durch 2D-Systeme werden allgemein als 2,5D-Grafiken bezeichnet.

Echtes Echtzeit-3D-Rendering mit Polygonen wurde bald durch Yu Suzukis Sega AM2-Spiele populär Virtua Racing (1992) und Virtua-Kämpfer (1993), die beide auf dem Sega Model 1 Arcade-Systemboard laufen [108] einige der Mitarbeiter von Sony Computer Entertainment (SCE), die an der Erstellung der ursprünglichen PlayStation-Videospielkonsole beteiligt waren Virtua-Kämpfer als Inspiration für die 3D-Grafikhardware der PlayStation. Laut dem ehemaligen Produzenten von SCE, Ryoji Akagawa und dem Vorsitzenden Shigeo Maruyama, wurde die PlayStation ursprünglich als 2D-fokussierte Hardware betrachtet, und das war erst der Erfolg von Virtua-Kämpfer in den Spielhallen beschlossen sie, die PlayStation als 3D-fokussierte Hardware zu entwickeln. [109] Texturmapping und Texturfilterung wurden bald durch 3D-Renn- und Kampfspiele populär. [110]

Heimvideospielkonsolen wie die PlayStation, der Sega Saturn und Nintendo 64 wurden ebenfalls in der Lage, texturierte 3D-Grafiken zu erzeugen. Nintendo hatte bereits veröffentlicht Sternfuchs im Jahr 1993, das den Super FX-Grafik-Coprozessor-Chip enthielt, der in die Spielkassette eingebaut war, um polygonales Rendering für das SNES zu unterstützen, und der Nintendo 64 enthielt einen Grafik-Coprozessor direkt auf der Konsole.

Auf PCs experimentierten John Carmack und John Romero von id Software mit Echtzeit-Rendering von 3D-Spielen durch Schwebepanzer 3D und Katakombe 3-D. Diese führten zur Veröffentlichung von Wolfenstein 3D im Jahr 1992, gilt als der ursprüngliche Ego-Shooter, da er die Welt des Spiels schnell genug machte, um mit den Bewegungen des Spielers Schritt zu halten. An dieser Stelle jedoch Wolfenstein 3D 's Karten waren auf eine einzige Ebene beschränkt. [111] Verbesserungen würden kommen Ultima Unterwelt von Blue Sky Productions, die Böden unterschiedlicher Höhe und Rampen enthielten, deren Rendering länger dauerte, aber im Rollenspiel als akzeptabel angesehen wurde, und IDs Untergang, fügte unter anderem Lichteffekte hinzu, aber immer noch mit Einschränkungen, dass die Karten effektiv zweidimensional waren und die meisten Feinde und Objekte im Spiel durch Sprites repräsentiert wurden. id hatte eine der ersten Game-Engines entwickelt, die den Inhalt von den Gameplay- und Rendering-Ebenen trennte, und diese Engine an andere Entwickler lizenziert, was zu Spielen wie Ketzer und Hexen, während andere Spieleentwickler ihre eigenen Engines basierend auf den Konzepten der Untergang Motor, wie z Herzog Nukem 3D und Marathon. [112] 1996, ids Beben war das erste Computerspiel mit einer echten 3D-Game-Engine mit In-Game-Charakter- und Objektmodellen, und wie bei der Untergang Motor, id lizenziert der Beben Engine, was zu einem weiteren Wachstum bei Ego-Shootern führte. [111] 1997 waren die ersten verbraucherspezifischen 3D-Grafikkarten auf dem Markt erhältlich, getrieben von der Nachfrage nach Ego-Shootern, und in den folgenden Jahren wurden zahlreiche 3D-Spiele-Engines entwickelt, darunter Unreal Engine, GoldSrc und CryEngine. und Etablierung von 3D als neuer Standard in den meisten Computer-Videospielen. [111]

Wiederaufleben und Niedergang der Spielhallen

In Nordamerika erlebten Arcade-Spiele, die mit der zunehmenden Popularität von Heimkonsolen langsam zurückgegangen waren, Anfang bis Mitte der 1990er Jahre mit der Veröffentlichung von Capcomscom Straßenkämpfer II [113] Popularisierung kompetitiver Eins-gegen-Eins-Kampfspiele und Wiederbelebung der Arcade-Industrie auf ein seit den Tagen des nicht mehr gesehenes Popularitätsniveau Pac-Man. [114] Sein Erfolg führte zu einer Welle anderer beliebter Kampfspiele, wie z Mortal Kombat und Der König der Kämpfer. Sportspiele wie z NBA Jam wurde in dieser Zeit auch kurzzeitig in Spielhallen populär. Das Ergebnis der Kontroverse um Gewalt in Videospielen im Jahr 1993 aus Mortal Kombat verursachte eine zweite moralische Panik über die Auswirkungen von Videospielen auf Kinder, und der Arcade-Markt begann für den Rest der 1990er Jahre einen langsamen Niedergang. [13]

Ein weiterer Anziehungspunkt für Spieler aus den Spielhallen waren die neuesten Heimkonsolen, die nun in der Lage waren, "Spielhallen-genaue" Spiele zu spielen, einschließlich der neuesten 3D-Spiele. Immer mehr Spieler warteten darauf, dass beliebte Arcade-Spiele auf Konsolen portiert wurden, anstatt Münzen in Arcade-Kioske zu pumpen. [115] Dieser Trend verstärkte sich mit der Einführung realistischerer Peripheriegeräte für Computer- und Konsolenspielsysteme wie Force-Feedback-Flugzeug-Joysticks und Rennrad-/Pedal-Kits, die es Heimsystemen ermöglichten, sich einem Teil des Realismus und der Immersion zu nähern, die früher auf die Spielhallen beschränkt waren. [ Zitat benötigt ] Um relevant zu bleiben, haben Arcade-Hersteller wie Sega und Namco die Grenzen der 3D-Grafik über das hinaus, was in Privathaushalten möglich war, weiter verschoben. Virtua Fighter 3 für das Sega Model 3 zum Beispiel zeichnete sich durch Echtzeit-3D-Grafiken aus, die sich der Qualität von CGI-Full-Motion-Video (FMV) zu dieser Zeit annäherten. [116] Ebenso veröffentlichte Namco das Namco System 23, um mit dem Model 3 zu konkurrieren. Bis 1998 konnte jedoch die neue Konsole von Sega, die Dreamcast, 3D-Grafiken auf Augenhöhe mit dem Sega Naomi Arcade-Automaten produzieren. Nach der Produktion des leistungsstärkeren Hikaru-Boards im Jahr 1999 und Naomi 2 im Jahr 2000 stellte Sega schließlich die Herstellung kundenspezifischer Arcade-Systemplatinen ein, wobei die nachfolgenden Arcade-Boards entweder auf Konsolen oder kommerziellen PC-Komponenten basierten.

Als die Schirmherrschaft von Spielhallen zurückging, mussten viele Ende der 1990er und Anfang der 2000er Jahre schließen. Klassische münzbetriebene Spiele waren größtenteils zur Domäne engagierter Hobbyisten und als tertiäre Attraktion für einige Unternehmen geworden, wie Kinos, Schlagkäfige, Minigolfplätze und Spielhallen, die an Spieleläden wie F.Y.E. Die Lücke, die die alten Eckarkaden hinterlassen hatten, wurde teilweise durch große Vergnügungszentren gefüllt, die sich der Bereitstellung sauberer, sicherer Umgebungen und kostspieliger Spielsteuerungssysteme widmeten, die Heimanwendern nicht zur Verfügung standen. Diese neueren Arcade-Titel boten Fahr- oder andere Sportspiele mit speziellen Cockpits, die in den Arcade-Automaten integriert waren, Rhythmusspiele, die einzigartige Controller erfordern, wie Gitarrenfreaks und Tanz Tanzrevolution, und pfadbasierte Light Gun Shooting Gallery-Spiele wie Zeitkrise. [13] Arcade-Einrichtungen erweiterten sich um andere Unterhaltungsoptionen wie Essen und Trinken, wie die auf Erwachsene ausgerichteten Franchise-Unternehmen Dave & Buster und GameWorks, während Chuck E. Cheese eine ähnliche Art von Geschäft für Familien und kleine Kinder ist. [13]

Handhelds werden erwachsen

1989 brachte Nintendo mit dem Cartridge-basierten Game Boy die erste große Handheld-Spielekonsole seit der Microvision vor zehn Jahren auf den Markt. Im System enthalten war Tetris, das zu einem der meistverkauften Videospiele aller Zeiten wurde, und zog viele an, die normalerweise keine Videospiele auf dem Handheld spielen würden. [117] Mehrere konkurrierende Handhelds debütierten in den frühen 1990er Jahren, darunter das Sega Game Gear und Atari Lynx (der erste Handheld mit Farb-LCD-Display). Obwohl diese Systeme technologisch fortschrittlicher waren und der Leistung von Heimkonsolen entsprechen sollten, wurden sie durch einen höheren Batterieverbrauch und weniger Unterstützung durch Drittanbieter behindert. Während einige der anderen Systeme bis Mitte der 1990er Jahre in Produktion blieben, waren der Game Boy und seine nachfolgenden Inkarnationen Game Boy Pocket, Game Boy Color und Game Boy Advance in den 1990er Jahren auf dem Handheld-Markt praktisch unangefochten. [118] Die Game Boy-Familie führte auch die ersten Folgen in der Pokémon Serie mit Pokémon Rot und Blau, das nach wie vor eines der meistverkauften Videospiel-Franchises für Nintendo ist. [119]

Computerspiele

Mit der Einführung von 3D-Grafiken und einer stärkeren Betonung von Konsolenspielen wurden kleinere Entwickler, insbesondere diejenigen, die an PCs arbeiteten, in der Regel von Verlagen gemieden, da sie risikoscheu geworden waren. [120] Shareware, eine neue Methode zum Verteilen von Spielen dieser kleineren Teams, entstand Anfang der 1990er Jahre. Typischerweise könnte ein Shareware-Titel von einem Verbraucher angefordert werden, der ihm einen Teil des Spiels ohne Versandkosten zur Verfügung stellt. Wenn dem Verbraucher das Spiel gefallen hat, konnte er für das vollständige Spiel bezahlen. Dieses Modell wurde später erweitert, um im Wesentlichen die "Demo"-Version eines Spiels auf der CD-ROM-Einlage für das Gaming-Magazin und später als digitale Downloads von verschiedenen Websites wie Tucows aufzunehmen. id Software wird die erfolgreiche Umsetzung der Idee für beides zugeschrieben Wolfenstein 3D und Untergang, das später von Apogee (jetzt 3D Realms), Epic MegaGames (jetzt Epic Games) verwendet wurde. [121]

Mehrere Schlüsselgenres wurden in dieser Zeit etabliert. Wie erwähnt, Wolfenstein 3D und Untergang sind die prägenden Titel des Ego-Shooters (FPS), an dem das Genre selbst vorbei war."Untergang Klone" bis etwa 2000, als FPS der populärere Begriff wurde. [122] Grafische Abenteuerspiele wurden in dieser Zeit bekannt, einschließlich der oben genannten for Myst und Der 7. Gast, mehrere LucasArts-Abenteuerspiele, darunter das Affeninsel Serie. Aufgrund der steigenden Popularität des FPS und anderer Action-Genres galt das Abenteuerspiel-Genre jedoch Ende der 1990er Jahre als tot. [123] Die ersten immersiven Sims, Spiele, die dem Spieler durch flexible Spielsysteme mehr Handlungsspielraum und Wahlmöglichkeiten gaben, kamen nach dem Aufkommen von FPS-Spielen mit Titeln wie Ultima Underworld: Der stygische Abgrund und Dieb: Das dunkle Projekt. Dieb erweiterte auch die Idee von Stealth-Spielen und schuf die Idee von "Ego-Sneaker"-Spielen, bei denen der Kampf weniger im Mittelpunkt stand. [124]

Auch Echtzeit-Strategiespiele wurden in den 1990er Jahren mit bahnbrechenden Titeln immer beliebter Düne II, Warcraft: Orks und Menschen und Command & Conquer. Die ersten 4X-Strategiespiele (kurz für "Explore, Expand, Exploit, Exterminate") entstanden ebenfalls in diesem Jahrzehnt und wurden populär durch Sid Meyers Zivilisation im Jahr 1991. Alleine im Dunkeln 1992 etablierten viele Elemente des Survival-Horror-Genres, die im Konsolenspiel enthalten waren Resident Evil. [125] Simulationsspiele wurden populär, darunter auch die von Maxis, beginnend mit SimCity im Jahr 1989 und gipfelte in Die Sims, das Anfang 2000 erstmals veröffentlicht wurde.

Die Online-Konnektivität in Computerspielen wurde immer wichtiger. Aufbauend auf der wachsenden Popularität der textbasierten MUDs der 1980er Jahre wurden grafische MUDs wie Lebensraum verwendet einfache grafische Oberflächen neben Text, um das Spielerlebnis zu visualisieren. Die ersten Massively-Multiplayer-Online-Rollenspiele adaptierten den neuen 3D-Grafikansatz, um virtuelle Welten auf dem Bildschirm zu erstellen, beginnend mit Meridian 59 im Jahr 1996 und populär durch den Erfolg von Ultima Online 1997 und 1997 EverQuest und Asherons Ruf im Jahr 1999. Online-Konnektivität wurde auch in Genres wie FPS und RTS wichtig und ermöglichte es Spielern, sich über Telefon- und Internetverbindungen mit menschlichen Gegnern zu verbinden. Einige Unternehmen haben Clients erstellt, um bei der Konnektivität zu helfen, wie zum Beispiel das Battle.net von Blizzard Entertainment.

In den 1990er Jahren führte Microsoft seine ersten Versionen des Microsoft Windows-Betriebssystems für PCs ein, eine grafische Benutzeroberfläche, die MS-DOS ersetzen sollte. Spieleentwickler fanden es schwierig, für einige der früheren Versionen von Windows zu programmieren, da das Betriebssystem dazu neigte, ihren programmgesteuerten Zugriff auf Ein- und Ausgabegeräte zu blockieren. Microsoft entwickelte DirectX 1995, das später in Microsoft Windows 95 und zukünftige Windows-Produkte integriert wurde, als eine Reihe von Bibliotheken, um Spieleprogrammierern direkten Zugriff auf diese Funktionen zu ermöglichen. Dies half auch, eine Standardschnittstelle bereitzustellen, um die breite Palette von Grafik- und Soundkarten, die zu diesem Zeitpunkt für PCs verfügbar waren, zu normalisieren, was die fortlaufende Spieleentwicklung weiter unterstützte. [126]

32- und 64-Bit-Heimkonsolen

Die Einführung der ersten PlayStation durch Sony im Jahr 1994 hatte den Konsolenkrieg sowohl von Nintendo als auch von Sega behindert und neuen Unternehmen den Markteintritt erschwert. Die PlayStation brachte nicht nur die Revolution bei CD-ROM-Medien, sondern auch die integrierte Unterstützung für polygonale 3D-Grafik-Rendering. Atari versuchte 1993 mit dem 32-Bit Atari Jaguar wieder auf den Markt zu kommen, ihm fehlten jedoch die von Nintendo, Sega oder Sony angebotenen Spielebibliotheken. Die 3DO Company veröffentlichte 1993 den 3DO Interactive Multiplayer, litt jedoch auch unter einem höheren Preis im Vergleich zu anderen Konsolen auf dem Markt. Sega hat großen Wert auf den 1984 veröffentlichten 32-Bit-Sega Saturn gelegt, der der Genesis folgte, und obwohl er sich anfangs mit der PlayStation gut verkaufte, verlor er bald an Boden gegenüber der größeren Palette beliebter Spiele der PlayStation. Nintendos nächste Konsole nach dem SNES war die Nintendo 64, eine 64-Bit-Konsole mit polygonaler 3D-Rendering-Unterstützung. Nintendo entschied sich jedoch, weiterhin das ROM-Cartridge-Format zu verwenden, was dazu führte, dass es Verkäufe gegenüber der PlayStation einbüßte und es Sony ermöglichte, bis zum Jahr 2000 der dominierende Player auf dem Konsolenmarkt zu werden. [127]

Final Fantasy VII, wie bereits beschrieben, war ein bahnbrechender Titel in der Branche und führte das Konzept von Rollenspielen für Konsolenspieler ein. Der Ursprung der Musikvideospiele entstand mit dem PlayStation-Titel PaRappa der Rapper 1997, gepaart mit dem Erfolg von Arcade-Spielen wie Beatmanie und Tanz Tanzrevolution. [128] Resident Evil und Stiller Hügel bildete die Grundlage des aktuellen Survival-Horror-Genres. [129] Nintendo hatte seine eigenen kritischen Erfolge mit GoldenEye 007 von Rare, dem ersten Ego-Shooter für eine Konsole, der grundlegende Funktionen für das Genre einführte, und The Legend of Zelda: Ocarina of Time, eines der am meisten gefeierten Spiele aller Zeiten.

Die 2000er (Jahrzehnte) zeigten Innovationen auf Konsolen und PCs und einen zunehmend wettbewerbsorientierten Markt für tragbare Spielsysteme. Die Auswirkungen der breiteren Verfügbarkeit des Internets führten zu neuen Gameplay-Änderungen, Änderungen der Spielehardware und der Einführung von Online-Diensten für die Konsolen.

Das Phänomen der von Benutzern erstellten Videospielmodifikationen (allgemein als "Mods" bezeichnet) für Spiele, ein Trend, der während der Wolfenstein 3D und Untergang-Ära, bis zum Beginn des 21. Jahrhunderts fortgesetzt. Das bekannteste Beispiel ist das von Gegenschlag 1999 veröffentlicht, ist es immer noch einer der beliebtesten Online-Ego-Shooter, obwohl es als Mod für erstellt wurde Halbes Leben von zwei unabhängigen Programmierern. Schließlich erkannten Spieledesigner das Potenzial von Mods und benutzerdefinierten Inhalten im Allgemeinen, den Wert ihrer Spiele zu steigern, und begannen, ihre Entwicklung zu fördern. Einige Beispiele hierfür sind Unwirkliches Turnier, mit dem Spieler 3dsmax-Szenen importieren konnten, um sie als Charaktermodelle zu verwenden, und Maxis' Die Sims, für die Spieler benutzerdefinierte Objekte erstellen können.

In China wurden Videospielkonsolen im Juni 2000 verboten. Dies hat zu einer explosionsartigen Popularität von Computerspielen, insbesondere MMOs, geführt. Konsolen und die Spiele dafür sind jedoch leicht zu erwerben, da es einen robusten Graumarkt gibt, der sie im ganzen Land importiert und vertreibt. Ein weiterer Nebeneffekt dieses Gesetzes ist die zunehmende Urheberrechtsverletzung von Videospielen. [130] [131]

Die sich wandelnde Heimkonsolenlandschaft

Die Dominanz von Sony auf dem Konsolenmarkt zu Beginn der 2000er Jahre führte zu einer großen Verschiebung des Marktes. Sega versuchte 1998 mit der Dreamcast einen weiteren Vorstoß in die Konsolenhardware, insbesondere die erste Konsole mit einer integrierten Internetverbindung für Online-Spiele.Der Ruf von Sega war jedoch vom Saturn getrübt worden, und da Sony kürzlich seine kommende PlayStation 2 angekündigt hatte, verließ Sega nach dem Dreamcast den Hardware-Konsolenmarkt, blieb jedoch in der Entwicklung von Arcade-Spielen sowie der Entwicklung von Spielen für Konsolen. Die Bibliothek von Dreamcast enthält einige bahnbrechende Spiele, insbesondere die Shenmue-Serie die als großer Fortschritt für das 3D-Open-World-Gameplay gelten [132] und die Quick-Time-Event-Mechanik in ihrer modernen Form eingeführt hat. [133]

Sony brachte im Jahr 2000 die PlayStation 2 (PS2) auf den Markt, die erste Konsole, die das neue DVD-Format unterstützt und die Möglichkeit bietet, DVD-Film-Disks und CD-Audio-Disks abzuspielen sowie PlayStation-Spiele in einem abwärtskompatiblen Modus neben PS2-Spielen zu spielen. Nintendo folgte dem Nintendo 64 mit dem GameCube im Jahr 2001, seiner ersten Konsole, die optische Discs verwendet, wenn auch speziell für das System formatiert. An dieser Stelle betrat jedoch ein neuer Spieler das Konsolenbild, Microsoft mit seiner ersten Xbox-Konsole, die ebenfalls 2001 veröffentlicht wurde. Microsoft hatte befürchtet, dass Sonys PS2 den Personal Computer als zentralen Unterhaltungspunkt im Wohnzimmer überholen würde, und nachdem bei der Entwicklung der DirectX-Bibliotheken zur Standardisierung von Spielehardware-Schnittstellen für Windows-basierte Computer wurde vor kurzem der gleiche Ansatz verwendet, um die Xbox zu erstellen. [134]

Die PS2 blieb in der ersten Hälfte des Jahrzehnts die führende Plattform und bleibt mit über 155 Millionen verkauften Einheiten die meistverkaufte Heimkonsole aller Zeiten. Dies war zum Teil auf eine Reihe kritischer Spiele zurückzuführen, die auf dem System veröffentlicht wurden, darunter Grand Theft Auto III, Metallgetriebe massiv 2, und Final Fantasy X. [135] Die Xbox konnte den zweiten Platz bei den PS2-Verkäufen erringen, aber mit einem erheblichen Verlust an Microsoft. Für Microsoft war der Verlust jedoch akzeptabel, da es ihnen bewies, dass sie im Konsolenbereich mithalten können. Die Xbox führte auch den Flaggschiff-Titel von Microsoft ein, Halo: Combat Evolved, das auf der integrierten Ethernet-Funktion der Xbox beruhte, um Online-Gameplay zu unterstützen. [136]

Mitte der 2000er Jahre galten nur Sony, Nintendo und Microsoft als Hauptakteure im Bereich der Konsolenhardware. Alle drei stellten zwischen 2005 und 2006 ihre nächste Hardwaregeneration vor, beginnend mit Microsofts Xbox 360 im Jahr 2005 und Sonys PlayStation 3 (PS3) im Jahr 2006, gefolgt von Nintendos Wii später im Jahr. Die Xbox 360 und PS3 zeigten eine Konvergenz mit PC-Hardware: Beide Konsolen wurden mit Unterstützung für hochauflösende Grafiken, optische Medien mit höherer Dichte wie Blu-rays, interne Festplatten zum Speichern von Spielen und eine integrierte Internetverbindung geliefert. Microsoft und Sony hatten auch digitale Online-Dienste, Xbox Live und PlayStation Network, entwickelt, die den Spielern dabei halfen, sich online mit Freunden zu verbinden, Online-Spiele zu finden und neue Spiele und Inhalte in Online-Shops zu kaufen. Im Gegensatz dazu wurde die Wii als Teil einer neuen Blue-Ocean-Strategie von Nintendo nach dem schlechten Verkauf des GameCube entwickelt. Anstatt zu versuchen, Feature für Feature mit Microsoft und Sony zu konkurrieren, hat Nintendo die Wii als Konsole für innovatives Gameplay und nicht für hohe Leistung entwickelt und die Wii-Fernbedienung entwickelt, einen Controller auf Bewegungserkennungsbasis. Titel mit Gameplay rund um die Wii-Fernbedienung, wie zum Beispiel Wii-Sport, Wii Sports Resort, und Wii-Fit, wurde sofort zu Hits auf der Wii, und die Wii wurde in ihren wenigen Jahren zu einer der am schnellsten verkauften Konsolen auf dem Markt. [137] Der Erfolg der Bewegungssteuerung der Wii führte teilweise dazu, dass Microsoft und Sony ihre eigenen Bewegungserkennungssysteme entwickelten, die Kinect und die PlayStation Move.

Eine große Modeerscheinung in den 2000er Jahren war der rasante Aufstieg und Fall von Rhythmusspielen, bei denen spezielle Gamecontroller in Form von Musikinstrumenten wie Gitarren und Schlagzeug verwendet werden, um beim Spielen lizenzierter Songs Noten abzugleichen. Gitarren Held, basierend auf dem Arcade-Spiel Gitarrenfreaks, wurde von Harmonix entwickelt und 2005 von Red Octane auf der PS2 veröffentlicht und war ein bescheidener Erfolg. Activision erwarb Red Octane und erhielt die Veröffentlichungsrechte an der Serie, während Harmonix von Viacom gekauft wurde, wo sie auf den Markt kamen Rockband, eine ähnliche Serie, aber das Hinzufügen von Schlagzeug und Gesang auf Gitarren. Rhythm-Spiele, weil sie nach Action-Spielen ein sehr beliebtes Objekt sind, das 2008 18% des Videospielmarktes ausmachte und auch andere Publisher in die Gegend zog. [138] Während Harmonix sich der Serie näherte, indem es neue Songs als herunterladbare Inhalte hinzufügte, konzentrierte sich Activision auf die Veröffentlichung neuer Titel Jahr für Jahr im Gitarren Held Serien bis 2009 hatten sie sechs verschiedene Gitarren Held-bezogene Titel für das Jahr geplant. Die Sättigung des Marktes, zusätzlich zu der Modeerscheinung dieser Instrumenten-Controller, führte schnell dazu, dass der 1,4-Milliarden-Dollar-Markt im Jahr 2008 um 50% im Jahr 2009 zurückging. [139] Bis 2011 hatte Activision die Veröffentlichung eingestellt Gitarren Held Spiele (obwohl sie 2015 einmal mit Gitarrenheld Live), während Harmonix sich weiterentwickelt hat Rock zurück nach einer Pause zwischen 2013 und 2015.

Nintendo dominierte in dieser Zeit immer noch den Markt für Handheld-Spiele. Der 2001 veröffentlichte Game Boy Advance behauptete die Marktposition von Nintendo mit einem hochauflösenden Vollfarb-LCD-Bildschirm und einem 32-Bit-Prozessor, der die Portierung von SNES-Spielen und einfacheren Begleitern zu N64- und GameCube-Spielen ermöglichte. [140] Die nächsten beiden großen Handhelds, der Nintendo DS und Sonys PlayStation Portable (PSP) im Jahr 2004 innerhalb eines Monats. Während die PSP überragende Grafik und Leistung aufwies, folgte einem seit Mitte der 1980er Jahre etablierten Trend Nintendo weiter ein Design mit geringerer Leistung, aber mit einer neuartigen Steuerschnittstelle. Die beiden Bildschirme des DS, von denen einer ein berührungsempfindlicher Bildschirm ist, erwiesen sich bei den Verbrauchern als äußerst beliebt, insbesondere bei kleinen Kindern und Spielern mittleren Alters, die von Nintendos angezogen wurden Nintendogs und Gehirnalter Serien sowie die Einführung lokalisierter japanischer Visual Novel-Spiele wie die Ass-Anwalt und Professor Layton Reihe in die westlichen Regionen. Die PSP zog einen erheblichen Anteil erfahrener Gamer in Nordamerika an und war in Japan sehr beliebt. Ihre Ad-hoc-Netzwerkfähigkeiten funktionierten gut in der urbanen japanischen Umgebung, was direkt zur Popularität von Capcoms Monsterjäger Serie. [141]

MMOs, Esports und Online-Dienste

Als sich erschwingliche Breitband-Internetverbindungen ausbreiteten, wandten sich viele Verlage Online-Spielen zu, um Innovationen zu schaffen. Massively Multiplayer Online Role-Playing Games (MMORPGs) boten bedeutende Titel für den PC-Markt wie RuneScape, EverQuest, und Ultima Online, mit World of Warcraft als einer der erfolgreichsten Titel. [142] Andere groß angelegte Massively-Multiplayer-Online-Spiele wurden ebenfalls veröffentlicht, wie z Zweites Leben die sich hauptsächlich auf soziale Interaktionen mit virtuellen Spieleravataren und Benutzerkreationen konzentrierte, anstatt auf Gameplay-Elemente. [143]

In der Vergangenheit waren konsolenbasierte MMORPGs aufgrund des Mangels an gebündelten Internet-Konnektivitätsoptionen für die Plattformen nur wenige vorhanden. Dies machte es schwierig, eine ausreichend große Abonnement-Community aufzubauen, um die Entwicklungskosten zu rechtfertigen. Die ersten bedeutenden Konsolen-MMORPGs waren Fantasiestern Online auf dem Sega Dreamcast (der über ein eingebautes Modem und einen Aftermarket-Ethernet-Adapter verfügte), gefolgt von Final Fantasy XI für die Sony PlayStation 2 (ein Aftermarket-Ethernet-Adapter wurde mitgeliefert, um dieses Spiel zu unterstützen). [142] Jede wichtige Plattform, die seit Dreamcast veröffentlicht wurde, wurde entweder mit der Fähigkeit zur Unterstützung einer Internetverbindung gebündelt oder war als Zubehör für den Aftermarket erhältlich. Die Xbox von Microsoft hatte auch einen eigenen Online-Dienst namens Xbox Live. Xbox Live war ein großer Erfolg und erwies sich als treibende Kraft für die Xbox mit Spielen wie Xbox Halo 2 die sehr beliebt waren.

Die ersten großen Esports (elektronischer Sport) begannen ebenfalls in den 2000er Jahren. Während Straßenkämpfer II und andere Kampfspiele der 1990er Jahre hatten organisierte Videospielwettbewerbe früher eingeführt, professioneller Esport entstand um das Jahr 2000 aus Südkorea, mit vielen ihrer Veranstaltungen rund um aktuelle Kampfspiele und verschiedene RTS-Titel wie Sternen Schiff und WarCraft III. [144] [145] Bis 2010 wurden zahlreiche internationale Esport-Turniere in verschiedenen Spielgenres etabliert. [146]

Browser-, Casual- und Social-Games

In den späten 1990er und frühen 2000er Jahren wurden das Internet und neue Technologien wie Java und Adobe Flash weithin zugänglich. Während Adobe Flash ursprünglich als Tool zur Entwicklung vollständig interaktiver Websites gedacht war, verlor Flash in diesem Bereich an Popularität, aber einzelne Entwickler fanden Wege, das Tool für Animationen und Spiele zu verwenden, unterstützt durch die Einfachheit der Entwicklungstools für diesen Zweck. Die Website Newgrounds wurde erstellt, um Menschen zu helfen, ihre Flash-Werke zu teilen und zu bewerben. Während diesen Flash-Spielen die Komplexität des Gameplays von Spielen auf Konsolen oder Computern fehlte, waren sie kostenlos verfügbar und lösten kreative Ideen aus, die beispielsweise Zerschmettere die Burg direkt inspiriert das beliebte Handyspiel Wütende Vögel, während der Gründer von Newgrounds, Tom Fulp, sich mit dem Animator Dan Paladin zusammengetan hat, um Außerirdischer Hominide als Flash-Spiel, das sie später zu einem umfassenderen Titel aufbauten Burg Kämpfe unter dem Studio The Behemoth. [147]

Flash und andere In-Browser-Plattformen schufen einen neuen Trend bei Gelegenheitsspielen mit begrenzter Komplexität und entworfen für verkürzte oder spontane Spielsitzungen. [147] Viele waren Puzzlespiele, wie Popcapscap Bejeweled und PlayFirsts Diner Dash während andere Spiele mit einem entspannteren Tempo und offenem Spiel waren. Sites wie Kongregate und Entwickler wie PopCap, Zynga und King haben sich in diesem Bereich als führend erwiesen. [147] Casual Games wurden mit zahlreichen Simulationsspielen auch in die Mainstream-Computerspiele aufgenommen. Der größte Hit war Die Sims von Maxis, das zum meistverkauften Computerspiel aller Zeiten wurde und übertraf Myst. [148]

Als Social-Media-Sites zu wachsen begannen, entstanden die ersten Social-Network-Spiele auf sozialen Plattformen. Diese Spiele, die oft auf Gelegenheitsspielmechaniken basieren, verlassen sich in der Regel darauf, dass Benutzer mit ihren Freunden über die Social-Media-Site interagieren, um eine Form von "Energie" zu gewinnen, um weiter zu spielen. Happy Farm, das 2008 in China veröffentlicht wurde, gilt als das erste große soziale Spiel dieser Art. [149] Beeinflusst von der japanischen Konsolen-RPG-Serie Geschichte der Jahreszeiten, [150] [151] [152] Happy Farm zog 23 Millionen täglich aktive Nutzer in China an. [153] [154] Es inspirierte bald viele Klone wie Sonnenschein Farm, Glücklicher Bauer, Fröhlicher Fischteich, Glückliche Schweinefarm, [150] [155] und Facebook-Spiele wie BauernhofVille, Bauernhof, Ländergeschichte, Scheune Buddy, Sonnenschein Ranch, Glückliche Ernte, Dschungel Extrem, und Bauernschurke. [152] [156] Happy Farm diente als direkte Inspiration für BauernhofVille, die bis 2010 weltweit über 80 Millionen aktive Nutzer hatte. [149] [157]

Aufstieg des mobilen Gamings

Unabhängig davon hatte das Spielen auf mobilen Geräten bis Mitte der 2000er Jahre nur begrenzten Erfolg. Nokia hatte installiert Schlange seit dem Nokia 6110 im Jahr 1997 auf seiner Mobiltelefonlinie. [158] Ähnliche Hersteller von Telefonen, persönlichen digitalen Assistenten und anderen Geräten enthielten auch integrierte Spiele, die jedoch zum Zeitvertreib und nicht zum Mitmachen gedacht waren. Mit der Verbesserung der Telefontechnologie wuchs um 2003 eine japanische Mobiltelefonkultur mit Spielen, die von Puzzlespielen und virtuellen Haustiertiteln reichen, die Kameratelefon- und Fingerabdruckscanner-Technologien verwenden, bis hin zu 3D-Spielen mit Grafiken in PlayStation-Qualität. Ältere Spiele im Arcade-Stil wurden auf Mobiltelefonen sehr beliebt, die eine ideale Plattform für Spiele im Arcade-Stil waren, die für kürzere Spielsitzungen entwickelt wurden. Namco unternahm 2003 Versuche, mobile Spiele in Europa einzuführen. [159] Nokio veröffentlichte 2003 sein N-Gage, ein hybrides Telefon-/Handheld-Spielsystem, hatte aber im Vergleich zu Nintendos Game Boy Advance nur begrenzten Erfolg. [160]

Um 2005 kamen die ersten Smartphones auf den Markt, die neben Telefondiensten auch Datenkonnektivität boten. Die Anbieter lizenzierten Spiele, die zum Verkauf in einem Schaufenster angeboten wurden, aber dies setzte sich aufgrund der unterschiedlichen Schaufenster und der Unterschiede zwischen den Telefonmodellen nicht durch, und die Spiele konnten aufgrund der begrenzten Hardware auf den Smartphones nicht so anspruchsvoll sein wie auf Konsolen oder Handhelds hand . [161] Im Jahr 2007 stellte Apple, Inc. sein iPhone vor, das technologisch fortschrittlicher war als andere Smartphones auf dem Markt, und stellte 2008 seinen App Store vor, über den neue Apps gekauft werden konnten. Mit dem App Store können Entwickler, sobald sie sich als Partner angemeldet haben, ihre eigenen Apps entwickeln und über den Store veröffentlichen. Dies ermöglichte es Entwicklern jeder Größe, am App Store-Marktplatz teilzunehmen. [162] Google, das das konkurrierende mobile Android-Betriebssystem entwickelt hat, veröffentlichte 2008 eine eigene Version eines App-Stores, die später als Google Play im Jahr 2012 bezeichnet wurde. [163]

Die Nutzung der App Storefronts von Apple und Google für Spieleanwendungen nahm schnell mit frühen Erfolgen wie Wütende Vögel und Bejeweled. [164] [165] Als Apple im Oktober 2009 In-App-Käufe (IAP) einführte, fanden eine Reihe von Entwicklern Möglichkeiten, ihre Handyspiele im Vergleich zu herkömmlichen Spielen einzigartig zu monetarisieren, und etablierten das Freemium-Modell, bei dem ein Spiel normalerweise kostenlos heruntergeladen werden kann und spielen, aber die Spieler werden ermutigt, ihren Fortschritt durch IAPs zu beschleunigen. Spiele wie Candy Crush Saga und Puzzle & Drachen, beide im Jahr 2012, haben diesen Ansatz als hochprofitable Geschäftsmodelle für Mobile Games etabliert. [166] [167] Viele der Spieleentwickler in sozialen Netzwerken arbeiteten daran, entweder eine mobile Version in ihre vorhandene Version zu integrieren oder ihr Spiel vollständig auf die mobile Plattform zu verlagern, als mobiles Spielen populärer wurde. Ein weiterer Anstieg der Popularität von Handyspielen kam aus China, wo die meisten Einwohner keine Computer besitzen und wo importierte Konsolen ab 2000 von der Regierung verboten wurden, obwohl sie 2014 schließlich gelockert und 2015 vollständig aufgehoben wurden Spieler in China benutzten Mobiltelefone oder griffen über PC-Cafés auf abonnementbasierte Spiele zu. Auch dort erwiesen sich mobile Spiele als beliebt und finanziell erfolgreich, wobei sich Chinas Videospielmarkt zwischen 2007 und 2013 verzehnfachte. [169] [170]

Gepaart mit dem Wachstum mobiler Spiele war die Einführung von Mikrokonsolen, kostengünstigen Heimkonsolen, die das Android-Betriebssystem verwendeten, um die große Bibliothek von Spielen zu nutzen, die bereits für mobile Geräte entwickelt wurden. [171] Mobile Gaming verdrängte jedoch auch den Markt für Handheld-Konsolen: Sowohl der Nintendo 3DS als auch die PlayStation Vita (beide Veröffentlichungen von 2011) verzeichneten deutliche Umsatzrückgänge gegenüber ihren Vorgängern, dem Nintendo DS bzw. der PlayStation Portable (beide Veröffentlichungen von 2004). das rasante Wachstum von Mobile Gaming. Sony hat die Handheld-Konsolen-Arena inzwischen verlassen. [172]

Die AAA-Videospielindustrie und das Aufkommen von Indie-Spielen

In den 2000er Jahren wurden immer größere Budgets für die Entwicklung von Videospielen verzeichnet Final Fantasy VII hatte ein geschätztes Budget von 40-45 Millionen US-Dollar ohne Marketing, [173] während der erste Shenmue Das Spiel wurde auf 47 bis 70 Millionen US-Dollar geschätzt. [174] Größere Entwickler begannen, sich Spielen zu nähern, die mit dem Hollywood-Filmemachen vergleichbar waren, und berücksichtigten nicht nur die Aspekte der Entwicklung, des Vertriebs und des Marketings, sondern berücksichtigten auch Budgets sowohl für die In-Game-Kinematografie, einschließlich professioneller Schauspieler und lizenziertes Eigentum, als auch größere Werbeelemente. Diese neuen Ansätze erweiterten die Spielbudgets weiter. [175] Ähnlich wie Blockbuster-Filme begann die Videospielindustrie Ende der 1990er und Anfang der 2000er Jahre, diese High-Budget-Spiele und die dahinterstehenden Herausgeber und Entwickler als "AAA" oder "Triple A" zu bezeichnen. [176]

Als Ergebnis der größeren Budgets und der besseren Technologie entstanden neue erzählerische Spiele, die größere Geschichten als direktere Komponenten des Gameplays einbeziehen, z. B. durch das Eliminieren vorgerenderter Zwischensequenzen zugunsten von Szenen, die innerhalb der Spiel-Engine ausgeführt werden. [177] Die Einbeziehung von Erzählungen in Action-Spiele führte in den frühen 2000er Jahren teilweise zum Schwinden des Abenteuerspiel-Genres. [178] Beispiele für einflussreiche Spiele aus dieser Zeit sind Halbwertszeit 2, Portal, Batman: Arkham Asylum, Bioschock, Metallgetriebe massiv 2, und Resident Evil 4, [177] sowie die ersten Einträge der langjährigen Reihe Ruf der Pflicht und Überzeugung eines Attentäters. [179]

Die Entwicklung von Hobby- und Homebrew-Spielen gab es seit den ersten Heimcomputern in den späten 1970er und 1980er Jahren, mit der Umstellung auf Shareware durch Einzelpersonen und kleine Entwicklungsteams in den 1990er Jahren, aber die Bedeutung von Konsolenspielen und dem Aufkommen der 3D-Spieltechnologie hatte machte es einzelnen Entwicklern zunächst schwer, sich kompetitiv an der Spieleentwicklung zu beteiligen. Das Wachstum von AAA-Spielen mit großen Budgets machte die Herausgeber weiter risikoscheu, kleinere Spiele mit nicht standardmäßigem oder experimentellerem Gameplay zu unterstützen. [180]

Unabhängige Spiele oder Indie-Spiele gewannen in der zweiten Hälfte der 2000er Jahre, die bis in die 2010er Jahre andauerten, einen erheblichen Marktanteil und wurde im Allgemeinen als Ergebnis der Suche der Branche nach Innovationen jenseits der sicheren, ungefährlichen Ansätze der AAA-Entwicklung angesehen zentriert hatte. [180] Das Interesse an Indie-Spielen entstand aus der boomenden Flash-Spiele-Industrie Mitte der 2000er Jahre, die auf einzelne und kleine Entwickler aufmerksam machte, die normalerweise von den Medien übersehen wurden. [147] [181] Darüber hinaus wurden kleinere Entwickler durch das schnelle Wachstum in der Mobile-Game-Industrie hervorgehoben, was es ihnen ermöglichte, mit größeren Entwicklern gleichermaßen in mobilen App-Stores abzuschließen. [147] [182] Crowdfunding über Websites wie Kickstarter wurde in den späten 2000er Jahren zu einem gangbaren Weg für Indie-Entwickler, um Geld zu erhalten, und gewann bis Mitte der 2010er Jahre explosionsartig an Popularität, [183] ​​während die Early-Access-Distribution, bei der Spieler ein nicht- noch letzte Version eines Spiels zum Spielen, Testen und Geben von Feedback wurde erfolgreich demonstriert mit Minecraft im Jahr 2009 und wird seitdem als Modell für einige Indie-Spiele verwendet. [184] Auf PCs öffnete Valve seine Plattform für digitale Inhalte Steam, um die Auflistung von Indie-Spielen neben Triple-A-Titeln und mehreren anderen ähnlichen digitalen Schaufenstern zu ermöglichen. [180] Microsoft brachte 2004 die Xbox Live Arcade (XBLA) auf den Markt, mit der sie Spiele für die Xbox und später die Xbox 360 von kleineren Verlagen und unabhängigen Teams veröffentlichten. Sony und Nintendo folgten Anfang der 2010er Jahre mit ähnlichen Indie-Spiele-Publishing-Programmen. [185] [186] Mehrere Indie-Spiele erlangten in dieser Zeit das Rampenlicht der Medien, darunter super Fleischjunge, Fes, und Flechten. [187] [188]

Im neuen Jahrzehnt stieg das Interesse an der Möglichkeit, die nächste Konsolengeneration im Einklang mit dem traditionellen Industriemodell eines fünfjährigen Konsolenlebenszyklus zu entwickeln.In der Branche wurde jedoch angenommen, dass es an dem Wunsch nach einem anderen Rennen mangelt, eine solche Konsole zu produzieren. [189] Gründe dafür waren die Herausforderung und der enorme Aufwand, Konsolen zu entwickeln, die der damaligen Generation grafisch überlegen waren, wobei Sony und Microsoft immer noch versuchen, die Entwicklungskosten für ihre aktuellen Konsolen wieder hereinzuholen, und das Versagen von Tools zur Inhaltserstellung, mitzuhalten mit den gestiegenen Anforderungen an die Entwickler der Spiele.

Am 14. Juni 2010, während der E3, stellte Microsoft seine neue Xbox 360-Konsole vor, die als Xbox 360 S oder Slim bezeichnet wird. Microsoft hat das Gerät kleiner und leiser gemacht und gleichzeitig eine 250-GB-Festplatte und integriertes 802.11n-WLAN installiert. [190] Es begann am selben Tag mit dem Versand an US-Geschäfte und erreichte Europa erst am 13. Juli.

Das cloudbasierte Gaming-System OnLive war einer der ersten Cloud-Gaming-Dienste der Branche. [191]

High-Definition-Grafik in Videospiel-Hardware

Kathodenstrahlröhren-basierte Anzeigegeräte wurden in den 2000er Jahren abgeschafft und durch kostengünstige Flachbildfernseher und Monitore mit weitaus höherer Bildschirmauflösung und Bildwiederholfrequenz ersetzt. Videospiel-Hardware begann mit der Unterstützung des neuen High-Definition Multimedia Interface (HDMI)-Standards, der Auflösungen bis zu 4K (3840 × 2160 Pixel) ermöglicht, was wiederum die Notwendigkeit leistungsstärkerer GPU-Karten mit schnelleren Prozessoren und größerem Speicher unterstrich. Game-Engines wie Unreal, Unity und DirectX haben Unterstützung für verbessertes Textur-Mapping hinzugefügt, um hochauflösende Texturen zu unterstützen, um fotorealistische Grafiken in Spielen zu erzielen.

Microsoft und Sony haben 2013 ihre nächsten Konsolengenerationen Xbox One und PlayStation 4 veröffentlicht. Beide erweiterten die Funktionen ihrer vorherigen Konsolen mit der zusätzlichen Unterstützung für hochauflösende Grafiken und mehr Unterstützung für die digitale Verteilung von Inhalten mit zusätzlichem Speicherplatz . Die Xbox One hatte einen anfänglichen schwankenden Start, da Microsoft verlangen wollte, dass die Benutzer immer mit dem Internet verbunden sind, zusammen mit der anhaltenden Verwendung des Kinect-Bewegungssensors, was wiederum den Spielern bestimmte Vorteile gebracht hätte. Diese Entscheidungen wurden jedoch in den Monaten vor der Veröffentlichung aufgrund ihrer Datenschutzbedenken auf negatives Feedback gestoßen, und Microsoft überarbeitete ihre Richtlinien. Die Kinect, obwohl ursprünglich mit der Xbox One gebündelt, wurde optional gemacht, und ein Jahr nach der Veröffentlichung entschied sich Microsoft, die Produktion von Kinect für die Xbox One einzustellen.

Nintendo blieb weiterhin auf seinem eigenen Weg. Das Unternehmen hatte geglaubt, dass die Wii einen Teil der Core-Gamer verloren haben könnte, und entwickelte die Wii U, um diese Gruppe wieder einzubeziehen. Die Wii U, die 2012 veröffentlicht wurde, enthielt ein Tablet-ähnliches Wii U GamePad mit Bedienelementen und einem Touchscreen-Display die als zweiter Bildschirm während des Spiels fungierte, zusammen mit Unterstützung für Wii-Fernbedienungen und Abwärtskompatibilität mit Wii-Spielen enthielt. Die Wii U war ein kommerzieller Misserfolg für Nintendo nach der Wii, während die Wii mehr als 100 Millionen Einheiten verkauft hatte, die Wii U nur etwa 13 Millionen in ihrer Lebensdauer. Nintendo führte dies sowohl auf die Vermarktung der Wii U zurück, die den Zweck des GamePads nicht klar machte und die Verbraucher glauben ließ, dass es sich nur um ein weiteres Tablet-System handelte, als auch auf den fehlenden Support von Drittanbietern auf der Konsole, der einmal schnell nachließ erste Konsolenverkaufszahlen wurden erhalten. [192] [193] und Marketinggründe. [194]

Nintendo hatte bereits an seiner nächsten Konsole gearbeitet, als die Wii U veröffentlicht worden war, aber es ging weiter, um eine andere Konsole früher zu veröffentlichen, um sich finanziell von der Wii U zu erholen. [195] Auch hier blieben sie bei ihrer bisherigen Blue Ocean-Strategie, um sich zu konzentrieren auf Innovation statt auf technische Überlegenheit ihrer Konkurrenten, veröffentlichte Nintendo 2017 die Nintendo Switch, eine der ersten Hybridkonsolen, die als Handheld-Gerät gespielt werden kann, aber auch in eine an einen Fernseher angeschlossene Dockingstation gelegt und gespielt werden kann wie eine Heimkonsole. Der Switch verwendet abnehmbare Joy-Con, die sowohl als normale Controller als auch als Bewegungssensor wie die Wii-Fernbedienung fungieren. Neben der Switch suchte Nintendo nach Unterstützung von Drittanbietern für die Konsole sowohl von Triple-A-Studios als auch von Indie-Entwicklern. Die Switch erwies sich als sehr erfolgreich, sie ist ab 2021 Nintendos zweitbestverkaufte Heimkonsole nach der Wii und half Nintendo dabei, seine Position auf dem Hardwaremarkt zurückzugewinnen.

Der Handheld-Markt begann in den 2010er Jahren zu schwinden, als Mobile Gaming ihn verdrängte. Nintendo verfeinerte die DS-Linie weiter, die es 2011 mit dem Nintendo 3DS herausbrachte, die einen Bildschirm mit einem autostereoskopischen Display enthielt, um einen 3D-Effekt zu erzeugen, ohne dass eine spezielle Brille erforderlich war. Sony brachte 2012 die PlayStation Vita als Nachfolger der PSP auf den Markt, die neben der bestehenden Steuerung einen Front-Touchscreen und ein nach hinten gerichtetes Touchpad enthielt. [196] Die Vita konnte keinen signifikanten Marktanteil gewinnen, und nachdem Sony das Produkt eingestellt hatte, gaben sie an, keine Pläne für weitere Handheld-Systeme zu haben. Nintendo hingegen hat 2019 eine modifizierte Version des Switch, den Nintendo Switch Lite, herausgebracht. Der Switch Lite ist eine kostengünstigere Version, die die Joy-Con direkt in das Gerät integriert und andere Funktionen entfernt, um eine Gerät, das Handheld-Gameplay direkt unterstützt, aber ansonsten vollständig mit der bestehenden Switch-Bibliothek kompatibel ist.

Bei PCs konzentrierte sich der Grafikkartenmarkt auf die Fortschritte der Branchenführer NVidia und AMD, die auch GPUs für die neuen Konsolen lieferten. Ab den späten 2010er Jahren wurde die Leistung dieser GPU-Karten von Kryptowährungs-"Minern" genutzt, da sie für die gleichen Zwecke vergleichsweise kostengünstiger waren als andere Computerhardware und einen Run auf GPU-Karten auslösten, der die Preise und Kartenknappheit überhöhte längere Zeiträume. [197] Solid-State-Laufwerke (SSDs), die in der Vergangenheit als Flash-Kartenspeicher für Videospielkonsolen verwendet wurden, waren weit genug fortgeschritten, um Verbraucheroptionen für großvolumige Speicher zu werden. Im Vergleich zu herkömmlichen Festplatten (HDD), die elektromechanische Teile verwendet, haben SSD-Laufwerke keine mechanischen Komponenten und sind zu einem viel höheren Datendurchsatz in der Lage, was sie zu beliebten Optionen für Computer für Videospiele machte.

Weitere Fortschritte im Online-Gaming: Plattformübergreifendes Spielen und Cloud-Gaming

Bis in die 2010er Jahre war das Online-Spielen auf den meisten Plattformen auf Spieler auf derselben Plattform beschränkt, obwohl einige Spiele wie Final Fantasy XI hatte mit limitierten Modellen experimentiert. Als neue Spielkonsolen im Design zu PCs und mit gemeinsamen Middleware-Bibliotheken konvergierten, wurde es technisch machbar, plattformübergreifendes Spielen zwischen verschiedenen Plattformen zu ermöglichen, aber Geschäftsziele von Microsoft, Nintendo und Sony, um die Kontrolle über ihre Online-Dienste zu behalten , lehnte dies zunächst ab, insbesondere von Sony, das erklärt hatte, man wolle ein familienfreundliches Umfeld für seine Online-Dienste beibehalten. [198] [199] Epische Spiele' Fortnite Battle Royale erstmals im Jahr 2017 veröffentlicht, erwies sich als instrumenteller Treiber für das plattformübergreifende Spielen. Vierzehn Tage hatte in den ersten Monaten der Veröffentlichung schnell an Popularität gewonnen, und Epic konnte beweisen, wie einfach sich plattformübergreifendes Spielen zwischen Xbox, Windows und mobilen Plattformen mit seinen Backend-Bibliotheken implementieren ließ. Nintendo, gefolgt von der Zulassung von Crossplay auf dem Switch, und schließlich stimmte Sony bis 2018 zu, ausgewählte Spiele zuzulassen, wie z Vierzehn Tage plattformübergreifendes Spielen zu haben. [200] Seitdem haben zahlreiche Spiele eine plattformübergreifende Spielunterstützung auf Konsolen, Computern und mobilen Geräten erhalten oder wurden veröffentlicht. [201]

Die ersten Cloud-Gaming-Dienste kamen 2009 auf. Diese Dienste ermöglichten es den Spielern, Spiele zu spielen, bei denen die Verarbeitungsleistung auf einem Computersystem an einem gehosteten Ort ausgeführt wurde, während die Spielausgabe und die Spielereingaben über das Internet an dieses System gesendet wurden, wobei die Leistung genutzt wurde des Cloud-Computings. Dadurch entfällt die Notwendigkeit einer kostspieligen Konsole oder eines dedizierten Gaming-Computers für die Spieler. Frühe Dienste wie OnLive und Gaikai zeigten, dass Cloud-Gaming möglich war, aber stark an die Latenz des Spielers gebunden war, da ein langsames Netzwerk die Leistung des Spiels leicht beeinträchtigen konnte. [202] [203]

Cloud-Gaming wurde in den 2010er Jahren immer ausgefeilter, als die Gesamtnetzwerkkapazität auf der ganzen Welt mit höheren Bandbreiten, die den Verbrauchern zur Verfügung gestellt wurden, sowie neuen Technologien zur Überwindung des Latenzproblems anstieg. Sony erwarb Mitte der 2010er Jahre sowohl OnLive als auch Gaikai und nutzte ersteres als Basis für seinen PlayStation Now-Cloud-Gaming-Dienst, der es Spielern ermöglicht, ältere PlayStation-Spiele auf neueren Konsolen zu spielen. Andere Spieler in der Cloud-Gaming-Arena, die in dieser Zeit entstanden, sind NVidias GeForce Now, Microsofts xCloud, Googles Stadia und Amazon Luna. [204]

Neue Erlösmodelle für Videospiele

Da die Spielentwicklungsbudgets für Triple-A-Spiele immer größer wurden, suchten Entwickler und Publisher nach Möglichkeiten, zusätzliche Einnahmen für Spiele über den ersten Verkauf des Spiels hinaus zu erzielen. Mehrere Faktoren aus dem letzten Jahrzehnt, darunter das Wachstum des Marktes für mobile Spiele und die Einführung von In-App-Käufen, abonnementbasierten Spielen wie MMOs und dem digitalen Vertriebsmarkt, führten zu neuen Wegen für wiederkehrende Einnahmen durch die Behandlung von Spielen als Dienstleistung (GaaS). [205]

Größere Erweiterungen und herunterladbare Inhalte gab es vor Mitte der 2000er Jahre, und die Spieler hatten sich zu diesem Zeitpunkt an das abonnementbasierte Modell für MMOs gewöhnt. Microsoft ermöglichte es Entwicklern, um 2005 Mikrotransaktionen für ihre Spiele auf der Xbox 360 anzubieten, deren Inhalte zu einem kleinen Preis von typischerweise unter 5 US-Dollar verkauft werden The Elder Scrolls IV: Oblivion im Jahr 2006. Obwohl es sich hauptsächlich um einen kosmetischen Gegenstand im Spiel handelt, war das Rüstungspaket eines der beliebtesten Gegenstände, für das es verkauft wurde Vergessenheit bis 2009 und festigte die Idee der Mikrotransaktionen. [206] [207] [208]

Die folgenden Spiele Vergessenheit Wege gefunden, zusätzliche Mikrotransaktionsinhalte in Spiele einzubinden, um zu erhöhen, wie viel Geld ein einzelner Titel verdienen könnte. [208] Verlage, die Spiele mit Online-Inhalten produzierten, erstellten spezielle Online-Pässe, wie das "Project Ten Dollar" von Electronic Arts, das einen Kauf erforderte, um Zugang zu Online-Funktionen zu erhalten. Dies sollte auch den Sekundärverkauf von Spielen blockieren. Dieser Ansatz wurde von Verbrauchern und Spielern heftig kritisiert und bis 2013 aufgegeben. Stattdessen boten Publisher das Season Pass-Modell an, das zuerst in Spielen wie . auftauchte LA Noire und Mortal Kombat. Ohne einen Season Pass hätten die Spieler immer noch Zugriff auf alle grundlegenden Funktionen eines Spiels, einschließlich des Online-Spiels, aber der Season Pass gewährte Zugriff auf alle geplanten erweiterten Inhalte für Einzelspieler-Modi und neue Charaktere oder Gegenstände und Kosmetika für Online-Modi, die alle geplant sind, um werden in der Regel innerhalb eines Jahres veröffentlicht, in der Regel mit einem Rabatt im Vergleich zum Einzelkauf. Ein Spiel könnte somit Jahr für Jahr wiederkehrende Saisonkarten anbieten und auf diese Weise Einnahmen generieren. [208] Ein verwandtes Konzept zum Season Pass ist der Battle Pass, der erstmals in . eingeführt wurde Dota 2. In einem Battle Pass gibt es eine Reihe von In-Game-Gegenständen, die ein Spieler in verschiedenen Levels des Battle Pass verdienen kann, aber erfordert, dass er In-Game-Herausforderungen abschließt, um die Level innerhalb des Passes zu verdienen. Einige Battle Passes beinhalten eine kostenlose Stufe von Gegenständen, aber die meisten beinhalten eine Stufe, die den Kauf des Passes erfordert. Battle-Pässe können wie Season-Pässe verwendet werden, bieten regelmäßig neue Gegenstände mit neuen Herausforderungen und liefern wiederkehrende Einnahmen für ein Spiel. [208]

Von Handy- und Free-to-Play-Spielen, gacha Spiele waren in Japan in den frühen 2010er Jahren populär geworden, basierend auf dem Konzept des Kapselspielzeugautomaten, wobei das früheste bekannte System in MapleStory. Im Spiel verdienten die Spieler Geld, mit dem sie eine zufällige Ziehung aus einem Satz von Gegenständen basierend auf voreingestellten Seltenheiten gewinnen konnten, oft mit dem Ziel, alle Gegenstände eines Satzes zu sammeln, um eine mächtige Belohnung im Spiel zu erhalten. Während Spieler durch In-Game-Aktionen, normalerweise durch Grinden, mehr Geld verdienen könnten, könnten sie auch Geld verdienen, indem sie echtes Geld in das Spiel ausgeben. Das gacha Konzept durch das chinesische Spiel auf Lootboxen ausgeweitet ZT Online, und in westlichen Spielen wie FIFA 09 und Team Fortress 2 Anfang der 2010er Jahre verdienten sich die Spieler Beutekisten durch Aktionen im Spiel oder die durch echtes Geld gekauft werden konnten, und wenn sie geöffnet wurden, enthielten sie eine Vielzahl von Gegenständen, die nach dem Zufallsprinzip ausgewählt wurden, basierend auf der Seltenheit. Bis 2016 hatten zahlreiche hochkarätige Spiele eine Lootbox-Mechanik enthalten, aber dies zog die Aufmerksamkeit von Regierungen und politischen Entscheidungsträgern der Welt auf sich, da sie befürchteten, dass Lootboxen dem Glücksspiel zu ähnlich seien, da echtes Geld verwendet werden könnte, um sie zu kaufen. Da sich viele dieser Videospiele an Minderjährige richteten, hatten einige Länder Gesetze erlassen, die Spiele mit Lootbox-Mechaniken aufgrund ihres Glücksspielcharakters verbieten oder einschränken. Gepaart mit einer schlechten Implementierung der Lootbox-Mechanik in Star Wars Battlefront II und Electronic Arts FIFA Im Ultimate Team-Spielmodus begannen die Lootbox-Mechaniken Ende der 2010er Jahre bei den Verbrauchern an Beliebtheit zu verlieren. [208]

Chinas Einfluss bei der Monetarisierung spielte in diesem Zeitraum eine Schlüsselrolle, der Mitte der 2010er Jahre über 500 Millionen Spieler überstieg. Obwohl das Konsolenverbot aufgehoben wurde, verlangte Chinas Regierung immer noch, dass importierte Hardware über chinesische Unternehmen verkauft wird, und verlangt von chinesischen Betreibern, Online-Spiele zu verwalten, um die Gesetze des Landes zur Zensur und Spielbeschränkungen für Minderjährige einzuhalten. Chinesische Unternehmen, die bereits Spiele im Land veröffentlichten, begannen, Partnerschaften oder andere Vereinbarungen mit ausländischen Firmen zu treffen, um ihre Spiele und Hardware durch das komplexe Genehmigungsverfahren in das Unternehmen zu bringen. Zu diesen Unternehmen gehören NetEase und Perfect World, aber der größte Anbieter war Tencent, das in den 2010er Jahren zahlreiche Investitionen in ausländische Unternehmen tätigte, darunter die vollständige Übernahme von Riot Games und die teilweise Beteiligung an Supercell und Epic Games sowie eine Minderheitsbeteiligung an Publishern Ubisoft, Activision Blizzard und Paradox Interactive. Im Gegenzug hatte Tencent diesen Unternehmen dabei geholfen, ihre Monetarisierungsansätze mithilfe ihrer bisherigen Erfahrungen mit ihren eigenen Spielen zu verfeinern. [209]

Mixed-, Virtual- und Augmented-Reality-Spiele

Virtual Reality (VR)-Systeme für Videospiele galten lange Zeit als Ziel der VR-Technologie und wurden bereits in den 1990er Jahren entwickelt, waren jedoch durch ihre hohen Kosten behindert und für den Verbraucherverkauf unpraktisch. Einer der ersten Versuche, Nintendos Virtual Boy im Jahr 1996, verwendete ein monochromatisches stereoskopisches Display, um 3D zu simulieren, aber das Gerät war unpraktisch und konnte keine Entwickler gewinnen, was zu einem kommerziellen Misserfolg für Nintendo führte. Durchbrüche bei verbrauchergerechter VR-Hardware kamen Anfang der 2010er Jahre mit der Entwicklung der Oculus Rift von Palmer Luckey. Der Rift wurde 2013 auf Messen demonstriert und erwies sich als beliebt genug, um Facebook dazu zu bringen, das Unternehmen und die Technologie im Jahr 2014 für 2 Milliarden US-Dollar zu kaufen. Kurz darauf kündigten Valve und HTC das HTC Vive an, das erstmals 2015 veröffentlicht wurde, während Sony seine PlayStation . auf den Markt brachte VR im Jahr 2016. Valve entwickelte später seine eigene VR-Hardwarelinie, den Valve Index, der 2019 veröffentlicht wurde. Während zahlreiche VR-Spiele VR effektiv gegenüber "Flachbildschirm" -Spielen (denjenigen ohne VR-Funktionen) für ein immersives Erlebnis nutzten, war VR der "Killer". app" kam über Halbwertszeit: Alyx, veröffentlicht von Valve im Jahr 2020. Halbwertszeit: Alyx brachte mehrere neue Ideen für die Integration von Ego-Shooter-Spielen in eine VR-App und kurbelte den Verkauf des Index an. [210]

Augmented Reality (AR)-Spiele, bei denen das Spiel ein Echtzeit-Videospielbild aufnimmt und zusätzliche Grafiken darüber rendert, gab es auch vor den 2010er Jahren. Einige PlayStation-Konsolenspiele verwendeten EyeToy, PlayStation Eye oder PlayStation Camera als Teil des Gameplays sowie Xbox 360- und Xbox One-Spiele mit Kinect. Die meisten Spiele waren experimenteller, da die Kameras fest installiert waren und die Interaktionsmöglichkeiten eingeschränkt waren. Da Handheld-Konsolen, einschließlich der PSP- und Nintendo DS-Reihe, und Mobiltelefone Videokamerafunktionen enthielten, eröffneten sich neue AR-Möglichkeiten auf tragbaren Geräten. Anfängliche Spiele waren noch experimenteller und Spielzeuge ohne umfassende Gameplay-Loops. AR-basierte Spiele sind mit der Veröffentlichung von Pokémon Go im Jahr 2016, das AR mit ortsbasierten Spielen kombinierte. Die Spieler würden ihr Mobilgerät verwenden, um sie zu einem virtuellen Pokémon zu führen, das sie suchten und versuchten, mit AR auf der Kamera ihres Geräts einzufangen. [211]

Raytracing und fotorealistische Grafiken

NVidia und AMD führten 2020 Grafikkarten mit Hardwareunterstützung für Echtzeit-Raytracing ein, die auch eine wichtige Komponente bei den nächsten Konsolen von Microsoft und Sony, der Xbox Series X/S und PlayStation 5, die beide im November 2020 veröffentlicht wurden, eingeführt wurde in der Technologie förderte auch die Möglichkeit, hochdetaillierte Texturen anzuzeigen, was Fotorealismus in gerenderten Videospielszenen bei hohen Auflösungen und hohen Bildraten ermöglicht. Diese Änderungen erforderten einen größeren Speicherplatz für den Texturspeicher auf der Hardware und eine größere Bandbreite zwischen dem Speicher und dem Grafikprozessor. Beide neuen Konsolen enthielten spezielle SSD-Optionen, die Speicheroptionen mit hoher Bandbreite bieten, die den zusätzlichen Vorteil hatten, dass die Ladezeiten in vielen Spielen praktisch eliminiert wurden, insbesondere bei Spielen mit In-Game-Streaming für Open-World-Spiele.


Schau das Video: Use Unique Values to color the polygons inside the main polygon shapefile