Mehr

Visualisierungen und Simulationen - Geowissenschaften

Visualisierungen und Simulationen - Geowissenschaften


Visualisierungen und Simulationen

Fritzing: Ideal zum Erstellen von “Breadboard Drawings”

Ich verwende Fritzing hauptsächlich zum Erstellen von Breadboard-Zeichnungen oder Schaltplänen. Hier zum Beispiel eine Zeichnung, die ich in meinem Pan-Tilt-Servo-Tutorial verwendet habe.

Ich habe Fritzing nicht für Schaltpläne, PCBs oder Programmierung verwendet (obwohl es für jede dieser Optionen Optionen gibt). Fritzing ist das bewährte Programm, um Schaltungen in einem sehr gut lesbaren Format zu dokumentieren. Wenn Sie es nicht zum Zeichnen Ihrer Arduino-Schaltungen verwenden, empfehle ich dringend, es auszuprobieren!


Der vollständige Leitfaden zu AUC und durchschnittlicher Präzision: Simulationen und Visualisierungen

Dieser Beitrag bietet die klarste Erklärung im Web, wie die beliebten Metriken AUC (AUROC) und die durchschnittliche Präzision verwendet werden können, um zu verstehen, wie ein Klassifikator bei ausgeglichenen Daten abschneidet. Der nächste Beitrag konzentriert sich auf unausgeglichene Daten. Dieser Beitrag enthält zahlreiche Simulationen und AUROC/Average Precision Plots für Klassifikatoren mit unterschiedlichen Eigenschaften. Der gesamte Code zum Replizieren der Diagramme und Simulationen wird auf GitHub bereitgestellt.

Hier zunächst eine kurze Einführung in AUROC und die durchschnittliche Präzision:

AUROC: Bereich unter der Betriebscharakteristik des Empfängers

Der AUROC gibt an, ob Ihr Modell Beispiele richtig einordnen kann. Der AUROC ist die Wahrscheinlichkeit, dass ein zufällig ausgewähltes positives Beispiel eine höhere vorhergesagte Wahrscheinlichkeit hat, positiv zu sein, als ein zufällig ausgewähltes negatives Beispiel. Der AUROC wird als die Fläche unter einer Kurve berechnet, die den Kompromiss zwischen der True-Positive-Rate (TPR) und der False-Positive-Rate (FPR) bei verschiedenen Entscheidungsschwellen d misst:

Ein zufälliger Klassifikator (z. B. ein Münzwurf) hat einen AUROC von 0,5, während ein perfekter Klassifikator einen AUROC von 1,0 hat. Weitere Informationen zum AUROC finden Sie in diesem Beitrag.

Durchschnittliche Präzision (auch bekannt als AUPRC): Fläche unter der Precision-Recall-Kurve

Die durchschnittliche Genauigkeit gibt an, ob Ihr Modell alle positiven Beispiele korrekt identifizieren kann, ohne versehentlich zu viele negative Beispiele als positiv zu markieren. Daher ist die durchschnittliche Präzision hoch, wenn Ihr Modell positive Werte korrekt verarbeiten kann. Die durchschnittliche Präzision wird als die Fläche unter einer Kurve berechnet, die den Kompromiss zwischen Präzision und Erinnerung bei verschiedenen Entscheidungsschwellen misst:

Ein zufälliger Klassifikator (z. B. ein Münzwurf) hat eine durchschnittliche Genauigkeit, die dem Prozentsatz der Positiven in der Klasse entspricht, z. 0,12, wenn es 12% positive Beispiele in der Klasse gibt. Ein perfekter Klassifikator hat eine durchschnittliche Genauigkeit von 1,0. Weitere Informationen zur durchschnittlichen Präzision finden Sie in diesem Beitrag.

Simulation Einrichten

In den Simulationen erzeuge ich einen Ground-Truth-Vektor, der das wahre Label für eine Reihe von Beispielen angibt (z. B. [0,0,1] für drei Beispiele, die [negativ, negativ, positiv] sind) und einen Vorhersagevektor, der ein hypothetisches Modell angibt&# 8217s Vorhersagen zu dieser Reihe von Beispielen (zB [0,1,0.25,0.99]).

Ich generiere die Ground Truth und Vorhersagen, sodass es unterschiedliche Zahlen von True Positive, False Positives, True Negatives und False Negatives gibt:

Eine detailliertere Übersicht über Verwirrungsmatrizen finden Sie in diesem Beitrag.

Die simulierten Modellergebnisse in diesem Beitrag wurden relativ zu einer angenommenen Entscheidungsschwelle von 0,5 erstellt. Um beispielsweise echte Positive aus einem angenommenen Entscheidungsschwellenwert von 0,5 zu erzeugen, habe ich gleichmäßig Vorhersagewerte zwischen 0,5001 und 1,0 abgetastet und die Grundwahrheit für jeden abgetasteten Wert als 1 markiert. Beachten Sie, dass eine Entscheidungsschwelle von 0,5 nur zum Simulieren der Ground-Truth- und Prädiktionsvektoren verwendet wurde. Der AUROC und die durchschnittliche Präzision werden mit einer gleitenden Entscheidungsschwelle berechnet, die ihren Definitionen folgt.

Den gesamten Code zum Replizieren der Ergebnisse und Zahlen in diesem Beitrag finden Sie auf GitHub.

Simulationen für ausgeglichene Daten

Schauen wir uns die Diagramme des AUROC und der durchschnittlichen Präzision eines ausgeglichenen Datensatzes an, d. h. eines Datensatzes, bei dem die Anzahl der tatsächlichen positiven und der tatsächlichen negativen Werte gleich ist.

Zufälliges Modell

In der obigen Abbildung für “ModelBalanced” zeigt das linke Diagramm (rot) die Receiver Operating Characteristic (ROC), wobei der Titel die Fläche unter dem ROC oder AUROC, in diesem Fall 0,48, angibt.

Das rechte Diagramm (blau) zeigt die Precision-Recall-Kurve, wobei der Titel die Fläche unter der Precision-Recall-Kurve (AUPRC) angibt, die mit der Methode der durchschnittlichen Präzision berechnet wurde.

0,5, die Basislinie und die durchschnittliche Genauigkeit sind ebenfalls

0,5, die Grundlinie, da der Anteil der Positiven 0,50 beträgt. Die Werte sind nicht genau 0,500 wegen der zufälligen gleichförmigen Stichproben, die bei der Simulation beteiligt sind. “ModelBalanced” bedeutet, dass das Modell nicht auf positive oder negative Vorhersagen und auch nicht auf korrekte Vorhersagen ausgerichtet ist. Mit anderen Worten, dies ist ein zufälliges, nutzloses Modell, das einem Münzwurf entspricht.

Die Zeile unter dem Plottitel zeigt die Anzahl der wahrhaft positiven (tp), falsch negativen (fn), wahr negativen (tn) und falsch positiven (fp) bei einer Entscheidungsschwelle von 0,5 (d=0,5): “at d =0,5, tp=100, fn = 100, tn = 100, fp = 100.” Dieser Punkt wird auch auf der Kurve als Punkt mit der Bezeichnung “d = 0,5” für “Entscheidungsschwelle = 0,5 aufgetragen. ”

Außerdem zeige ich die Punkte auf den Kurven, bei denen die Entscheidungsschwelle gleich 0,9, 0,5 und 0,1 ist. Diese Punkte werden mit d = 0,9, d = 0,5 und d = 0,1 bezeichnet. Wir können sehen, dass die Entscheidungsschwelle von 1 auf 0 geht, wenn wir von links nach rechts streichen. Die Kurven selbst sind relativ glatt, da sie unter Verwendung zahlreicher Entscheidungsschwellen erstellt wurden, nur 3 Entscheidungsschwellen sind explizit als Punkte dargestellt, um die Eigenschaften der Kurven hervorzuheben.

Schlechte Modellvorhersagen

In “ModelPredBad” neigt das Modell dazu, schlechte Vorhersagen zu treffen, d. h. es neigt dazu, die falsche Antwort zu erhalten und weist hohe falsch-negative und hohe falsch-positive Ergebnisse auf. Beachten Sie, dass hier sowohl der AUROC als auch die durchschnittliche Präzision unter der Basislinie liegen. Dies veranschaulicht eine interessante Tatsache über Klassifikatoren – in der Praxis, wenn Sie ein Modell haben, das “fachmännisch schlecht” ist, können Sie die Klassifizierungsentscheidung einfach umdrehen und ein Modell erhalten, das gut ist. Wenn wir hier alle Klassifizierungsentscheidungen umdrehen, könnten wir ein Modell mit 1,0 – 0,11 = 0,89 AUROC erhalten. Aus diesem Grund ist die Basislinie für AUROC immer 0,5, wenn wir einen Klassifikator mit AUROC unter 0,5 haben, drehen wir seine Entscheidungen um und erhalten einen besseren Klassifikator mit einem AUROC zwischen 0,5 und 1,0.

Der “Ellenbogen” in den AUROC- und Durchschnittspräzisions-Plots bei d = 0,5 ist auf die Art und Weise zurückzuführen, wie die simulierten Ergebnisse relativ zu einer Entscheidungsschwelle von d = 0,5 erstellt wurden.

Gute Modellvorhersagen

In “ModelPredGood” haben wir ein gutes Modell, das viele echte positive und echte negative Ergebnisse liefert. Wir sehen, dass sowohl der AUROC als auch die durchschnittliche Präzision hoch sind.

Negativ-schiefe Modellvorhersagen

In “ModelPredNeg(HighTN,HighFN)” haben wir ausgewogene Daten und ein Modell, das auf negative Vorhersagen ausgerichtet ist. Obwohl es insgesamt mehr Negative prognostiziert, sagt es die gleiche Anzahl von wahr-negativen wie falsch-negativen voraus. Da tp == fp und tn == fn, liegen der AUROC und die durchschnittliche Präzision wieder um ihre Basiswerte von 0,5, was bedeutet, dass dies ein nutzloses Modell ist.

Wir können dies bestätigen, indem wir die Formeln für TPR (True Positive Rate, Recall), FPR (False Positive Rate) und Präzision berücksichtigen. Da wir tp == fp haben, können wir diesen Wert a nennen, d. h. tp == fp == a. Da tn == fn gilt, können wir diesen Wert b nennen, d. h. tn == fn == b. Dann können wir schreiben:

Für AUROC: TPR = tp/(tp+fn) = a/(a+b) und FPR = fp/(fp+tn) = a/(a+b). Somit sind TPR und FPR immer gleich, was bedeutet, dass der ROC eine gerade Linie bei y = x ist, was bedeutet, dass der AUROC 0,5 beträgt.

Für durchschnittliche Präzision: Präzision = tp/(tp+fp) = a/(a+a) = 1/2, und von vorher TPR = Recall = tp/(tp+fn) = a/(a+b). Unabhängig vom Wert des Rückrufs beträgt die Genauigkeit also immer etwa 1/2, und wir erhalten eine Fläche unter der PR-Kurve von 0,5.

Positiv-verzerrte Modellvorhersagen

In “ModelPredPos(HighTP,HighFP)” sehen wir den gleichen Effekt wie in “ModelPredNeg(HighTN,HighFN)”. Dieses Modell ist dahingehend verzerrt, positive Ergebnisse vorherzusagen, aber obwohl es insgesamt eine größere Anzahl von positiven Ergebnissen vorhersagt, sagt es dieselbe Anzahl von wahr-positiven wie falsch-positiven voraus, und daher ist es ein nutzloses Modell mit AUROC und durchschnittlicher Präzision bei ihren Basiswerten.

Es ist auch interessant, die Punkte auf den Kurven zu betrachten, die d = 0,9, 0,5 und 0,1 entsprechen. Hier, wenn das Modell dazu neigt, Positives vorherzusagen, werden die Punkte für d=0,5 und d=0,1 enger zusammengequetscht. Unmittelbar darüber, in “DataBalanced/ModelPredNeg” haben wir stattdessen d=0.5 näher an d=0.9 gequetscht.

Gute Modellvorhersagen: Hohe TNs

In “ModelPredGoodTN(HighTN)” ist das Modell besonders gut darin, echte Negative zu identifizieren. Dies erzeugt einen besser-als-zufälligen AUROC und eine besser-als-zufällige durchschnittliche Präzision.

Im ROC-Plot (rot) sehen wir, dass die Entscheidungsschwellen d = 0,9 bis d = 0,5 ein kleines Intervall von FPR = fp/(fp+tn) umfassen. Dies liegt daran, dass für diese hohen Entscheidungsschwellen die fps besonders niedrig und die tns besonders hoch sind, was einen kleinen FPR erzeugt.

Beachten Sie, dass die durchschnittliche Genauigkeit nicht explizit durch die Anzahl der echten negativen Werte verbessert wird, da echte negative Werte bei der Berechnung der durchschnittlichen Genauigkeit nicht verwendet werden. Die durchschnittliche Präzision wird durch die Verringerung falsch positiver Ergebnisse verbessert, die auftritt, weil einige Beispiele von falsch positiven zu wahr negativen Ergebnissen verschoben wurden, was erforderlich war, um die Annahme zu bewahren, dass der Datensatz ausgewogen ist. Präzision = tp/(tp+fp), wenn wir also die fp kleiner machen, erhöhen wir die Präzision. Außerdem ist die Genauigkeit tendenziell am höchsten, wenn der Entscheidungsschwellenwert am höchsten ist (die linke Seite des Diagramms), denn je höher der Entscheidungsschwellenwert ist, desto strenger ist die Anforderung, positiv markiert zu werden, was im Allgemeinen die tps erhöht und die fps verringert.

Schlechte Modellvorhersagen: Hohe FPs

In “ModelPredBadFP(HighFP)” produziert das Modell viele Fehlalarme. Da dieses Modell noch einmal “strategisch schlecht ist, könnten wir ein gutes Modell daraus machen, indem wir seine Klassifizierungsentscheidungen umdrehen. Wenn wir seine Klassifizierungsentscheidungen umdrehen, würden die FPs zu TNs und wir hätten ein Modell, das auf die Vorhersage von TNs ausgerichtet ist — das genaue Modell, das oben in “ModelPredGoodTN(HighTN)” gezeigt wurde.

Gute Modellvorhersagen: Hohe TPs

Das ist unsere vorletzte Zahl. In “ModelPredGoodTP(HighTP)” produziert das Modell viele echte Positive. Dies führt zu einem besser-als-zufälligen AUROC und einer besser-als-zufälligen durchschnittlichen Präzision.

Beachten Sie, dass dieser ROC mehr nach oben spitzt, während in “ModelPredGoodTN(HighTN)” die ROC-Kurve mehr nach unten spitzt. Der ROC wird hier mehr nach oben hin ausgeschöpft, weil ein kleiner Bereich von TPR = tp/(tp + fn) von den unteren Entscheidungsschwellen d = 0,5 bis d = 0,1 abgedeckt wird. Das liegt daran, dass wir bei niedrigen Entscheidungsschwellen in diesem tp-verzerrten Modell viele tps und wenige fns haben, was über diese verschiedenen unteren Entscheidungsschwellen hinweg einen hohen Wiedererkennungswert erzeugt. Dass “Ellenbogen” bei d = 0,5 vorhanden ist, liegt an der Art und Weise, wie die synthetischen Ergebnisse relativ zu einer Entscheidungsschwelle von 0,5 generiert wurden.

Schlechte Modellvorhersagen: Hohe FNs

Dies ist die letzte Handlung. “ModelPredBadFN(HighFN)” zeigt Diagramme für ein Modell, das besonders viele falsch negative Ergebnisse produziert. Wenn wir die Klassifizierungsentscheidungen dieses schlechten Modells umkehren würden, würden alle FNs zu TPs und wir würden das oben gezeigte gute Modell als “ModelPredGoodTP(HighTP)” erhalten.


33 - Bilder, Visualisierung und mentale Simulationsinterventionen

Mentale Bilder sind definiert als die mentale Repräsentation zukünftiger Ereignisse, Handlungen oder Aufgaben. Bildtechniken wurden häufig als Mittel zur Verhaltensänderung verwendet. Zahlreiche Strategien wurden verwendet, darunter geführte Bilder, mentale Simulationen und funktionelles Bildtraining. Mehrere Theorien erklären, wie mentale Bilder das Verhalten verändern können, einschließlich Theorien zur sozialen Kognition, Emotionsregulation und Elaboration Intrusion. Zu den wichtigsten Mediatoren bildlicher Interventionen gehören Selbstwirksamkeit und Ergebniserwartungen, Emotionsregulation, Zugänglichkeit von Hinweisen sowie Wünsche und aufdringliche Gedanken. Bildliche Interventionen sind wirksam bei der Verhaltensänderung, typischerweise mit kleinen bis mittleren Effektstärken. Bildgebungsinterventionen sind bei älteren Bevölkerungsgruppen effektiver, wenn detaillierte Anweisungen gegeben werden und wenn sie länger dauern. Praktiker, die die Verwendung von Bildern zur Verhaltensänderung erwägen, sollten (1) Inhalt und Format der Bildintervention (2) Auswahl der geeigneten Zielgruppe (3) Identifizierung von Mitteln zur Förderung der Wirksamkeit von Bildinterventionen (4) Identifizierung von Schulungen und Fähigkeiten, die für die Art der Behandlung erforderlich sind, in Betracht ziehen Bildgebung (5) die angemessene Dosis der Bildgebung, (6) Einbeziehung von Methoden zur Bewertung der Wiedergabetreue der Bildgebung und (7) Mittel zur Bewertung der Wirksamkeit und theoriebasierter Prozesse von Bildgebungsinterventionen. Es bedarf weiterer hochwertiger experimenteller und interventioneller Forschung, die Bildtechniken zur Verhaltensänderung in verschiedenen Verhaltensweisen, Kontexten und Bevölkerungsgruppen bewertet.


Wo können wir helfen?

Presagis-Tools sind leistungsstark und dennoch flexibel und haben Unternehmen, Organisationen und Regierungen weltweit dabei geholfen, die virtuellen Umgebungen und Cockpit-Designs von morgen zu erstellen.

Erfahren Sie mehr über die Branchen, Segmente und Geschäftsaktivitäten, in denen Presagis-Produkte Ihre Projekte verwirklichen können.

Wie kann Presagis Ihnen helfen?

Von Herstellern und Behörden bis hin zu Systemintegratoren und Beratern – Presagis verfügt über die Tools und das Fachwissen, um Sie bei der Umsetzung zu unterstützen. Durch die Beantwortung einiger Fragen können wir Ihnen Lösungen vorschlagen, die am besten zu Ihrem Profil passen.


FEUER: Feedback in realistischen Umgebungen

Diese Seite enthält einige Animationen und Visualisierungen von FIRE-Simulationen. Dies ist bei weitem nicht die einzige Website, auf der schöne und lehrreiche Visualisierungen dieser Simulationen verfügbar sind, und wir haben hier nur einige aufgeführt: Wenn Sie andere suchen möchten, sehen Sie sich einige der unten beschriebenen Websites an.

Glühwürmchen (Bild oben) ist eine Visualisierungs-App für partikelbasierte Simulationen, die wir ausgiebig für die FIRE-Simulationen verwendet haben. Mit Firefly können Benutzer interaktiv Erkunden Sie einen Simulations-Schnappschuss und bewegen Sie sich auf reibungslose und intuitive Weise durch ihn. Ein einzigartiges Merkmal von Firefly ist, dass die Dieselbe Anwendung kann nahtlos auf einer Vielzahl von Plattformen ausgeführt werden, die vom persönlichen Laptop eines Benutzers bis hin zu einer ultrahochauflösenden Displaywand mit 3D-spektroskopischer Fähigkeit reichen. Dank dieser außergewöhnlichen Vielseitigkeit kann Firefly sowohl für die professionelle Datenanalyse als auch für Bildung und Öffentlichkeitsarbeit verwendet werden.

Sehen Sie sich hier eine Demoversion von Firefly mit einigen Simulationsdaten an. Oder erfahren Sie hier mehr über das Firefly-Projekt. Oder laden Sie vollständige Firefly-Datensätze für öffentliche Simulationsausgaben von Massenhalos der Milchstraße über unsere Portale “Milky Way” oder “Data” auf dieser Website herunter.

Ein simuliertes HST-Bild einer unserer FIRE-Simulationen.

Eine Galerie von (simulierten) Galaxien: Vorführung HST-Bilder verspotten unserer FIRE-Simulationen, ist auf der Website von Phil Hopkins hier verfügbar. Gehen Sie dorthin, um einige der vielfältigen Galaxientypen zu erkunden, die in den Simulationen auftreten, wie das Bild hier.

Das Bild rechts ist ein Beispiel. Die Farben sind eine simulierte Version dessen, was in einem typischen Hubble-Bild erscheinen würde, das durch Raytracing durch das vollständig simulierte Gas und den Staub und die Sterne der Simulation erstellt wurde (für die Experten ist es ein simuliertes u / g / r-Kompositbild). Blau zeigt junge Sterne und Sternhaufen. Rote und braune Staubspuren verdunkeln und röten das Licht. Sehen Sie Dutzende von Galaxien mit unterschiedlichen Morphologien auftauchen!

Eine Reihe von Beispielen Filme sind unten abgebildet. Dies sind nur einige Beispiele für eine riesige Bibliothek von Simulationsanimationen. Ausführlichere Animationssets mit detaillierteren Beschreibungen finden Sie hier auf der Website von Phil Hopkins.

Die Filme zeigen Simulationen einzelner Galaxien, die sich zu einer Zeit bilden, als das Universum nur wenige Millionen Jahre alt war (Rotverschiebung von 100). Sie folgen der Region, die bis heute zu einer einzigen Galaxie wird, und verfolgen die Entwicklung von Dunkler Materie und Gas, die schließlich zu Sternen werden. Diese Sterne „beleuchten“ dann das Medium um sie herum: Sie verändern es sowohl durch ihre Strahlungserwärmung und das Drücken auf das Medium als auch durch Supernova-Explosionen.

Eine Milchstraße wie eine Galaxie, die mit ihrer Großen Magellanschen Wolke verschmilzt:
Fliegen durch die letzten Milliarden Jahre

Dies zeigt ein simuliertes Dreifarbenbild (u/g/r-Bänder), wie diese Galaxie bei sichtbaren Lichtwellenlängen aussehen würde. Blaue Regionen sind junge Sternhaufen, die das Gas und den Staub weggeblasen haben, aus dem sie entstanden sind. Rote Bereiche werden durch große Staubmengen verdeckt. Die Dauer des Films folgt den letzten Milliarde Jahren kosmischer Zeit, und während die Zeit vergeht, haben wir eine Kamera „durch“ die entstandene Galaxie geflogen und auch um sie herum geschwenkt, sodass Sie die Struktur innerhalb des Systems sehen können. Diese Version des Films wurde aus einer unserer hochauflösenden (Massenauflösung für Gas und Sterne von 7000 Sonnenmassen) Simulationen einer Milchstraßen-Massengalaxie erstellt. Für mehr davon gehen Sie hier.

Eine Milchstraßen-Massengalaxie in Formation (m12q)
Diese Filme zeigen die Entstehung einer Galaxie mit ähnlicher Masse wie die Milchstraße von der Frühzeit (Rotverschiebung z=100) bis in die Gegenwart. Die Skala ist auf 50 physikalische Kiloparsec an einer Seite festgelegt (so nehmen die Galaxien zu frühen Zeiten nur einen kleinen Bruchteil davon ein). Massive Ausflüsse, die durch Rückkopplungen von Sternen angetrieben werden, sind deutlich zu erkennen und haben insbesondere in frühen Zeiten dramatische Auswirkungen auf das umgebende intergalaktische Medium. Später „beruhigen“ sich die Dinge und es beginnt sich eine entspanntere Scheibe zu bilden. Beachten Sie, dass dies im Vergleich zu der obigen Simulation eine viel niedrigere Auflösung ist, sodass Sie aus der Nähe nicht so viele feine Details sehen können. Aber gehen Sie hier für höher aufgelöste Animationen wie diese.

Gas und die Bildung von Scheiben aus dem kosmischen Netz
Unten sehen Sie Filme einer Simulation, die von leicht unterschiedlichen Anfangsbedingungen ausgeht, mit einem anderen Farbschema, das das kosmische Netz hervorhebt, das die Galaxien füttert.

Der Ursprung dünner galaktischer Scheiben (m12i)
Diese Videos zeigen die Scheibe einer heutigen Galaxie mit der Masse der Milchstraße in Sternen und Gas, die in einer Simulation mit einer „mittleren“ Entstehungsgeschichte entstanden ist.
Trotz der Gewalt der Ausflüsse aus der Galaxie sehen wir eine bemerkenswert dünne Scheibe junger Sterne. Es war jahrzehntelang eine Herausforderung, Galaxien mit dünnen Scheiben zu erzeugen, und viele frühere Studien legten nahe, dass dünne Scheiben mit starker Rückkopplung unvereinbar sein könnten. Die FIRE-Simulationen zeigen, dass sich in kosmologischen Simulationen dünne galaktische Scheiben bilden können und dass sie mit starker stellarer Rückkopplung kompatibel sind.


Starlight (Links: Face-On. Rechts: Edge-On)

Und hier das Gas in der gleichen Simulation (Farbcodierung wie oben):

Eine gewalttätigere Alternative (m12v)
Diese Filme sind von einer Galaxie mit ähnlicher Masse, die jedoch eine gewalttätigere Geschichte erlebt hat. Im Gegensatz zum vorherigen System gibt es viele Verschmelzungen — heftige Kollisionen — mit anderen Galaxien über einen weiten Zeitraum. Infolgedessen hat die wohlgeordnete Scheibe, die wir zuvor gesehen haben, nie eine so große Chance zu überleben und zu wachsen, bevor sie durch diese Begegnungen zerstört wird.

Diese zeigen ein simuliertes Dreifarbenbild (u/g/r-Bänder), wie diese Galaxie bei sichtbaren Lichtwellenlängen aussehen würde, wie im obigen Film, aus zwei verschiedenen Projektionen, um die Verschmelzungen klar zu erkennen.

Eine Zwerggalaxie in Formation (m10)
Diese Filme vergleichen stattdessen die Entstehung einer viel kleineren „Zwerg“-Galaxie mit einer Halomasse von 10^10 Sonnenmassen und der heutigen Masse in Sternen von einigen Millionen Sonnenmassen. Ausflüsse sind hier enorm wichtig – die Galaxie hat eine tausendmal kleinere Sternmasse, als sie es ohne Rückkopplung wäre! Aber Feedback wirkt ganz anders, wie man deutlich sehen kann. Ausflüsse sind sehr kugelförmig, weil die Galaxie und ihr Halo klein sind im Vergleich zu dem Hintergrundfilament, aus dem sie sich bildet. Die Akkretion auf ihnen ist also quasi-kugelförmig. Die Abflüsse werden hauptsächlich durch warmes/heißes Gas in einer Reihe von „Schalen“ angetrieben. Es gibt nicht viel kaltes Gas in der Galaxie, denn selbst eine kleine Masse in jungen, massereichen Sternen kann das gesamte Gas genug erhitzen, um es zu ionisieren und einen ziemlich großen Teil aus der Galaxie vollständig herauszublasen!

Sie können auch deutlich die Auswirkungen der Reionisation bei Rotverschiebung z . sehen

8-9, wenn das Universum „aufleuchtet“ und das Gas im intergalaktischen Medium ionisiert wird.

Diese Filme zeigen das Gas in der Galaxie. Magenta ist kaltes molekulares/atomares Gas (T<1000 K), Grün ist warmes ionisiertes Gas (10^4-10^5 K) und Rot ist ‚heißes‘ Gas (>10^6 K).


Gas (Links: große Skalen, 100 kpc auf einer Seite. Rechts: kleine Skalen, 20 kpc auf einer Seite)

Ohne diese „Feedback“-Effekte würden sich fast 100 % des Gases, das gravitativ an den letzten „Halo“ der Dunklen Materie gebunden ist, in Sterne verwandeln, ganz im Gegensatz zu den Beobachtungen. Aber die Filme zeigen deutlich, dass die Rückkopplung zu massiven galaktischen Superwinden führt, die einen großen Teil des Gases ausblasen.

Animationen von Gasströmen im zirkumgalaktischen Medium
Diese Animationen basieren auf der Analyse des kosmischen Baryonenzyklus, die in Anglés-Alcázar et al. (2017a), veranschaulichen Gasflüsse, die die Sternentstehung in Galaxien befeuern (frische Akkretion, Windrecycling, intergalaktischer Transfer, …). Beschreibungen der verschiedenen Arten von Gasflüssen finden Sie im Papier.

Das m12 Simulation
/> Das m11 Simulation

Animation des Wachstums supermassereicher Schwarzer Löcher in FIRE
Diese Animation zeigt, wie die Masse des zentralen supermassiven Schwarzen Lochs relativ zur Sternmasse der Wirtsgalaxie in einer der Simulationen von Anglés-Alcázar et al. wächst. (2017b). Die Animation zeigt, wie die Akkretionsrate von Schwarzen Löchern zu frühen Zeiten aufgrund der wiederholten Evakuierung von Gas aus dem galaktischen Kern durch stellare Rückkopplung sehr intermittierend ist. Später entwickelt die Galaxie eine stabile gasförmige Kernscheibe, die das Schwarze Loch mit einer gleichmäßigeren Geschwindigkeit antreibt.

Am Ende der Simulation hat das supermassive Schwarze Loch eine Masse ähnlich der, die aufgrund der im Lokaluniversum beobachteten Skalierungsbeziehungen für die stellare Masse des galaktischen Bulge erwartet wird. Die hier gezeigte Simulation folgt einem Haupthalo der Gesamtmasse

10^12.5 Msun z=2, repräsentativ für leuchtende Quasare bei dieser Rotverschiebung.

Visualisierungen von kosmologischen Boxen mit vollem Volumen (die “FIREbox”-Ausgangsbedingungen):

Dies zeigt einen festen Moment (z=2), rendert das kosmische Netz in einer festen Entfernung (blau) und zoomt hinein und heraus (lila, wobei dies das Gas und die Sterne mit dem Gas in der glatten Farbkarte von Violett über Gelb und dem Sterne als rote Punkte) in a


Simulation vs. Visualisierung – was ist der Unterschied?

In diesem Artikel erklären wir, was Simulations- und Visualisierungstechnologien sind, warum sie im Kontext der Fertigung hilfreich sind und wie sie sich ergänzen.

  • Simulationstechnologie ermöglicht es uns, Daten zu produzieren.
  • Visualisierungstechnologie macht Simulationsdaten zugänglich.

Wir werden oft nach den Unterschieden zwischen Simulation und Visualisierung gefragt. Obwohl diese Technologien bei Fachleuten in der Fertigungsindustrie immer beliebter werden, haben wir festgestellt, dass die Konzepte oft verwechselt werden. Mal sehen, ob wir etwas Licht in diese Diskussion bringen können!

Kurz gesagt definieren wir Simulation als Produktion von Daten und Visualisierung als Repräsentation von Daten. Während die 3D-Visualisierungstechnologie alle Elemente echt aussehen lässt, lässt die Simulationstechnologie sie so funktionieren, als ob sie echt wären.

In diesem Artikel erklären wir, was Simulations- und Visualisierungstechnologien sind, warum sie im Kontext der Fertigung hilfreich sind und wie sie sich ergänzen.

Wir definieren Simulation als Produktion von Daten und Visualisierung als Darstellung von Daten.

Erzielen realer Genauigkeit durch Simulation

Simulationstechnologie ermöglicht es uns, Daten zu produzieren. Im Zusammenhang mit der Fertigung helfen uns diese Daten, den realen Betrieb jedes der in einer Produktionslinie vorhandenen Elemente zu replizieren und zu reproduzieren.

Dank der Simulation können wir die verschiedenen Merkmale, Eigenschaften und Verhaltensweisen von Fertigungsressourcen – einschließlich Ausrüstung und Arbeitskräften – nachbilden. Es generiert genaue Informationen über deren Nutzung, Leistung und Gesamtwirkung auf die Produktion im Laufe der Zeit.

Die durch Simulation gewonnenen Daten können uns auch helfen, Korrelationen zwischen den Ressourcen und ihrem Ertrag sowohl einzeln als auch gemeinsam herzustellen. Zudem können wir erstmals verschiedene Kombinationen und Interaktionsszenarien in der virtuellen Welt testen. Auf diese Weise haben wir viel mehr Vertrauen, dass die von uns implementierten Fertigungslösungen wie geplant funktionieren.

Daten durch Visualisierung vereinfachen

Die Visualisierungstechnologie ermöglicht es uns, die Daten, die wir durch Simulation erhalten, visuell darzustellen. Anstatt sich bei der Verarbeitung von Simulationsrohdaten den Kopf zu zerbrechen, können Sie mit dieser Technologie komplexe Informationen vereinfachen und in eine freundliche 2D-Zeichnung, ein Diagramm, ein hochwertiges Bild oder sogar eine 3D-Animation verwandeln.

Durch die Bereitstellung numerischer Daten in einem leicht verständlichen Format ermöglicht die Visualisierung jedem – unabhängig davon, ob er einen technischen Hintergrund hat – Daten effizient zu interpretieren und zu analysieren. Dies wiederum hilft, Arbeitsabläufe zu beschleunigen und die Kommunikation zu erleichtern.

Kurz gesagt, Visualisierungstechnologie macht Simulationsdaten zugänglich.

Die Leistungsfähigkeit von Simulations- und Visualisierungstechnologien kombiniert

Die 3D-Fertigungssimulations- und Visualisierungssoftware von Visual Components nutzt beide Technologien, um eine Komplettlösung anzubieten, die Ihnen hilft, Marketing-Inhalte mit technischer Genauigkeit zu erstellen. Dank seiner Einfachheit, hohen Präzision und der Fähigkeit, projektfertige Ergebnisse zu exportieren, haben Fertigungsfachleute jetzt überall die Möglichkeit, Fertigungslösungen zu entwickeln und an Teams, Kunden und Interessengruppen zu kommunizieren.


Visualisierungen und Simulationen

Forscher des Zentrums für Raumplanungsanalyse und Visualisierung entwickeln Technologien, die es Menschen ermöglichen, physisch und mental in reale und virtuelle Umgebungen einzutauchen. Diese computergenerierten Modelle – wie das oben gezeigte 3D-Rendering – helfen uns, unsere Interaktionen mit Raum und Zeit besser zu verstehen, was letztendlich dazu beiträgt, wie diese Verbindungen den Designprozess beeinflussen. Sie ermöglichen uns den Zugang zu Orten, die wir physisch nicht sehen oder betreten können.

Diese Technologien werden bei der Entwicklung von Hardwaresensoren, interaktiven Computerumgebungen, Softwareanwendungen, physischer Interaktion mit Technologie, Benutzeroberflächendesign, Augmented und Virtual Reality, 3D-Animationen und Game-Engines verwendet.

Der Georgia Tech Campus enthält Hunderte von Baumarten. Das IMAGINE (Interactive Media Architecture Group in Education) Lab entwickelt eine Augmented-Reality-Anwendung für mobile Geräte und Tablets, mit der Benutzer Bäume interaktiv betrachten können. In der App können Nutzer einen Baum berühren und erhalten Informationen darüber wie Alter, Größe und Art. Der Benutzer kann auch das prognostizierte Wachstum des Baums für die nächsten 10, 25 und 50 Jahre sehen, alles in 3D auf dem Bildschirm gerendert. Darüber hinaus ermöglicht die App dem Benutzer eine erweiterte Ansicht des Campus, die mit anschaulichen Bildungsinformationen angereichert ist.

In den letzten zehn Jahren hat Georgia Tech erhebliche Investitionen in unterirdische Anlagen zur Regenwasserbewirtschaftung getätigt. Dazu gehören Zisternen, Brunnen, Tanks, Pumpen, Bewässerungssysteme und Springbrunnen. Ziel ist es, zu verhindern, dass zusätzliche Wasserfrachten in das Abwassersystem von Atlanta eintreten und dazu beitragen.

Obwohl diese Campus-Systeme zahlreich sind, sind sie unbekannt und unsichtbar. Um diese Investitionen zu fördern, arbeitet das IMAGINE Lab mit dem Office of Capital Planning and Space Management von Georgia Tech zusammen, um eine Anwendung zur Visualisierung dieser unterirdischen Systeme zu entwickeln. Die mobile App bietet allgemeine Informationen zu den Systemen sowie navigierbare 3D-Modelle mehrerer Standorte, einschließlich Ansichten der Gebäude, der Landschaft und der unterirdischen Rohrleitungen. Durch diese Anwendung können Benutzer mehr über die Teile des Systems erfahren und erfahren, wie sie arbeiten, um den Wasserverbrauch des Campus aufrechtzuerhalten.


Neuigkeiten & Ankündigungen

Forscher der Purdue University Northwest am Center for Innovation through Visualization and Simulation (CIVS) leiten ein Team, das für einen Bundeszuschuss in Höhe von 7 Millionen US-Dollar ausgewählt wurde, um die Stahlherstellungsprozesse zu verbessern.

Das Office of Energy Efficiency and Renewable Energy (EERE) des US-Energieministeriums (DOE) gab heute (13. Januar 2021) bekannt, dass das bei CIVS ansässige PNW Steel Manufacturing Simulation and Visualization Consortium (SMSVC) für die Entwicklung einer integrierten virtuellen . der nächsten Generation ausgewählt wurde Hochofen (IVBF) zur Verbesserung der Energieeffizienz in Echtzeit. Der Zuschuss in Höhe von 7 Millionen US-Dollar ist der größte [&hellip]

Die Purdue University Northwest und die Northern Indiana Public Service Company (NIPSCO) gaben bekannt, dass NIPSCO eine Stiftung eingerichtet hat, um eine Professur für Engineering Simulation einzurichten. Dr. Chenn Zhou wird der erste sein, der die neu gestiftete Position übernimmt.

Hammond Campus
2200 169. Straße
Hammond, IN 46323
(219) 989-2400
(855) 608-4600


Schau das Video: The Future of Geoscience Summit