Mehr

Weisen Sie zentralen Treffpunkten Punkte mit unterschiedlichen Radien zu

Weisen Sie zentralen Treffpunkten Punkte mit unterschiedlichen Radien zu


Ich habe eine Reihe von Punkten in einer Stadt, jeder mit einem maximalen Entfernungsradius von 0,5 - 1,5 Meilen. Aus dieser Menge von Punkten möchte ich eine kleine Anzahl von 'Treffpunkten' erstellen, d. Diese Punkte, die weit von den anderen entfernt sind, haben einen Treffpunkt von 1.

Mein erster Versuch bestand darin, jeden Punkt zu puffern und die Kreuzung mit der höchsten Anzahl von Überlappungen zu finden, aber es erwies sich als sehr rechenintensiv, da ich jede neue Kreuzung mit allen anderen nahe gelegenen Kreuzungen verglich, um die innerhalb des Gebiets erreichbaren Punkte zu bestimmen.

Mein zweiter Versuch bestand darin, jeden Puffer alle 100 Meter mit möglichen Treffpunkten zu füllen und für jeden eine Entfernungsberechnung durchzuführen, um zu bestimmen, welche Punkte sie erreichen konnten, aber auch hier rechenaufwendig und anfällig für Übersehen von Grenzfällen.

Ich überlege jetzt, einen Schwerpunkt aller Punkte zu erstellen, bei denen mindestens 1 Punkt innerhalb liegtRadius(p1)+Radius(p2)aller anderen Punkte, was so funktionieren würde, wenn sie alle den gleichen Radius hätten. Da die Radien variieren, dachte ich, ich könnte den Schwerpunkt anpassen, indem ich ihn näher an den Mittelwert der Punkte verschiebe, die er nicht erreicht, bis er entweder passt oder nicht.

Verkompliziert ich das zu viel? Es scheint, als ob es eine elegantere Lösung geben sollte, aber ich kann mir nicht vorstellen. Jeder Hinweis in die richtige Richtung wäre sehr willkommen.


Für zukünftige Leser habe ich dies mit meinem zweiten Ansatz gelöst und ein modifiziertes "Fischnetz" erstellt, wie es meiner Meinung nach in GIS-Begriffen genannt wird. Ich habe mich gegen Puffer und Schnittmengen entschieden, weil die exponentielle Explosion der Anzahl der Schnittpunkte "n wähle k" ist. Mehr als 32 Schließungspunkte und ich könnte einen Browser zum Absturz bringen.

Für jeden Punkt habe ich die Entfernung zu jedem anderen Punkt berechnet. Wenn es kleiner als die Summe der 2 Radien war, habe ich es zu a . hinzugefügtclosePointArray. Kosten: O(nlog(n)) mit äquirektangulärem Abstand, was SUPER billig ist, nur 1 Kosinus & 1 Quadrat.

Wenn der Punkt mindestens 1 . hatclosePoint, begann ich alle 200 Meter Punkte in einer Sonnenblumenkernverteilung (goldener Schnitt) zu zeichnen. Kosten O(n) mit 2 Quadraten.

Für jeden Sonnenblumen-"Samen" habe ich den Abstand zu den Punkten im Kern berechnetclosePointArray. Wenn der Seed alle möglichen Punkte erreicht hat, habe ich eine optimale Lösung und höre auf, Seeds für diesen Punkt zu erstellen.

Für jeden zukünftigen Punkt überprüfe ich, ob die optimale Lösung bereits erstellt wurde und überspringe sie, falls dies der Fall war.

Mit dieser Liste entferne ich die kürzeren Schnittpunkte und verlasse mir ein paar Punkte mit vielen Schnittpunkten. Für verbleibende Überschneidungen habe ich jeden Punkt dem ersten Treffpunkt zugewiesen, an dem er erscheint, obwohl ich dies optimalerweise als Set-Cover-Problem behandeln würde, um die Anzahl weiter zu reduzieren.

Hoffe, es hilft jemandem, der mit diesem scheinbar häufigen Problem konfrontiert ist!


Vorhersage des geografischen Standorts aus genetischer Variation mit tiefen neuronalen Netzen

Die meisten Organismen sind näher mit nahegelegenen als entfernten Mitgliedern ihrer Art verwandt, was zu räumlichen Autokorrelationen in genetischen Daten führt. Auf diese Weise können wir den Herkunftsort einer genetischen Probe vorhersagen, indem wir sie mit einer Reihe von Proben bekannter geografischer Herkunft vergleichen. Hier beschreiben wir eine Deep-Learning-Methode, die wir Locator nennen, um diese Aufgabe schneller und genauer als bisherige Ansätze zu lösen. In Simulationen leitet Locator die Probenposition auf 4,1 Generationen der Ausbreitung ab und läuft mindestens eine Größenordnung schneller als ein neuer modellbasierter Ansatz. Wir nutzen die Recheneffizienz von Locator, um Positionen getrennt in Fenstern über das Genom vorherzusagen, was es uns ermöglicht, sowohl die Unsicherheit zu quantifizieren als auch die mosaikartige Abstammung und die Muster der geografischen Vermischung zu beschreiben, die viele Populationen charakterisieren. Angewandt auf Sequenzdaten des gesamten Genoms von Plasmodium Parasiten, Anopheles Moskitos und globalen menschlichen Populationen ergibt dieser Ansatz durchschnittliche Testfehler von 16,9 km, 5,7 km bzw. 85 km.


2 Antworten 2

$B$ ist immer 90 Grad und $sin(A)=r/R$

Ich werde versuchen, ziemlich explizit zu sein, weil ich keine Skizze machen kann. Seien $R$ und $r$ die Radien des großen bzw. des kleinen Kreises -- $R>r$. Sei $O$ der Mittelpunkt der beiden Kreise. Sei $ heta$ der Winkel $widehat$. Beachten Sie, dass $tancos=frac$, also $ heta=arccosfrac$. Wenn wir dem Punkt $B$ (in Polarkoordinaten) die Position $ heta=0$ zuweisen, dann hat der Punkt $A$ die Polarkoordinaten $(R,- heta)$.

Wenn Sie möchten, können Sie diese Koordinaten in ein kartesisches System umwandeln. Möglicherweise haben Sie auch einen gewissen Versatz in dem Sinne, dass $B$ in einem Winkel $phi$ platziert ist, sodass der Winkel von $A$ zu $phi- heta$ usw. wird.


Inhalt

1929 beschrieb Herman Potočnik sowohl geosynchrone Umlaufbahnen im Allgemeinen als auch den Sonderfall der geostationären Erdumlaufbahn im Besonderen als nützliche Umlaufbahnen für Raumstationen. [1] Das erste Erscheinen einer geostationären Umlaufbahn in der populären Literatur war im Oktober 1942 in der ersten Venus Equilateral Story von George O. Smith, [2] aber Smith ging nicht auf Details ein. Der britische Science-Fiction-Autor Arthur C. Clarke popularisierte und erweiterte das Konzept in einem Artikel von 1945 mit dem Titel Außerirdische Relais – Können Raketensender weltweite Funkabdeckung bieten?, veröffentlicht in Drahtlose Welt Zeitschrift. Clarke bestätigte die Verbindung in seiner Einführung zu Die komplette gleichseitige Venus. [3] [4] Die Umlaufbahn, die Clarke zuerst als nützlich für Rundfunk- und Relaiskommunikationssatelliten beschrieb, [4] wird manchmal als Clarke-Umlaufbahn bezeichnet. [5] In ähnlicher Weise ist die Sammlung künstlicher Satelliten in dieser Umlaufbahn als Clarke-Gürtel bekannt. [6]

In der Fachterminologie wird die Umlaufbahn entweder als geostationäre oder geosynchrone äquatoriale Umlaufbahn bezeichnet, wobei die Begriffe etwas austauschbar verwendet werden. [7]

Der erste geostationäre Satellit wurde 1959 von Harold Rosen entworfen, während er bei Hughes Aircraft arbeitete. Inspiriert von Sputnik 1 wollte er einen geostationären Satelliten nutzen, um die Kommunikation zu globalisieren. Die Telekommunikation zwischen den USA und Europa war damals zwischen nur 136 Personen gleichzeitig möglich und war auf Hochfrequenzfunk und ein Seekabel angewiesen. [8]

Damals war die gängige Meinung, dass es zu viel Raketenleistung erfordern würde, einen Satelliten in eine geostationäre Umlaufbahn zu bringen, und dass er nicht lange genug überleben würde, um die Kosten zu rechtfertigen, [9] daher wurden frühzeitig Anstrengungen unternommen, um Satellitenkonstellationen in niedriger oder mittlerer Höhe zu erreichen Erdumlaufbahn. [10] Die ersten davon waren die passiven Echo-Ballonsatelliten im Jahr 1960, gefolgt von Telstar 1 im Jahr 1962. [11] Obwohl diese Projekte Schwierigkeiten mit der Signalstärke und -verfolgung hatten, die durch geostationäre Satelliten gelöst werden konnten, wurde das Konzept als unpraktisch, so dass Hughes oft Gelder und Unterstützung zurückhielt. [10] [8]

Bis 1961 hatten Rosen und sein Team einen zylindrischen Prototyp mit einem Durchmesser von 76 Zentimetern (30 Zoll), einer Höhe von 38 Zentimetern (15 Zoll) und einem Gewicht von 11,3 Kilogramm (25 Pfund) hergestellt, der leicht und klein genug war, um in die Umlaufbahn gebracht zu werden. Es wurde mit einer Dipolantenne spinstabilisiert, die eine pfannkuchenförmige Wellenform erzeugte. [12] Im August 1961 wurden sie beauftragt, mit dem Bau des echten Satelliten zu beginnen. [8] Sie verloren Syncom 1 durch einen Elektronikfehler, aber Syncom 2 wurde 1963 erfolgreich in eine geosynchrone Umlaufbahn gebracht. Obwohl seine geneigte Umlaufbahn immer noch bewegliche Antennen erforderte, war es in der Lage, Fernsehübertragungen weiterzuleiten, und ermöglichte US-Präsident John F. Kennedy den nigerianischen Premierminister Abubakar Tafawa Balewa am 23. August 1963 von einem Schiff aus anzurufen. [10] [13]

Der erste Satellit in einer geostationären Umlaufbahn war Syncom 3, der 1964 mit einer Delta-D-Rakete gestartet wurde. [14] Mit seiner erhöhten Bandbreite konnte dieser Satellit die Olympischen Sommerspiele live von Japan nach Amerika übertragen. Geostationäre Umlaufbahnen sind seither gebräuchlich, insbesondere für Satellitenfernsehen. [10]

Heute gibt es Hunderte von geostationären Satelliten, die Fernerkundung und Kommunikation ermöglichen. [8] [15]

Obwohl die meisten besiedelten Landstandorte der Erde heute über terrestrische Kommunikationseinrichtungen (Mikrowelle, Glasfaser) verfügen, wobei 96 % der Bevölkerung mit Telefonanschluss und 90 % mit Internet verbunden sind, [16] sind einige ländliche und abgelegene Gebiete in den Industrieländern immer noch darauf angewiesen über Satellitenkommunikation. [17] [18]

Die meisten kommerziellen Kommunikationssatelliten, Rundfunksatelliten und SBAS-Satelliten arbeiten in geostationären Umlaufbahnen. [19] [20] [21]

Kommunikation Bearbeiten

Geostationäre Kommunikationssatelliten sind nützlich, weil sie von einem großen Bereich der Erdoberfläche aus sichtbar sind und sich sowohl in Breiten- als auch in Längengraden um 81° erstrecken. [22] Sie erscheinen stationär am Himmel, wodurch Bodenstationen keine beweglichen Antennen benötigen. So können erdgebundene Beobachter kleine, kostengünstige und stationäre Antennen aufbauen, die immer auf den gewünschten Satelliten ausgerichtet sind. [23] : 537 Die Latenzzeit wird jedoch signifikant, da ein Signal etwa 240 ms benötigt, um von einem bodengestützten Sender am Äquator zum Satelliten und wieder zurück zu gelangen. [23] : 538 Diese Verzögerung stellt für latenzempfindliche Anwendungen wie die Sprachkommunikation Probleme dar. [24] Geostationäre Kommunikationssatelliten werden daher hauptsächlich für unidirektionale Unterhaltung und Anwendungen verwendet, bei denen keine Alternativen mit niedriger Latenz verfügbar sind. [25]

Geostationäre Satelliten befinden sich direkt über dem Äquator und erscheinen einem Beobachter in der Nähe der Pole tiefer am Himmel. Wenn der Breitengrad des Beobachters zunimmt, wird die Kommunikation aufgrund von Faktoren wie atmosphärischer Brechung, thermischer Emission der Erde, Sichtlinienbehinderungen und Signalreflexionen vom Boden oder nahegelegenen Strukturen schwieriger. Auf Breiten über etwa 81° befinden sich geostationäre Satelliten unterhalb des Horizonts und sind überhaupt nicht zu sehen. [22] Aus diesem Grund haben einige russische Kommunikationssatelliten elliptische Molniya- und Tundra-Umlaufbahnen verwendet, die in hohen Breiten eine ausgezeichnete Sicht haben. [26]

Meteorologie Bearbeiten

Ein weltweites Netzwerk betriebsbereiter geostationärer meteorologischer Satelliten wird verwendet, um sichtbare und infrarote Bilder der Erdoberfläche und Atmosphäre für die Wetterbeobachtung, Ozeanographie und atmosphärische Verfolgung bereitzustellen. Ab 2019 befinden sich 19 Satelliten entweder in Betrieb oder in Bereitschaft. [27] Diese Satellitensysteme umfassen:

  • die GOES-Serie der Vereinigten Staaten, betrieben von NOAA[28]
  • die Meteosat-Reihe, gestartet von der Europäischen Weltraumorganisation und betrieben von der Europäischen Wettersatellitenorganisation EUMETSAT[29]
  • die Multimissionssatelliten COMS-1 und [30]GK-2A der Republik Korea. [31]
  • die russischen Elektro-L-Satelliten
  • die japanische Himawari-Reihe [32]
  • Chinesische Fengyun-Serie [33]
  • Indiens INSAT-Serie [34]

Diese Satelliten erfassen typischerweise Bilder im visuellen und infraroten Spektrum mit einer räumlichen Auflösung zwischen 0,5 und 4 Quadratkilometern. [35] Die Abdeckung beträgt typischerweise 70°, [35] und in einigen Fällen weniger. [36]

Geostationäre Satellitenbilder wurden verwendet, um Vulkanasche zu verfolgen, [37] die Temperaturen und den Wasserdampf der Wolkendecke zu messen, die Ozeanographie, [38] die Landtemperatur und die Vegetationsbedeckung zu messen, [39] [40] die Vorhersage von Zyklonen zu erleichtern, [34] und Echtzeit-Cloud-Abdeckung und andere Tracking-Daten. [41] Einige Informationen wurden in meteorologische Vorhersagemodelle integriert, aber aufgrund ihres großen Sichtfelds, der Vollzeitüberwachung und der geringeren Auflösung werden geostationäre Wettersatellitenbilder hauptsächlich für Kurzzeit- und Echtzeitvorhersagen verwendet. [42] [40]

Navigation Bearbeiten

Geostationäre Satelliten können verwendet werden, um GNSS-Systeme zu erweitern, indem sie Takt-, Ephemeriden- und ionosphärische Fehlerkorrekturen (berechnet von Bodenstationen einer bekannten Position) weiterleiten und ein zusätzliches Referenzsignal bereitstellen. [43] Dadurch wird die Positionsgenauigkeit von ca. 5 m auf 1 m oder weniger verbessert. [44]

Frühere und aktuelle Navigationssysteme, die geostationäre Satelliten verwenden, umfassen:


Ergebnisse

Ungefähr 96 % der ED-Besuchsdatensätze hatten eine gültige Postleitzahl, und bei 20 % dieser Datensätze fehlte eine Zählnummer. Die Hauptursache für das Fehlen in unseren Daten waren meist nicht standardisierte Adressstrukturen, die in ländlichen Gebieten häufiger vorkommen [8], wie Postfächer und ländliche Routen. Signifikante Bevölkerungsunterschiede bestanden für einzelne untergeordnete Datensätze mit vollständigen geografischen Informationen im Vergleich zu Datensätzen mit fehlenden geografischen Informationen insgesamt (Tabelle 2) und räumlich nach Postleitzahlentabellenbereichen (ZCTA, Abb. 3). Aufzeichnungen mit einer fehlenden Kennung des Zählbezirks wurden signifikant damit in Verbindung gebracht, dass sie eher Afroamerikaner waren (73,9% im Vergleich zu 66,9%), mehr auf subventionierte Versicherungen (64,1% im Vergleich zu 61,5%) und häufiger eine ländliche Notaufnahme aufsuchten (40,4% im Vergleich zu .). 29,3%). Auch wenn die Kinder mit fehlenden Informationen zu den Volkszählungsbezirken häufiger ein ländliches Betreuungszentrum besuchten, im Gegensatz zu den Aufzeichnungen von Kindern mit intakten Zählbezirkskennungen, gehen wir davon aus, dass viele andere, die städtische Einrichtungen besuchten, Landbewohner waren. Daher kann es sein, dass Landbewohner immer noch zu wenig gezählt werden, was auf eine große ländliche Dimension bei Aufzeichnungen mit fehlenden Volkszählungsgebieten hinweist.

Durchschnittlicher Anteil der Besuche in der Notaufnahme (ED) mit fehlender Zählnummer nach Postleitzahltabellenbereich (ZCTA) in South Carolina 1999–2015

Darüber hinaus gab es in den aggregierten Aufzeichnungen der Notaufnahme in South Carolina für 1999–2015 Muster (Abb. 4). Für Afroamerikaner, die nur 27,6% der Bevölkerung des Bundesstaates 2010 ausmachten, bestand eine weit überproportionale ED-Besuchsbelastung (Abb. 4b und 4d) [47]. Im Laufe der Zeit gab es einen Anstieg der ED-Besuche, insbesondere bei Afroamerikanern sowohl in Städten als auch auf dem Land (Abb. 4: alle Panels). Beachten Sie, dass der städtische/ländliche Status hier für die aufnehmende Einrichtung und nicht für den Patientenwohnsitz gilt. Der zunehmende Rohtrend wurde später durch das Vorhandensein positiver jährlicher zeitlicher Trendeffekte in statistischen Modellen widergespiegelt.

Besuche in der Notaufnahme (ED) in South Carolina 1999–2015. ein Alle täglichen ED-Besuche (Punkte) und die jährliche durchschnittliche Anzahl der täglichen ED-Besuche (Linie). B Jährliche Summe der ED-Besuche nach Patientengruppe. C Jährliche Summe der ED-Besuche nach städtischem/ländlichem Status der Aufnahme von ED. D Jährliche Summe der ED-Besuche nach Patientenrasse und städtischem/ländlichem Status der Aufnahme einer ED

Eine Korrelationsmatrix aller sozioökologischen Kovariaten des Zensustrakts in Form einer Heatmap wurde erstellt (Abb. 5), um die Beziehungen zwischen den Variablen zu bewerten. Die Heatmap zeigte visuell positive (rot) und negative (blau) Spearman-Korrelationen für geordnete Zählgebiete an. Darüber hinaus zeigt Abb. 6 die durchschnittlichen jährlichen Konzentrationen für jeden der sechs in dieser Studie enthaltenen Schadstoffe in South Carolina im Zeitraum 1999–2015.

Heatmap, die Spearman-Korrelationen zwischen Variablen zeigt, die während der Modellerstellung berücksichtigt wurden

Kriterien Luftschadstoffkonzentrationen in South Carolina 1999–2015. Daten: Center for Air, Climate, and Energy Solutions (CASES), Environmental Protection Agency (EPA)

Für jedes Modell bzw. jeden Datensatz haben wir das LPML-Anpassungsmaß ausgewertet (Tabelle 3). Beachten Sie, dass Tabelle 3 LPML-Anpassungsmaße nur innerhalb jedes Datensatzes (dh innerhalb einer Spalte) und nicht zwischen den Datensätzen A1 (vermuteter Goldstandard) und B direkt verglichen werden können. Modell 1b) war hinsichtlich des LPML-Fits weit überlegen (− 3770,0 bis − 4858,5). Darüber hinaus war die Einbeziehung von Zufallseffekten, demografischen und Wetterkovariaten in ein Modell (Modell 2, LPML: -3756.1) einem Modell mit ausschließlich zufälligen Effekten (Modell 1a, LPML: -3770.0) überlegen. Nach diesem Maß war Modell 4 das am besten passende Modell (LPML: −3736,7).

Schätzungen des Betakoeffizienten, Standardabweichungen und glaubwürdige Intervalle wurden für Modell 4, das endgültige Modell, für die Datensätze A1 und B in Tabelle 4 aufgenommen. Ergebnisse der Variablenauswahl (Modellreihe 3), die mit den fünf verwendeten Datensätzen (A1–5) durchgeführt wurde der flächenanteilbasierte Zuweisungsalgorithmus für geografische Kennungen war konsistent. In allen fünf Datensätzen wurden Personen pro Haus und die durchschnittliche jährliche CO-Konzentration sowie in vier der Modelle die Entfernung zur nächsten Apotheke ausgewählt. Angesichts der Konsistenz der Ergebnisse der Variablenauswahl gingen wir davon aus, dass Datensatz A1 repräsentativ war und als endgültiges Modell verwendet werden konnte.

In Modell 4 für Datensatz A1 waren die als Kontrollen enthaltenen demografischen und wetterbezogenen Messgrößen statistisch signifikant. Trotz des Versuchs, Nachbarschaften besser zu charakterisieren, indem 19 zusätzliche sozio-ökologische Faktoren der Volkszählungsgebiete bewertet wurden, sind die Zusammenhänge zwischen dem Asthmarisiko in der Nachbarschaft und der ethnischen Zugehörigkeit (Prozent weißer, β: − 0,013 95 %-KI: − 0,015, − 0,011), Bildung (Prozent Abitur, β: − 0,013 95 %-KI: − 0,017, − 0,008) und Einkommen (medianes Haushaltseinkommen, β: − 0,008 95 %-KI: − 0,011, − 0,006), konnten nicht wegerklärt werden. Je weißer, gebildeter und wohlhabender ein Volkszählungsbezirk war, desto geringer war das Risiko für einen Asthma-Notarztbesuch, der alle anderen Faktoren berücksichtigt.

Abgesehen von Demografie- und Wettervariablen umfassten die in Modell 4 für Datensatz A1 ausgewählten sozioökologischen Variablen die durchschnittliche jährliche CO-Konzentration (β: − 0,148 95 %-KI: − 0,286, − 0,004), Entfernung zur nächsten Apotheke (β: 0,015 95 %-KI: 0,007, 0,023), durchschnittliche Einwohner pro Haus (β: 0,297 95 % CI: 0,149, 0,452) und CO-Wechselwirkungen mit O3 (β: 0,058 95 %-KI: 0,039, 0,077), Temperatur (β: 0,287 95 % KI: 0,102, 0,452) und Taupunkttemperatur (β: − 0,261 95 %-KI: − 0,415, − 0,105), jeweils Kontrolle für alle anderen Faktoren. Obwohl dies nicht mit einer verbesserten Modellanpassung verbunden war, haben wir außerdem einen Haupteffekt für O3 (β: 0,001 95 %-KI: − 0,002, 0,003) zur Unterstützung der Interpretierbarkeit, da O3 signifikant mit CO interagiert. Als wir Datensätze mit fehlenden Zählbezirks-Identifikatoren wie in Datensatz B entfernten oder sie basierend auf Bevölkerungsanteilen wie in den Datensätzen A6-10 zuweisen, enthielten die sozioökologischen Variablen, die aus Modell 3 über die Variablenauswahl ausgewählt wurden, ganz andere und kleinere Sammlung: Nur durchschnittliche Personen pro Haus waren signifikant mit dem Besuchsrisiko für Asthma ED verbunden. Die Entfernung zu einer Apotheke, CO und Wechselwirkungen mit CO, die jeweils starke städtische/ländliche Dimensionen aufweisen, waren nicht signifikant mit dem Asthma-Erkrankungsrisiko bei Kindern verbunden. Darüber hinaus zeigte die Variablenauswahl für die Datensätze A6–10 unter Verwendung von Bevölkerungsanteilen als Zuordnungswahrscheinlichkeiten, dass nur die durchschnittliche jährliche CO-Konzentration konsistent ausgewählt wurde und durchschnittliche Personen pro Haus und nächste Apothekenentfernung nicht ausgewählt wurden. Die gegensätzlichen Ergebnisse scheinen mit den Mustern einer erhöhten geografischen Abwesenheit von Notaufnahmebesuchen in ländlichen Gebieten (Tabelle 2, Abb. 3), die auch von anderen berichtet wurden, in Einklang zu stehen [8].


Agentur und modellierte Elemente

Die Komplexität der Malariaübertragung verhindert, dass ein Modell alle Übertragungsfaktoren in der Tiefe simuliert. In der Praxis konzentriert sich jedes Framework auf einige wenige Kernkonzepte, die im Allgemeinen Quellen der Heterogenität sind, die den Einsatz von ABM motivieren. Diese Konzepte können kategorisiert werden als Gastgeber, Vektor, Parasit, Umgebung, und Intervention Faktoren. Die Kernkomponenten eines Modells scheinen die Eigenschaften jedes Modellrahmens zu diktieren, und diese Beziehung wird in den folgenden Abschnitten erörtert. Abbildung 3 skizziert einige der Faktoren, die zwischen Übertragungsszenarien variieren und daher für die Modellierung mit einem ABM geeignet sein können.

Diagramm, das Faktoren darstellt, die die Malariaübertragung beeinflussen, die von ABMs modelliert wurden. Faktoren, die Menschen und Mücken betreffen, sind in roten bzw. blauen Kreisen eingezeichnet. Faktoren über den Krankheitsprozess sind innerhalb der Pfeile, die diese Kreise verbinden. Faktoren am oberen und unteren Rand des Diagramms sind Umweltfaktoren bzw. Interventionen

Modellagenten waren entweder nur Menschen (49/90-Modelle), nur Mücken (9/90) oder sowohl Menschen als auch Mücken (32/90) (Zusatzdatei 2, Spalte 4). In einer Reihe von Fällen war die Wirkung von Vektoren unklar, obwohl sie in Vorläuferstudien verwendet wurden. Pizzituttiet al. Als ein Plasmodium Erreger als Infektion eines Wirts oder Vektors [30, 37], während andere Modelle diese Elemente als Teil eines Vektors oder menschlichen Erregers betrachteten. Das AGiLESim-Framework spezifizierte Larvenhabitate als Agenten mit Eigenschaften wie Standort, Larvenkapazität und aktuelle Eipopulation [22]. Die HYDREMATS-Simulationen der Bomblies et al. Hydrologiemodell [20, 25, 38,39,40,41,42] beschreiben einzelne Larvenhabitate mit vielen Variablen und zeitabhängigen Formeln, beziehen sich jedoch nicht auf Habitate als Agenten.

Modelle mit ausschließlich Menschen als Erreger konzentrierten sich im Allgemeinen auf die Auswirkungen von Infektionsmerkmalen oder medizinischen Eingriffen auf die Übertragung. Beispielsweise hatten die OpenMalaria-Modelle des Schweizerischen Tropen- und Public Health-Instituts im Kern individuelle Menschen mit unterschiedlicher Parasitendichte [18]. Diese Modelle wurden um individuelle Wirkungen der angeborenen Immunität [34], pyrogene Schwellenwerte [35] und die Wirkung von Impfungen [43], insbesondere präerythrozytäre Impfstoffe [18, 33, 44] erweitert. Die Modelle dieser Gruppe machten 20 der 49 reinen Humanstudien aus.

Zu den wichtigsten simulierten menschlichen Faktoren gehörten Alter und Wirtsimmunität, wobei die Immunität entweder mütterlicherseits [13, 14] erworben [18, 39, 45] oder beides war [34]. Details zur Immunität reichten von allgemeinen Beschreibungen des Einflusses der Immunität auf die Übertragung bis hin zu individualisierten Antikörperkonzentrationen für Parasiten im Sexualstadium [46]. Menschliches Verhalten in Bezug auf Interventionen [30] und Behandlungsentscheidungen wurde sowohl für Patienten [47] als auch für Pflegepersonal [28] simuliert. Ein Modell simulierte die Auswirkungen der Anti-Malaria-Anwendung auf HIV-positive schwangere Frauen [48], einschließlich der Schwere der Erkrankung und der Verbesserung des Geburtsgewichts.

Die am häufigsten simulierten Krankheitsaspekte waren die Gametozytendichte (in allen OpenMalaria-Modellen enthalten [18]) und die Infektiosität der Wirte für Mücken [49], mit anderen gemeinsamen Elementen wie Fieber [35], Krankheitsmorbidität und -mortalität [24] und Krankheitsschweregrad [24, 50].

Von 81 Veröffentlichungen mit menschlichen Wirkstoffen wurden 50 Personen nach Alter stratifiziert (Zusatzdatei 2, Spalte 13), um entweder Krankheitsprofile zu variieren oder Ergebnisse zu melden. Aufgrund seiner starken Korrelation mit der Körperoberfläche wurde häufig das Alter bei der Berechnung der menschlichen Beißraten verwendet [18]. Andere altersabhängige Faktoren waren die adaptive und mütterliche Immunität sowie die Dauer der Infektion [17]. Wenn Interventionen altersspezifisch waren, zum Beispiel Impfprogramme [33], wurde eine Stratifizierung verwendet, um die Auswirkungen auf verschiedenen Ebenen der Gemeinschaft zu bewerten [44].

Vektor

Modelle mit Mücken als Erreger bewerteten am häufigsten Interventionen, die sich auf die Vektormortalität auswirken, wie die Entfernung von Lebensräumen [30], IRS [16] oder ITN [51]. Detaillierte Modelle des Lebenszyklus und der Ökologie von Vektoren waren üblich, wobei das Verhalten der Moskitos, wie Fressgewohnheiten [31, 52], Bewegungsmuster [30, 53] und Beißhäufigkeit [54], detailliert modelliert wurden. Vektorbewegung wurde oft als zufällige Bewegung modelliert, aber CO2 Gradienten wurden ebenfalls berücksichtigt [20, 55,56,57]. Simulationen wie das EMOD-Framework modellierten die Eizellpopulation als Kohorte für ihre Progression ins Erwachsenenalter [19], und zwei Modelle simulierten Eizellen als einzelne Agenten [58, 59].

In den meisten Publikationen wurden nur weibliche Mücken simuliert [60, 61] als für die Übertragung verantwortliches Geschlecht. Männliche Mücken wurden im Allgemeinen modelliert, wenn eine vollständige Population erforderlich war, beispielsweise um Interventionen zur Vektorkontrolle zu bewerten (z. B. [21]). Männchen mussten speziell die Auswirkungen der Einführung von Gene-Drive-Moskitos in eine Umgebung untersuchen, wie z. B. „driving-Y“-modifizierte männliche Vektoren [62]. Obwohl dominiert von Ein. Gambiae Darstellung, Modelle auch variiert von Anopheles Arten, einschließlich Ein. vage [63], Ein. stephensi [64], Ein. arabiensis [62], und Ein. Liebling Ich [30, 37]. Eins Ein. Gambiae Modell [65] wurde angepasst an Ein. vage Vektoren [63], um die Übertragung in Bangladesch zu simulieren, und mehrere Modelle enthalten mehrere Anopheles Populationen [14, 56, 66, 67, 68], waren artenübergreifend anpassungsfähig [51, 58, 59, 69] oder waren unspezifisch in Anopheles Arten [60, 70, 71].

Wenn sowohl Wirte als auch Vektoren simuliert wurden, konzentrierten sich die Modelle auf den Lebenszyklus von Mücken [19], die Populationsdynamik [58], die physische Umgebung [55] und Interventionen zur Vektorkontrolle [21]. Menschliche Agenten wurden oft einbezogen, um sich zu beziehen Anopheles Populationen und Malariaübertragung, in Modellen mit Vektordynamik als Kernkomponente. Wenn die Modelle auch eine räumliche Komponente enthielten, erforderte die Malariaübertragung im Allgemeinen die gemeinsame Position von Vektor und Wirt. Diese Simulationen verwendeten einen „Entscheidungsbaum“, um das Timing von Bewegungen und anderen notwendigen Aktionen darzustellen [21, 30, 31] (z. B. Abb. 2). Die Simulation sowohl von Wirten als auch Vektoren auf individueller Ebene wurde regelmäßig verwendet, um Interventionen gegen Mücken und ihre Auswirkungen auf die Malariaübertragung zu bewerten [19, 72].

Parasit

Von 54 Modellen, die einen Malariaparasiten spezifizierten (siehe Zusatzdatei 2, Spalte fünf), modellierten 51 die Dynamik von Plasmodium falciparum, zwei simulierten beide P. falciparum und Plasmodium vivax [30, 37] und eins Plasmodium berghei [64]. Die In-Host-Modellierung von P. falciparum Dynamik von Molineaux et al. [12, 18, 73] wurde in 21 Arbeiten verwendet. In einigen Studien, Plasmodium Infektionen innerhalb einer Person wurden als Agenten modelliert [30, 37] wenn a Plasmodium Wenn der Erreger bestimmte Punkte in seinem Lebenszyklus erreicht hat, würde der Vektor oder der Wirtserreger den Infektionsstatus ändern.

Eine Studie charakterisierte das Infektionsreservoir beim Menschen nach Parasitenmerkmalen [68], wobei die Parasitendichte bekanntermaßen mit der Infektiosität des Wirts in Verbindung steht. Studien untersuchten die Auswirkungen einer Infektion nicht nur auf Wirte, sondern auch auf Vektorverhalten, wie veränderte Beißraten [56, 57]. Die Biologie der Parasiten wurde ebenfalls berücksichtigt, einschließlich Parasitenstämme [17, 74], PfHRP2-Status [75, 76] und Wiederauftreten von P. vivax Malaria [30] das letztgenannte Modell betrachtete die Krankheit als ein Untermodul des gesamten Simulationsrahmens. Drei Modelle simulierten multiple Parasitenklone [15, 17, 77] und vier erlaubten eine antigene Parasitenvariation [15, 78,79,80,81,82], insbesondere um Antimalariaresistenz einzufangen.

Die Wahl des Parasiten, ähnlich wie die Anopheles Art, basierte oft auf der dominanten Art am Zielort. Die Dominanz von P. falciparum Die Malaria-Simulation spiegelt die Aufmerksamkeit wider, die ihr geschenkt wird, die größtenteils auf die historische relative Krankheitslast zurückzuführen ist. Darüber hinaus waren eine Reihe von simulierten Interventionen spezifisch für P. falciparum, insbesondere der präerythrozytäre RTS,S-Impfstoff [14, 44, 83].

Modellieren anders Plasmodium Arten können Änderungen an der Modellstruktur erfordern, um beispielsweise die Rekrudeszenz in zu berücksichtigen P. vivax aber nicht P. falciparum Malaria. Pizzituttiet al. [30, 37] berücksichtigten diese Unterschiede durch Hinzufügen von Parametern, die die Rezidivzeit und das Risiko von P. falciparum-Ausgelöst P. vivax Wiederauftreten. Die Infektionsparameter variieren zwischen Plasmodium Arten, basierend auf früheren Beweisen. Abgesehen von diesen Änderungen wurden die Strukturen des Entscheidungsbaummodells, die die Handlungen der Agenten diktieren, nicht geändert.

Umgebungs- und Raummodellierung

Es wurden zentrale Umweltaspekte im Zusammenhang mit der Vektoraktivität einbezogen, wie Wasserquellen für die Eiablage (Eierlegen) [20], Häuser für Blutmahlorte [72] und meteorologische Daten zur Berücksichtigung saisonaler Übertragungsmuster [58, 84]. Niederschlags- und Temperaturdaten wurden regelmäßig verwendet. Modellfragen umfassten den Einfluss von Regenzeitlängen [42] und Hysterese [40] auf Vektorpopulationen.

Dreißig der 90 Modelle bauten explizit einen räumlichen Rahmen in ihr Modell ein (Abb. 1 und Zusatzdatei 2, Spalte 11, näher untersucht in Zusatzdatei 4). 17 Modelle untersuchten die Malariaübertragung in Afrika, indem sie einen bestimmten Ort simulierten (z. B. [20, 85]) oder eine hypothetische Landschaft verwendeten, die ein typisches afrikanisches Dorf darstellt (z. B. [31, 53]). Zwei Modelle repräsentierten die Übertragung im Amazonasgebiet [30, 37] und je eines in Papua-Neuguinea [17], Frankreich [71], Haiti [86] und Bangladesch [63]. Räumliche Modelle simulierten auch lokale Vektoraktivität in einer generischen physikalischen Umgebung [51, 57, 58].

Während viele Raummodelle detaillierte Darstellungen einer bekannten Landschaft aufwiesen [25], war dies insbesondere bei frühen Raummodellen nicht immer der Fall [22, 86]. Drei Methoden der räumlichen Konstruktion dominierten: rasterbasierte Systeme, Patches und kontinuierliche Landschaften. Außerdem haben Depinay et al. [58] verknüpften explizit Vektorstandorte mit Häusern, ordneten jedoch keine Raumkoordinaten zu, während Karl et al. [17] erzeugte eine Übertragungswahrscheinlichkeit basierend auf der Entfernung zwischen Host- und Vektororten, um räumliche Biting-Faktoren zu berücksichtigen.

In einer rasterbasierten Landschaft wurde die modellierte Fläche am häufigsten in Quadrate konstanter Größe unterteilt, wobei Elemente der Landschaft innerhalb eines Quadrats liegen (z. B. [22]). Die Hydrologie/Entomologie-Modelle von HYDREMATS waren die Ausnahme, wobei die Rastergröße je nach Nähe zu menschlichen Lebensräumen und Komplexität der Wasserquellen in der Region variierte [20]. Es gab eine Wechselwirkung zwischen den physikalischen Eigenschaften des Untersuchungsgebietes und der Konstruktion des Modells. Zum Beispiel wurde die Größe von Gitterquadraten mit Parametern wie der typischen Entfernung von Mücken in einem Zeitschritt oder der Größe des Larvenhabitats in Beziehung gesetzt [20]. Die gesamte Simulationsfläche, typischerweise ein Quadrat zwischen 600 m und 3000 m Länge, wurde im Allgemeinen basierend auf Anopheles Ausbreitungsverhalten und typische Dorfgrößen modelliert [31]. Sechs Modelle simulierten viel größere Gebiete [16, 17, 37, 62, 67, 85] das letzte dieser Modelle verwendete 1-km-Gitter, um die Umgebung zu beschreiben, charakterisierte jedoch Bewegungen und Eingriffe auf viel feineren räumlichen Skalen [67]. Die Entfernungen, von denen Mücken auf Wirte oder Eiablageorte abzielen können, wurden nach Möglichkeit anhand früherer Felddaten bestimmt [30, 31].

Die zusätzlichen räumlichen Methoden adressierten gegensätzliche Beschränkungen gitterbasierter Landschaften, nämlich Gesamtfläche und räumliche Präzision. Ein Patch-Framework wurde von Silal et al. [16] und Eckhoff et al. [62] zur Darstellung von Gebieten mit unterschiedlichen Übertragungseigenschaften (z. B. sich ändernde EIRs innerhalb von Bezirken), ohne die Umgebung explizit zu modellieren. Diese Methode ermöglichte die Simulation breiterer räumlicher Bereiche. Rateb et al. [86] erreichte dies, indem Haiti als eine Reihe von „Mikroumgebungen“ dargestellt wurde, von denen die Agenten des Aufnahmelandes betroffen waren. Umgekehrt wurden Modelle mit kontinuierlicher Landschaft verwendet, um Variationen in der Lage von Häusern, Larvenhabitaten, Zuckerquellen und Rastplätzen zu ermöglichen und die Auswirkungen unterschiedlicher physischer Umgebungen zu modellieren [21, 31]. Jedes Objekt hatte einen bestimmten Ort, und Moskitos konnten Objekte innerhalb einer bestimmten kreisförmigen Entfernung wahrnehmen, im Gegensatz zu einem bestimmten Rasterquadrat. Aber auch bei Verwendung einer dorfgroßen zusammenhängenden Landschaft können Modelle von Zhu et al. [21, 31, 36] kartierten noch immer den zufälligen Mückenflug mit einem gitterbasierten System, wenn auch im Maßstab von 1 m × 1 m.

Einige Modelle imputieren räumliche Ergebnisse aus nicht-räumlichen Modellen auch auf andere Weise. Das Malaria Atlas Project [87] und der Markham Seasonality Index [88] haben Methoden zur Vorhersage von EIRs nach Standort entwickelt, und Forscher haben diese Werkzeuge mit Modellergebnissen kombiniert, um Karten der geschätzten Krankheitslast in Subsahara-Afrika (SSA) zu erstellen [27 , 54, 69, 78, 89, 90]. Models also used SSA rainfall data to replicate seasonality patterns [69, 91] and population estimates for host locations over large areas [91, 92]. In one instance, a spatial model of hypothetical locations was simulated in conjunction with geographic information systems (GIS) technology, to represent transmission in specific locations [61].

Interventionen

Fifty-eight studies assessed the impact of at least one intervention on malaria transmission, mosquito prevalence or EIR (Additional file 2, column 6). The majority of papers assessed multiple interventions, 21 assessed interventions in combination, and one investigated the removal of current malaria strategies [52]. Interventions could broadly be divided into those targeted at the human host (e.g. pharmacological) or the vector. Model structure tended to support simulation of the intervention being tested. For example, larval habitat elimination [51] or toxic sugar baits [21] were modelled spatially, requiring vectors as agents whereas vaccination [18, 33, 44] and drug administration [93] studies involved human agents, in order to capture individual immune responses.

Interventions were included in models for two reasons: for assessment of effectiveness [18], or to replicate the ‘baseline’ characteristics of regional transmission [26], to allow additional interventions to be explored. In general, baseline scenarios included ITN [54] and “case management” [26], as defined by the current interventions in the location being modelled.

Simulation of interventions usually took one of three approaches. First, a specific intervention was defined to have a certain effect when in use, for example a medication having a fixed efficacy, and the impact on transmission is measured. Second, where environments were explicitly modelled, interventions were usually defined by their physical impact. For example, from a baseline scenario, an intervention might alter individual larval habitats [51] or remove sugar sources to reduce vector feeding [31], and simulations highlighted the change in the output of interest, such as disease burden or vector populations. Third, hypothetical interventions were described by their impacts, to target a specific aspect of malaria transmission [65]. The hypothetical impact may approximate a pre-existing intervention, such as halving human biting rates for a fixed period [94], or evaluate novel targets that may guide future control techniques.

Sonstiges

The ease with which ABMs allow for heterogeneity and model complexity enables some less often considered transmission factors to be simulated. Examples include anthropophily (i.e. vector preference for human hosts) [19], sugar sources (e.g. fruit trees) [21, 31], travellers [16, 95], the impacts of larval densities in oviposition sites [59, 65], and the pharmacokinetics and pharmacodynamics of anti-malarials [75, 80, 91, 96].


Abschluss

This study has illustrated the application of SDSS technology to support high-resolution surveillance-response for malaria elimination in remote Pacific Island settings. This study has shown how an SDSS based approach to surveillance-response can utilize GIS queries to support the identification and mapping of malaria cases at a detailed household level, visualize and classify active transmission foci, detect priority geographic areas to conduct follow-up activities, and automatically extract detailed data to support the rapid mobilization of appropriate response interventions. When integrated into existing health systems, an SDSS framework provides programme managers with an effective and flexible operational tool to actively understand micro and meso-epidemiological variations within an elimination area and respond accordingly. SDSS-based geospatial surveillance-response systems currently remain in operation in all three elimination provinces in the Solomon Islands and Vanuatu. Further refinement and validation of these systems and their extension to include a costing assessment of the surveillance system and associated response packages are currently continuing, as well as additional applications being developed to support intensified malaria control and broader disease surveillance within the region.


Einführung

Increasing demands for location-based services require accurate wireless indoor location information. Location-based services include indoor navigation for people or robots, personnel, asset tracking, guiding blind people, factory automation, workplace safety, locating patients in a hospital, and location-based advertising [1]. Additionally, such services are becoming essential in various other fields such as mobile commerce, parcel or vehicle tracking, discovering the nearest shops or restaurants, and social networking [2]. Moreover, analyses of personnel and asset tracking and collecting movement data have been limited.

With the increasing prevalence of global positioning system (GPS) applications, satellite signals have had a significant impact on outdoor positioning systems owing to their high accuracy. However, in indoor environments, indoor location and navigation remain unsolved problems. Because of such factors as multipath effects and Wi-Fi signal interference, satellite signals become unreliable for positioning indoors. Consequently, GPS-based indoor positioning techniques still face major obstacles, including the unavailability or degradation of GPS signals, real-world indoor environments, and low-grade devices [3, 4]. Given such circumstances, various positioning techniques have been proposed. According to [5], positioning techniques are classified into two categories, infrastructure-based and infrastructure-free technologies. An infrastructure-based technology requires pre-installation and configuration of specialized hardware in the environment. For instance, these include radio-frequency identification (RFID) [6], ultrasound [7], Bluetooth [8], ultra-wideband beacons (UWB) [9], ZigBee [10], infrared [11], and pseudolites [12]. Infrastructure-free technologies are typically based on Wi-Fi [13,14,15,16], magnetic fields, motion sensors [(inertial measurement units (IMUs)], and vision techniques [17]. Recently, there are many other technologies like audio signal based localization [18], magnetic field-based localization [19]. Compare to RF methods, audio signal based localization or acoustic localization is more accurate and cheaper [20]. However, acoustic localization requires microphones and speakers which are available in every smart mobile device to combine with Bluetooth low energy (BLE) and Wi-Fi-based approaches. In this system, BLE or Wi-Fi can be utilized for rough location estimation and acoustic signals are used for computing the precise location [20].

Wi-Fi based indoor localization systems have become a prominent tool for indoor positioning for various reasons. First, nearly all smartphones have a built-in Wi-Fi module. Second, Wi-Fi access points are installed ubiquitously, and a Wi-Fi based indoor localization system has suitable cost and accessibility [2, 21]. Third, Wi-Fi does not require additional special-purpose hardware. Location estimation can be easily estimated by measuring the received signal strength (RSS) values from a Wi-Fi access point. Finally, the bandwidth of Wi-Fi systems has increased significantly to meet the requirements of high data rates [1].

Alternatively, Wi-Fi indoor positioning techniques are classified into two categories, signal propagation models [17, 32] and location fingerprinting [29]. A comparison of signal propagation models and the location fingerprinting method is presented in Table 1. In a signal propagation model, an indoor positioning system using the time-of arrival (ToA) and time difference of arrival (TDoA) suffers from multipath fading on several paths [5] while measuring the distance to the station from mobile devices. Alternatively, the location can be estimated using the angles of the signals received from the mobile user and the Wi-Fi access point this includes the angle of arrival (AoA) and angle of departure (AoD) techniques. Most systems based on AoA measure the relative angles between signals coming from multiple anchor nodes to estimate the position requiring the antenna directions of both the mobile user and Wi-Fi access point to be known. By measuring the time-of-flight of the signal traveling from the sender to the user and back, the round-trip time-of-flight (RToF) of the signal is used to measure a location. However, this requires the exact delay and processing time. In location fingerprinting, a database containing measurements of the wireless signals at various reference points in a wireless LAN coverage area is established first. Indoor positioning systems using location fingerprinting compare the wireless signal measurements with the reference data [29]. However, this method requires database generation and maintenance. Compared with location fingerprinting, implementing signal propagation is simple. However, signal propagation (as a result of such factors as penetration losses through walls and floors) and multipath propagation are still very complicated [29]. For this reason, a novel Wi-Fi-based indoor positioning system was proposed to achieve a better performance.

In addition, in the era of computing paradigms, cloudlet is known as the technology at the edge of the Internet for deploying mobile cloud services. The aim of using cloudlets, typically accessed through Wi-Fi connections, is to bring cloud technologies closer to the end-user and provide resource- and latency-sensitive applications [33]. Moreover, cloudlets are small-scale data center that are designed to provide cloud computing applications quickly to mobile devices such as smartphones, tablets, and wearable devices within close geographical proximity. This places cloudlets in the following three-tier hierarchy: mobile device, cloudlet, and remote cloud, as shown in Fig. 1. Based on the mobile user’s request, one or more custom virtual machines can be instantiated immediately on the cloudlet for remote execution of applications [34]. The advantages of cloudlets include the following:

Through Wi-Fi located on a one-hop wireless network [35], a cloudlet system efficiently provides a powerful computing resource and speeds up mobile application executions.

The real-time interactive response can access the cloudlet through a one-hop high-bandwidth wireless to reduce the transmission delay [35, 36].

Utilizing mobile device connectivity to nearby cloud servers enables a cloudlet to overcome the distant wide-area network latency and cellular energy consumption problems [37].

Using cloudlets is more optimized and efficient, enhancing the user experience when computation-intensive tasks offload to nearby cloud servers in a cloudlet-based cloud computing system [38].

Cloudlets leverage the computational capacity of connected mobile devices [39].

Cloudlet-based mobile cloud computing system

Cloudlets deployed one wireless hop away from mobile devices can process the computationally intensive tasks offloaded from devices efficiently [33]. Therefore, cloudlets are typically set up at a public place, such as a shopping center, theater, office building, or assembly room, to enable convenient access for mobile devices [35]. Compared to the baseline Wi-Fi indoor positioning system, a combination of a cloudlet-based cloud computing system, indoor positioning, and navigation, considered as a single system, is practical. To achieve that, we designed a model of a cloudlet-based mobile cloud computing system enabling Wi-Fi indoor positioning and navigation, as shown in Fig. 2. The system consists of a self-driving cart, a small-box data center (cloudlet) available in a wireless access point, and a core cloud.

Model of a cloudlet-based mobile cloud computing system enabling Wi-Fi indoor positioning and navigation

Finally, implementing a cloudlet-based cloud computing system enabling Wi-Fi indoor positioning and navigation is possible for the following reasons. First, because a cloudlet supports resource- and latency-sensitive applications [34], it can provide location-based services such as indoor navigation for people or robots, personnel, asset tracking, guiding blind people, factory automation, workplace safety, locating patients in a hospital, and location-based advertising [1]. Second, a cloudlet provides not only the reference access point locations but also all location information of devices in the network to find the route path for an indoor cart. Moreover, the moving edge cloud in an indoor cart can determine the distances between it and the reference access points using a received signal strength indication (RSSI)-based method. Similarly, [40], our system can estimate the location of the indoor cart as the location of the reference access point that is located closest to the indoor cart.

The contributions of this paper are as follows:

We propose a novel cloudlet-based cloud computing system enabling Wi-Fi indoor positioning and navigation. Moreover, with the rapid growth of Internet of Things (IoT) applications and their deployments on cloud computing, our proposed system brings the cloud closer to IoT devices for providing resource- and latency-sensitive applications.

We define a core cloud, cloudlet, and moving edge cloud. The core cloud is used to store all of the object information, such as global position and status, while the cloudlet stores all specific information for the objects. The moving edge cloud is embedded to a task-driven indoor mobile robot, referred here to as a self-driving indoor cart. The moving edge cloud determines the route path and makes movement decisions.

We propose a movement decision algorithm for a self-driving cart. A movement decision is made based on measurements of the RSS at a moving edge cloud, which is embedded in the self-driving cart. Consequently, the navigation of the self-driving indoor cart is adjusted in accordance with its current position and the position coordinates of the access points.

In real-world indoor environments, such as a one-floor scenario, although our system uses only one access point to estimate the location of an indoor cart, as contrasted with standard methods using at least three access points, the experimental results for our system are superior to those of the standard methods in terms of the accuracy of navigation.

Our proposals were tested using a self-driving indoor cart and real-world indoor environment on the third floor of the Computer Science and Engineering building at Kyung Hee University, Korea.


Ergebnisse

We first describe the participant sample, including demographics, self-assessed spatial strategies, and spatial memory abilities. Second, we present the navigation performance for the two experimental phases separately. To evaluate participants’ navigation performance, we use four standard measures suggested by Dillemuth (2005), and Meilinger, Franz, and Bülthoff (2012): time to task completion, interactions with the map (e.g., zooming, etc.), navigation errors, and the number of stops along the route. This is followed by the results of the gaze analysis recorded with the mobile eye tracking glasses during Phase 1 and Phase 2. We report results according to the four groups of the between-subject design. All figures and tables follow the same order of system behaviors provided above (Fig. 3).

Teilnehmer

The experimenter randomly assigned each participant to one of the four experimental groups. Each group consisted of 16 participants (11 females, 5 males). As mentioned, in an online questionnaire, we asked participants to report their frequency of using any kind of map application on their mobile system with a five-point Likert scale. Most participants (87%) use their smart device several times a month for navigational purposes. Apart from the use of digital map applications, we asked them to specify their experience in mapping-related fields, such as map reading and cartography (map production). The majority (80%) had experience in using map applications on a mobile device and in reading maps in general. The majority (60 to 70%) of the participants rate their experience with Geographic Information Systems (GIS) and with orienteering as little or none. These results suggest a relatively homogenous sample of participants in terms of map use in general and experience in using digital maps, specifically.

Spatial abilities

We collected participants’ self-rated spatial abilities with the “Räumliche Strategie” questionnaire by Münzer and Hölscher (2011). Table 2 reports the mean ratings of this test for each application type group. Das egocentric orientation scale evaluates how well a person knows directions and routes. Das survey scale summarizes how well a person can build a mental map, and the cardinal direction scale assesses awareness of cardinal directions. Question 12 (“I am good in remembering routes and finding my way back without problems”) directly matches the second experimental phase (“unassisted route-reversal”). The scores range from “1: I don’t agree” to “7: I strongly agree”. The higher the scores, the better participants assess their ability. Overall, the results reveal that all three scales show a large range within all four groups. There are no significant differences in ratings across the groups for any of the scales (egocentric, F(3,60) = 5.12, P = 0.525 survey, F(3,60) = 0.604, P = 0.615 cardinal, F(3,60) = 2.13, P = 0.106), tested with a one-way ANOVA. A Kruskal-Wallis test reveals that ratings for question 12 were also not significantly different between the groups (H(3) = 2.3191, P = 0.508). Hence, in terms of spatial abilities, these results indicate a homogenous sample of participants across and within the four system behavior groups.

Spatial memory

For the “Building Memory” test (Ekstrom et al., 1976), participants were asked to place buildings on an empty street map after studying the same layout with the buildings shown. Zero points were assigned if all buildings were placed at wrong locations. If all buildings were correctly positioned, the maximum achievable score was 24. Table 3 lists participants’ average scores. The higher the test score, the more buildings were correctly located. All groups show high mean scores with rather small standard deviations. Die Gruppe AllocSys_LocSys (allocation of attention and self-localization by system) is the only group with an average mean score of less than 20 and the one with the largest standard deviation. Overall, spatial memory ability of our participants is high. A Kruskal-Wallis test revealed no significant differences between the four groups (H(3) = 0.9761, P = 0.807).

The results of the spatial strategies and spatial memory tests indicate a homogenous distribution of spatial abilities across the four participant groups.

Phase 1: Assisted route-following (incidental knowledge acquisition)

The first set of analyses examined the impact of different navigation system behaviors on human navigation behavior during Phase 1 of the experiment. This included navigation efficiency, stops and hesitations (i.e., significantly slowing down) along the route, and the interactions with the map during the route-following task. The findings of Phase 1 might then explain potential differences in incidentally acquired spatial knowledge that was tested in Phase 2.

Navigation performance

One goal of this study was to test whether a higher active participation of the human navigator with a navigation system (lower level of automation) could be achieved without harming navigation performance. Figure 5 depicts the duration for walking the route from the starting point to the destination assisted by a navigation system. Overall, the time to walk the route ranged from 7 to 12 min (M = 9.26 min, SD = 1.08 min). A Kruskal-Wallis test revealed no significant differences for completion time between the four groups (H (3) = 3.356, P = 0.339). This result shows that different system behaviors did not affect the time it took for participants to complete Phase 1. Furthermore, none of the participants made any navigation errors during Phase 1.

Navigation assistance levels do not influence route completion times for Phase 1. Average duration for walking the route assisted with a navigation system. Black dots indicate outliers

We analyzed how many times participants stopped or hesitated (slowed down) along the route during Phase 1. A stop means that the participant has both feet on the ground and does not move in any direction. A hesitation is a clearly identifiable reduction of speed while continuing to move. Overall, participants hardly ever hesitated during the assisted route-following phase. The two groups AllocHum_LocHum (allocation of attention and self-localization by human) and AllocHum_LocSys (allocation of attention by human and self-localization by system) stopped on average two to three times (to type the required keywords), but without harming their efficiency, as Fig. 5 shows.

As mentioned, two out of the four groups (AllocHum_LocSys, AllocSys_LocSys) were perpetually shown their position on the digital map while navigating. The other two groups (AllocHum_LocHum, AllocSys_LocHum allocation of attention by system and self-localization by human) had the option to display their current location on the map by pressing the “GPS on” button. On the one hand, pressing this button causes a distraction from attending to a navigated surrounding if it is unnecessarily used. On the other hand, this can help to self-localize and reorient in the environment, if used strategically. Figure 6a suggests that, on average, the AllocSys_LocHum group (Mdn = 14, SD = 7.4) used the “GPS on” button more often than the AllocHum_LocHum group (Mdn = 3, SD = 4.9). This difference is statistically significant (W = 33.5, P < 0.01, r = − 0.51 Wilcoxon test). Therefore, also the time that the self-localization information was displayed was considerably higher for the AllocSys_LocHum group (Mdn = 40, SD = 18.2) than for the AllocHum_LocHum group (Mdn = 7.5, SD = 12.8) (Fig. 6). This difference is statistically significant (W = 31, P < 0.05, r = − 0.53 Mann-Whitney U test).

Participants in group AllocSys_LocHum pressed the “GPS on” button more often than the group AllocHum_LocHum (ein). Distribution within and across groups of counting the instances of participants pressing the “GPS on” button (statistically significant difference, **P < 0.01). Therefore, participants of the AllocSys_LocHum group had the self-localization displayed and accessible for a longer amount of time (statistically significant difference, *P < 0.05) (B). Black dots indicate outliers

Significant differences in counts of interactions (zoom, pan, rotate) with the map display during Phase 1 across groups (statistically significant difference between groups, **P < 0.01). Black dots indicate outliers

Each time a participant zoomed, panned, rotated, or tilted the map, the system recorded the type of interaction in a log file. Figure 7 shows all the interactions with the navigation system, aggregated across the four navigation system groups. Generally, some participants interacted a great deal with the map display, while others hardly ever interacted with the map. None of the participants used the tilt function.

Die Gruppe AllocHum_LocHum has the largest range of interactions. Die Gruppe AllocHum_LocSys shows the smallest range, with one outlier (Fig. 7). A Kruskal-Wallis test suggests that the amount of interactions with the navigation system significantly differs between the four groups (H(3) = 18.166, P < 0.01). Pairwise comparisons of the mean ranks between groups reveal the following significant differences the critical difference for all comparisons was 17.36 (corrected for multiple comparisons) at a 0.05 level (Table 4).

Phase 2: Unassisted route-reversal (knowledge recall)

First, we report the number of errors participants made in the route-reversal task, which reveals how well participants are able to recall their incidental spatial knowledge acquired during Phase 1. Second, we examine the efficiency of participants’ unassisted navigation by looking at duration of the route-reversal phase and counting of stops and hesitations along the route. Finally, we report participants’ self-reports of task difficulty collected in Phase 2, before and after completing Phase 2 to compare self-assessed task difficulty with actual task performance.

Testing spatial knowledge

We tested the participants on how well they found their way back to the starting point unassisted. Because participants were asked to reverse the exact same route to the starting point, each wrong turn at an intersection was counted as one error. Table 5 summarizes the results for the different groups. In the two groups with more active navigator participation (AllocHum_LocHum und AllocHum_LocSys), three participants (18%) made a wrong route choice at one intersection. In the group AllocSys_LocSys, six (37.5%) participants made at least one mistake during Phase 2. What stands out is that 10 out of 16 participants (62.5%) in the group AllocSys_LocHum made a wrong navigation decision at at least one intersection. Table 5 also lists the number of errors per person and per group and the mean error per group. A Kruskal-Wallis test reveals that the mean error is significantly affected by the navigation system behavior (H(3) = 8.4962, P = 0.034). However, it is important to mention that the number of errors is often zero and generally low. Still, the number of participants with a navigation error varies greatly between the groups. The four participants with the highest number of errors (three) are in the two navigation groups using a navigation system that features lower active human participation (i.e., higher levels of automation). More errors suggest that these participants were less effective in recalling their spatial knowledge of the route compared to the other participants, and indeed acquired less (accurate) spatial knowledge during Phase 1. Twelve participants made only one error, and 42 participants made no errors at all. Hence, these participants were more effective in reversing the route.

Navigation performance

Figure 8 depicts the duration for reversing the route unassisted from the destination back to the starting point. Overall, the time to walk the same route unassisted ranged from 6 to 13 min for participants (M = 8.3 min, SD = 1.2 min), with most participants returning to the starting point in less than 10 min. A Kruskal-Wallis test revealed no significant completion time differences between the four groups in Phase 2 (H(3) = 0.051, P = 0.997). This means that being exposed to differing navigation system behaviors during Phase 1 did not significantly influence navigation performance without any navigation system assistance for the reversed route (Phase 2).

Navigation assistance levels do not influence route completion times of Phase 2. Average duration for walking the route unassisted. Black dots indicate outliers

Similar to Phase 1, we counted how many times participants stopped or hesitated along the route during Phase 2. On average, participants hesitated zero to once across groups (Table 6). The two groups AllocSys_LocHum und AllocSys_LocSys stopped slightly more often than the groups AllocHum_LocHum und AllocHum_LocSys, who hardly ever stopped or hesitated during unassisted navigation phase.

Difficulty rating

After participants had read the instructions for Phase 2, they were asked to rate their perceived difficulty of the task “finding the exact same way back without assistance” on a five-point Likert scale ranging from 1 (very easy) to 5 (very difficult). They were asked to rate the difficulty of the task again after completing their walk back, using the same scale. Table 7 shows the average scores across the four groups. Overall, on average, the ratings are all below 3, thus indicating they perceived the task to be easy. The range of ratings is larger before than after participants performed the route-reversal. The variation in ratings is very small for group AllocSys_LocSys, meaning that participants in this group agreed more about the difficulty of this task before and after Phase 2 compared to the other groups. All groups rated the difficulty of Phase 2 as easier after they performed it compared to before. This indicates an overestimation of task difficulty in their first rating. A Kruskal-Wallis test revealed no significant differences in ratings before (H(3) = 3.6814, P = 0.289) or after (H(3) = 0.75636, P = 0.8599) performing Phase 2 across the four groups.

Mobile eye tracking

Overall, the differences in navigation performance and spatial knowledge acquisition during Phase 1 and Phase 2 indicate changes to human navigation behavior based on navigation system behavior. To see if navigation system behavior also influences gaze behavior, we now report the analysis and results of the eye tracking recordings during Phase 1 and Phase 2. Unfortunately, we could only analyze 26 of 64 participant recordings (AllocHum_LocHum, 6 AllocHum_LocSys, 6 AllocSys_LocHum, 8 AllocSys_LocHum, 6) that had adequate data quality for both experimental phases due to calibration and recording issues. Given the small sample size in each group, we did not run any statistical analyses on the eye tracking data.

Figure 9 shows the mean fixation durations for each segment during both test phases and across the four groups. What stands out first is that generally, for all groups, the mean fixation duration during Phase 1 (incidental knowledge acquisition) follows a wave pattern that starts with longer mean fixation durations in the first segments of the route, followed by segments with shorter mean fixation durations, and then again segments with longer fixation durations toward the end of the route. This wave pattern seems to be independent of the employed navigation system behavior. During Phase 2 (knowledge recall), we do not observe this wave pattern. Here, no clear pattern emerges, and fixation durations show large variations. Interestingly, the pattern of the AllocSys_LocHum group was inversed during Phase 2 compared to Phase 1.

Mean fixation duration in each segment of the route across the four conditions for the experimental Phase 1 and Phase 2. For each participant the walking direction was from Segment 1 to Segment 13 in Phase 1 (i.e., read graph from left to right) and from Segment 13 to Segment 1 in Phase 2 (i.e., read graph from right to left). Black dots indicate outliers

However, while there do not seem to be differences between the four navigation system behaviors, distinct differences in the fixation duration patterns emerge between the two experimental phases: incidental knowledge acquisition (Phase 1) and knowledge recall (Phase 2). We conclude that the difference in mean fixation durations depends on whether participants are using a navigation system or not, but not on the different behaviors of the navigation system.


Discussion of results

The implementation of the analytical framework on mobile phone data produces three remarkable results.

First, the use of the measures of mobility and social behavior together with the standard and commonly available socio-demographic information actually adds predictive power with respect to the external indicators. Indeed, while a univariate regression that predicts deprivation index from population density is able to explains only 11 % of the variance, we can explain 42 % of the variance by adding the four behavioral measures extracted from mobile phone data (see Table 3). This outcome suggests that mobile phone data are able to provide precise and realistic measurements of the behavior of individuals in their complex social environment, which can be used within a knowledge infrastructure like our analytical framework to monitor socio-economic development.

Zweitens, die diversification of human movements is the most important aspect for explaining the socio-economic status of a given territory, far larger than the diversification of social interactions and demographic features like population density. This result, which is evident from both the correlations analysis and the contribution of mobility diversity in the models (Figs. 7, 10, 13), is also important for practical reasons. Mobile phone providers do not generally release, for privacy reasons, information about the call interactions between users, i.e., the social dimension. Our result shows that this is a marginal problem since the social dimension has a lower impact to the quality of the models than the mobility dimension (Figs. 10, 13). Hence, the implementation of our analytical framework guarantees reliable results even when the social dimension is not available in the data.

The interpretation of the observed relation between mobility diversity and socio-economic indicators is, without a doubt, two-directed. It might be that a well-developed territory provides for a wide range of activities, an advanced network of public transportation, a higher availability and diversification of jobs, and other elements that foster mobility diversity. As well as it might be that a higher mobility diversification of individuals lead to a higher socio-economic development as it could nourish economy, establish economic opportunities and facilitate flows of people and goods. In any case this information is useful for policy makers, because a difference in the diversification of individual movements is linked to a difference into the socio-economic status of a territory.

Third remarkable result is that our regression and classification models exhibit good performance when used to predict the socio-economic development of other municipalities, whose data where not used in the learning process (Fig. 11 Table 5). This result is evident from the cross-validation procedure: The accuracy and the prediction errors of the models are not dependent on the training and test set selected. The models hence give a real possibility to continuously monitor the socio-economic development of territories and provide policy makers with an important tool for decision making.

Distribution of deprivation index (ein) and logarithm of per capita income (B) across French municipalities