Mehr

Zusammenführen von Linien, bei denen eine Point-Feature-Class in ArcGIS Desktop vorhanden ist?

Zusammenführen von Linien, bei denen eine Point-Feature-Class in ArcGIS Desktop vorhanden ist?


Ich habe eine Polyline-Feature-Class und eine Point-Feature-Class. Zwei Linien aus der Polyline-Feature-Class kommen zusammen (in den meisten Fällen werden sie aneinander gefangen), wo ein Punkt in der Point-Feature-Class vorhanden ist. Wo zwei Zeilen auf diese Weise zusammenkommen, muss ich diese beiden Zeilen zusammenführen. Da die Datenmenge, die ich habe, ziemlich groß ist, frage ich mich, ob es ein Modell oder ein Python-Skript gibt, das mir hilft, dies viel schneller zu erreichen, als es von Hand zu tun.


Versuche dies:

  1. Geben Sie allen Punktmerkmalen eine eindeutige ID
  2. Verwenden Sie Spatial Join, um die Punkt-Features mit den Polylinien-Features mit diesen Parametern zu verbinden: Ziel-Features: [Polyline-Feature-Class], Join-Features: [Point-Feature-Class], Join-Operation: ONE_TO_MANY. Wenn einige Liniensegmente, die Sie zusammenführen müssen, keinen Punkt berühren, verwenden Sie die Anpassungsoption: SCHLÄCHST
  3. Verwenden Sie das Werkzeug Auflösen, um Features in der in Schritt 2 erstellten Polyline-Feature-Class mit derselben ID in Multipart-Features aufzulösen. Verwenden Sie beim Ausführen dieses Werkzeugs das Feld mit der eindeutigen ID aus der Point-Feature-Class als Auflösungsfeld.

Beachten Sie, dass bei kleinen Lücken zwischen den Liniensegmenten die Lücken am Ende immer noch vorhanden sind, die Liniensegmente jedoch immer noch Teil desselben Multipart-Features sind.


Ein multimodaler Ansatz zur Bewertung des relativen räumlichen Zugangs zur Messung der räumlichen Erreichbarkeit von Primärversorgungsanbietern

Zweistufige Verfahren mit schwimmenden Einzugsgebieten (2SFCA), die mehrere Verkehrsträger berücksichtigen, bieten eine realistischere Darstellung der Zugänglichkeit als Verfahren mit einem einzigen Verkehrsträger. Die Verwendung des Impedanzkoeffizienten in einer Impedanzfunktion (z. B. einer Gaußschen Funktion) führt jedoch zu Unsicherheiten in die 2SFCA-Ergebnisse. Dieses Papier schlägt eine Erweiterung der multimodalen 2SFCA-Methoden durch die Einbeziehung des Konzepts einer Spatial Access Ratio (SPAR) für die Spatial Access Measurement vor. SPAR ist das Verhältnis der Zugangspunktzahl eines bestimmten Ortes zum Mittelwert aller Zugangspunktzahlen im Untersuchungsgebiet. Eine empirische Studie zum räumlichen Zugang zu Hausärzten (PCPs) in der Stadt Albuquerque, NM, USA, wurde durchgeführt, um die Wirksamkeit von SPAR bei der Bewältigung der Unsicherheit zu bewerten, die durch die Wahl des Impedanzkoeffizienten in der klassischen Gaußschen Impedanzfunktion verursacht wird. Wir haben die Daten von ESRI StreetMap Premium und General Transit Specification Feed (GTFS) verwendet, um die Reisezeit zu PCPs mit Auto und Bus zu berechnen. Wir haben zunächst zwei räumliche Erreichbarkeitsbewertungen – unter Verwendung unterschiedlicher Einzugsgebietsgrößen für Pkw bzw. Busse – für jeden anspruchsvollen Bevölkerungsstandort generiert: eine Erreichbarkeitsbewertung für Autofahrer und eine Erreichbarkeitsbewertung für Busfahrer. Wir berechneten dann drei entsprechende räumliche Zugangsverhältnisse der obigen Werte für jeden Bevölkerungsstandort. Die Ergebnisse der Sensitivitätsanalyse deuten darauf hin, dass die Punktzahlen für den räumlichen Zugang signifikant variieren, wenn verschiedene Impedanzkoeffizienten verwendet werden (p < 0,05), während SPAR stabil bleibt (p = 1). Die Ergebnisse dieses Papiers legen nahe, dass ein räumliches Zugriffsverhältnis die Unsicherheiten im Zusammenhang mit dem Impedanzkoeffizienten in multimodalen 2SFCA-Methoden signifikant reduzieren kann.


Rechnungsübersicht eingeben

Sie können Rechnungen auf verschiedene Weise in Kreditoren eingeben und importieren:

Manuelle Rechnungseingabe

Lieferantenrechnungen geben Sie normalerweise entweder in der Rechnungs-Workbench oder im Fenster Schnellrechnungen ein. Sie können bei der Erfassung dieser Rechnungen mit Bestellungen abgleichen. Informationen zu den Unterschieden zwischen diesen Fenstern finden Sie im folgenden Abschnitt Unterschiede zwischen der Eingabe von Rechnungen im Fenster Schnellrechnungen und in der Rechnungs-Workbench.

Rechnungs-Workbench: (Fenster Rechnungsstapel, Fenster Rechnungen, Fenster Verteilungen und die zugehörigen Fenster). Wird verwendet, um jede Rechnung direkt in das Kreditorensystem einzugeben. Verwenden Sie diese anstelle der Schnellrechnungen, wenn Sie komplexe Rechnungen oder Rechnungen eingeben, die eine Online-Validierung und einen Standardwert erfordern. Wird auch bei der Eingabe einer Rechnung verwendet, die sofortige Maßnahmen erfordert, z. B. eine Zahlung. Siehe: Grundrechnungen in der Rechnungsworkbench eingeben und Rechnungsstapel eingeben.

Fenster Schnellrechnungen: Wird für die schnelle Rechnungseingabe mit hohem Volumen für Rechnungen verwendet, die keine umfangreiche Validierung und Standardeinstellungen erfordern. Nach der Erfassung importieren Sie diese in das Kreditorensystem. Validierung und Standardisierung erfolgen während des Imports. Siehe: Rechnungsdatensätze im Fenster Schnellrechnungen eingeben.

Die folgenden Funktionen verdeutlichen die Unterschiede zwischen der Rechnungs-Workbench und den Schnellrechnungen:

Rechnungen vom Typ Vorauszahlung eingeben

Geben Sie Rechnungen vom Typ Lastschrift ein

Gutschriften mit Rechnungen abgleichen

Steuern auf Rechnungen berechnen

Online-Ergebnisse nur in der Invoice Workbench angezeigt Obwohl während des Imports Folgendes geschieht, können Sie in der Invoice Workbench Online-Ergebnisse der folgenden sehen:

Steuerzeilen und Ausschüttungen

Automatische fortlaufende Belegnummerierung

Aufgaben, die während der Rechnungserfassung nur in der Rechnungs-Workbench ausgeführt werden Obwohl Sie nach dem Import von Schnellrechnungen die folgenden Aufgaben in der Rechnungs-Workbench ausführen können, verwenden Sie die Rechnungs-Workbench, wenn Sie eine dieser Aufgaben während der Rechnungserfassung ausführen möchten:

Anwenden von Sperren auf einzelne Rechnungen

Anwenden von Holds auf geplante Zahlungen

Standardzahlungspriorität des Lieferanten überschreiben

Automatische Rechnungserstellung

Sie können Ihr System so einrichten, dass es automatisch periodische Rechnungen erstellt, zum Beispiel Mietrechnungen:

RTS-Rechnungen. Wenn Sie die Funktion „Return to Supplier“ in Oracle Purchasing verwenden, erstellt das System diese Lastschriften direkt in der Kreditorenbuchhaltung.

Rechnungen zur rückwirkenden Preisanpassung. Wenn Benutzer von Oracle Purchasing die Funktion Retroactive Pricing of Purchase Orders verwenden, erstellt das System automatisch Anpassungs- und Bestellpreisanpassungsrechnungen.

Rechnungen importieren

Sie können Rechnungen oder Rechnungsinformationen importieren, um Rechnungen in Kreditoren zu erstellen. Siehe: Exportprogramm für Spesenabrechnungen und Open Interface Importprogramm für Verbindlichkeiten.

Spesenabrechnungen von Oracle Internet Expenses: Spesenabrechnungen, die Ihre Mitarbeiter über einen Webbrowser eingeben.

Spesenabrechnungen für Verbindlichkeiten: Spesenabrechnungen, die von der Kreditorenabteilung im Fenster Verbindlichkeiten Spesenabrechnungen eingegeben wurden. Siehe: Spesenabrechnungen und Kreditkarten, Oracle Kreditoren-Implementierungsleitfaden.

Rechnungen mit Kreditkarte: Rechnungen für die Kreditkartenausgaben der Mitarbeiter. Das Kreditkartenunternehmen schickt Ihnen diese Rechnungen als Flatfile. Siehe: Einkaufskartenintegration.

EDI-Rechnungen. Elektronische Rechnungen, die von Oracle e-Commerce Gateway übertragen werden. Siehe: Ausführen des EDI-Rechnungseingangsprogramms, Oracle e-Commerce Gateway-Benutzerhandbuch.

XML-Rechnungen. Elektronische Rechnungen, die vom Oracle XML Gateway übertragen werden. Siehe: XML-Rechnungen, Oracle Kreditoren-Implementierungsleitfaden.

Rechnungen aus externen Systemen. Rechnungen, wie Rechnungen aus Altsystemen, geladen mit SQL*Loader. Siehe: Verwenden von SQL*Loader zum Auffüllen der offenen Schnittstellentabellen für Verbindlichkeiten, Oracle Kreditoren-Implementierungsleitfaden.

Rechnungen von Oracle Property Manager: Leasingrechnungen, die von Oracle Property Manager übertragen wurden. Siehe: Oracle Property Manager-Integration.

Leasingzahlungen für Oracle Assets: Von Oracle Assets übertragene Leasingzahlungen. Siehe: Asset-Integration.

Unterstützung von Zahlungen durch Dritte

Die finanzielle Abwicklung ist eine der Schlüsselkomponenten eines Geschäftsprozesses. Dies ist der letzte Schritt zum Abschluss des Geschäftsvorgangs. Im Procure-to-Pay-Zyklus senden Lieferanten Rechnungen an Kunden, nachdem sie Waren geliefert oder Dienstleistungen erbracht haben. Nach Eingang der Rechnungen validiert die Kreditorenbuchhaltung des Kunden die Rechnungen und gibt sie zur Zahlung frei.

Die Zahlungen an die Lieferanten während des Abwicklungsprozesses sind grundsätzlich abhängig von der zwischen Kunden und Lieferanten getroffenen Vereinbarung zur Durchführung des Geschäftsverkehrs. Zahlungen werden im Allgemeinen an den ursprünglichen Lieferanten geleistet, der die Waren oder Dienstleistungen bereitstellt, es können jedoch spezielle Vereinbarungen getroffen werden, bei denen die Lieferanten eine andere Partei angeben können, die in ihrem Namen zu zahlen ist. Die Zahlungen, die im Namen der Lieferanten an andere Parteien geleistet werden, werden als Zahlungen an Dritte bezeichnet.

Zahlungen an Dritte helfen Geschäftsbeteiligten, ihre Verbindlichkeiten aufzulösen, ohne sie direkt zu bezahlen. Dadurch werden die direkten Geldbewegungen reduziert und Transaktionen werden einfach abgewickelt.

Wenn Kunden Zahlungen aus ihrem Kreditorensystem vornehmen, kann der Lieferant Anweisungen geben, die Zahlung an eine andere Partei, d. h. den Dritten, zu leisten. In diesem Fall geht die Überweisung der Zahlung an den Dritten. Für alle rechtlichen Zwecke, einschließlich 1099, wird es als Zahlung an den ursprünglichen Lieferanten behandelt.

Die Kreditorenabteilung verwaltet die Lieferanteninformationen. Der Aufbau einer Beziehung zu Drittzahlungen ist Teil der Wartungstätigkeit des Lieferanten.

Der Kreditorensachbearbeiter kann zum Zeitpunkt der Rechnungseingabe auch über Informationen des Dritten verfügen. Der Kreditorensachbearbeiter kann das Recht haben, den zum Zeitpunkt der Rechnungserfassung in Verzug geratenen Dritten zu überschreiben.

Der Sachbearbeiter Zahlungen bearbeitet die Zahlung der fälligen Rechnungen. Im Allgemeinen sind dem Zahlungssachbearbeiter die Drittlieferanten bekannt, an die die Zahlungen im Namen des Lieferanten freigegeben werden können. Die Zahlungsabteilung hat das Recht, die tatsächliche Partei zu überschreiben, an die die Zahlung zum Zeitpunkt der Zahlung erfolgen kann.

Mit dieser Funktion können Sie Folgendes tun:

Beziehung zu Dritten aufbauen

Standardmäßige Drittanbieterinformationen beim Erstellen von Rechnungen und Verarbeiten von Zahlungen

Informationen zu Drittanbietern in den Fenstern "Rechnung" und "Zahlungen" überschreiben

Standardüberweisung an das Bankkonto für den Drittanbieter in Rechnungs- und Zahlungsfenstern

Bei der Verarbeitung von Zahlungen an Drittanbieter:

Verwendet die Adresse des Drittanbieters, wenn die Zahlungsprozessart gedruckt ist

Verwendet die Bank- und Bankkontoinformationen des Drittanbieters, wenn die Zahlungsprozessart Elektronisch ist, um Geld zu überweisen

Verwandte Themen


Zusammenführen von Linien, bei denen eine Point-Feature-Class in ArcGIS Desktop vorhanden ist? - Geografisches Informationssystem

Ich denke, dieser erste Beitrag von mir in diesen Foren könnte tatsächlich eine kleine Schockwelle durch die OSM-Community senden, die eine Weile nachhallen kann. (aber ich überschätze das vielleicht maßlos )

Während des letzten halben Jahres habe ich eifrig an einem "OSM Renderer for ArcGIS" gearbeitet. Ich denke, die Ergebnisse sind jetzt so gut, dass sie endlich der Welt präsentiert werden können.

*** Bitte beachten Sie, dass dies eine frühe Ankündigung ist, die eigentliche Toolbox ist *noch* nicht online verfügbar. *** Siehe auch ganz unten.

Der OSM-Renderer für ArcGIS hängt von ArcGIS for Desktop von ESRI und insbesondere von ESRIs Open Source "ArcGIS Editor for OpenStreetMap" ab, wie es auf GitHub (https://github.com/Esri/arcgis-osm-editor) gehostet wird. Es erweitert den Editor von ESRI um eine Option zum Erstellen von Karten im "topografischen" Stil von OpenStreetMap-Daten und deren Ausgabe mit den Standardoptionen von ArcGIS for Desktop in PDF als 100% vektorbasierte Ausgabe für hochwertigen professionellen Offsetdruck oder einfach nur zum Spaß für Sie eigener Desktop-Farbtintenstrahldrucker. Während die Idee einer auf OpenStreetMap-Daten basierenden Karte im "topografischen" Stil für diejenigen unter Ihnen, die in Ländern leben, in denen noch kaum etwas außer Straßen kartiert wurde, empörend erscheinen mag, sind viele Teile der Welt und insbesondere in Europa und in der Nähe größerer Städte und Städte weltweit, bieten mehr als genug "Inhalt", um eine überzeugende "topographische" Karte zu erstellen.

Bitte beachten Sie, dass ich diesen Renderer *von Grund auf neu* als persönliches Projekt in meiner Freizeit baue, aber dies ist kein "Afternoon-Tea"-Projekt - weit gefehlt! Für jeden, der dies jemals versucht hat (und ich denke, es gibt nicht so viele da draußen. ), wissen Sie, wie schwierig dies sein kann und wie viele Probleme es angesichts des offenen Datenmodells von OpenStreetMap gibt. Ein großes Lob an diejenigen von Ihnen, die an der Entwicklung des standardmäßigen OpenStreetMap CartoCSS / Mapnik-Renderers von OpenStreetMap beteiligt waren und sind. Es ist manchmal schwierig, beim Rendern mit den Besonderheiten des OSM-Datenmodells umzugehen und die Karte für das Rendern in einem bestimmten Maßstab zu "aufräumen" oder zu verhindern, dass Beschriftungen vierfach oder mehr angezeigt werden, da Merkmale in mehreren "Ebenen" erscheinen können, die es wert sind, beschriftet zu werden (Geschichte, Landnutzung usw.). Um diesen Renderer zu bauen, habe ich daher viele Wikipedia-Seiten gelesen, um das Datenmodell von OpenStreetMap zu verstehen und bewusste Entscheidungen darüber zu treffen, wie man Rendering-Probleme angeht. Außerdem habe ich viele Ausflüge auf die OpenStreetMap-Website, Tag Info und Overpass Turbo (das sind übrigens einige abgefahrene mächtige Tools. ) basierend auf Beobachtungen und Nichtübereinstimmungen.

Der OSM Renderer ist als kombinierte ModelBuilder / Python Toolbox implementiert. Es hängt von der oben genannten ESRI-Toolbox für die vorläufige Datenaufbereitung und Extraktion von Attributen aus *.OSM-Dateien und die Erstellung einer ESRI-Geodatabase ab, erweitert dies jedoch um OSM-Rendering-Regeln und automatisierte Datenverarbeitung, um die topografisch gestylte Karte zu erstellen. Es macht ausgiebig Gebrauch von SQL-Definitionsabfragen, Symbol Level Drawing und (Maplex) Beschriftungsoptionen, einschließlich Beschriftungsausdrücken. Der kartografische Stil des OSM-Renderers für ArcGIS basiert lose auf dem CartoCSS/Mapnik-Rendering, es gibt jedoch einige wichtige Anpassungen. Ich habe jedoch einen ernsthaften Versuch unternommen, dem standardmäßigen OpenStreetMap-Website-Rendering "treu" zu bleiben, daher sollten die Dinge Ihnen allen ziemlich bekannt vorkommen. Es werden keine Webkomponenten oder bereits vorhandene Stylesheets verwendet (ich habe OSM-Standardfarben mit RGB-Werten von Hand "kopiert") und ist daher eine reine Desktop-Lösung, die keine ArcGIS for Server-Komponenten benötigt. Verarbeitete Daten werden als Feature-Classes entweder in einer ESRI File Geodatabase oder einer Enterprise Geodatabase (PostGIS, Oracle, SQL Server etc.) gespeichert. Aber ich muss diese letztere Option noch testen, obwohl ich keinen Grund sehe, warum sie nicht funktionieren sollte, außer möglicherweise einem E/A-Leistungsengpass.

Insofern und sehr wichtig, befasst sich der "renderer" mit den schwierigsten Teilen des OSM-Renderings, d. Tunnel). Ein weiteres solches Rendering-Beispiel besteht darin, dass alle unterirdischen Gebäude und Stationen basierend auf dem OSM-Schlüssel "Ebene", "Schicht" oder "Standort" herausgefiltert werden, wobei nur oberirdische angezeigt werden.

Ich verbringe unzählige, ja sogar übertriebene Stunden damit, all dies zu verfeinern. Trotzdem müssen, wie bei jedem Rendering einer Datenquelle wie OpenStreetMap oder jeder Geodatabase, letztendlich größere Umfänge vorgenommen werden. Es ist einfach unmöglich, alles wiederzugeben, und es ist auch nicht wünschenswert, und es existieren Wiedergabeprobleme, insbesondere das Erscheinungsbild von Umrissgebäuden aufgrund des bekannten Problems "Tag-auf-Beziehung" gegenüber "Tag-auf-Weg". Dennoch ist es ein langer Weg, eine grundlegende Auswahl der reichhaltigen Daten darzustellen, die in der OSM-Datenbank verfügbar sind.

Da mein Hauptziel darin bestand, einen Renderer zu erstellen, der zum Erstellen von Karten mit einem topografischen Stil "Look-and-Feel" bei einem Basismaßstab von etwa 1:10.000 (erweiterbar auf etwa 1:50.000) geeignet ist, geeignet für Navigationszwecke "im Feld" oder Als touristische Basiskarte habe ich mich ausdrücklich dafür entschieden, keine Objekte zu flüchtig oder zahlreich zu machen, um eine vernünftige Karte in diesen Maßstäben zu erstellen. Z.B. Während die eigentliche Einzelhandelsfunktion eines Gebäudes auf einer "statischen" topographischen Karte sicher dargestellt werden kann, da Gebäude diese Funktion in der Regel über längere / jahrzehntelange Zeiträume beibehalten, habe ich ausdrücklich darauf verzichtet, bestimmte Ladentypen (z. B. Supermarkt, Bekleidung, Lebensmittelgeschäft) darzustellen. oder Shopnamen auf der Karte. Es gibt einfach zu viele von ihnen, und sie kommen und gehen in einer durchschnittlichen Stadt in einem durchschnittlichen Jahr zu Dutzenden. Aus ähnlichen Gründen sieht man sie auch nie auf offiziellen topografischen Karten, die auf eine lesbare und navigationsfähige Karte abzielen, was auch das Ziel meines OSM-Renderers für ArcGIS ist.

Der Renderer ist kein vollständiger "Multi-Scale"-Renderer wie das Standard-Rendering der OpenStreetMap-Website, ich habe die Tools speziell für die Druckausgabe in einem bestimmten Maßstabsbereich entwickelt (obwohl ein zukünftiger Webservice, der auf all dem basiert, kein Phantom ist ). Allerdings zeigen die Karten von Rom (1:10000), St. Petersburg (1:25000) und Interlaken (1:50000) tatsächlich, dass mit einigen Vorbehalten, z.B. überlappende und nicht immer so schön gerenderte Eisenbahn- / Autobahnlinien, kann das Rendering die meistgesuchten und verwendeten "topographischen" Maßstäbe liefern. Ich habe einige begrenzte Maßnahmen umgesetzt, z.B. Festlegen von Anzeigemaßstäben für einige bestimmte Feature-Layer oder Beschriftungen in ArcMap, um dies zu erleichtern.

Das Styling basiert, wie bereits erwähnt, lose auf CartoCSS / Mapnik, aber ich habe mir die Freiheit genommen, einige Verbesserungen oder Änderungen im Vergleich zum grundlegenden OpenStreetMap-Rendering vorzunehmen. Einige Funktionen des OSM-Renderers für ArcGIS, die Sie vielleicht bemerken werden, wenn Sie die Karten erkunden, die ich in diesem Beitrag aufgenommen habe:

- Mehr Unterscheidung in Gebäudetypen. Gebäude mit Einzelhandelsfunktion, Büros, Industrie, Lagerhallen, Garagen, Schuppen, Gewächshäuser / Gewächshäuser usw. haben jetzt alle ein spezifisches Rendering, sodass Sie beispielsweise die Haupteinkaufsstraße "Kalverstraat" in einer Stadt wie Amsterdam oder die riesigen Garagenkomplexe "beobachten" können in Sankt Petersburg an den Grenzen der Stadtviertel.
- Besondere Betonung vieler historischer und tourismusbezogener Merkmale. Dinge wie Sehenswürdigkeiten, Museen, Burgen und Paläste erscheinen jetzt auf der Karte aufgrund der Verwendung einer bestimmten Farbe (lachs-dunkelrot für Sehenswürdigkeiten, lila für historisch). Sehen Sie sich hierzu insbesondere die Karten "Rom" oder "Paris" an.
- Wiedergabe vieler "ski" / "hike"-Features in alpinen Regionen, einschließlich verschiedener Symbole für verschiedene Arten von Seilbahnen, Pisten für Abfahrt und Nordic etc. Zusätzlich Informationselemente wie Wegweiser und Informationstafeln / Karten für Wanderer. Siehe dazu die Karte "Interlaken".
- Mehr Unterscheidung in Eisenbahntypen. Abstellgleise, Spurs und Yards werden anders als Hauptstrecken dargestellt, während U-Bahn und Stadtbahn im Vergleich zur Hauptstrecke eine spezifische Symbolik aufweisen.
- Unterstützung vieler Funktionen des genehmigten neuen "Power"-Schemas, siehe Karte "Rotterdam Harbour Mouth" und das dortige E.ON-Kraftwerk, das einiges davon in seinem OSM-Tagging implementiert. An einigen Aspekten arbeite ich noch.
- Eine mögliche Offenbarung und vielleicht die Weltneuheit? ist eine umfassende Legende aller Funktionen, die von einem OSM-Renderer gerendert werden. Es zeigt sicherlich die Komplexität des OSM-Datenmodells und warum Fragen von Benutzern wie "Warum rendert Mapnik X/Y nicht?!/ Warum sehe ich dieses neue Tag X/Y, das ich in meinem OSM-Editor eingegeben habe, nicht sofort angezeigt auf www.openstreetmap.org?", sind nicht so einfach zu beantworten.

Dies ist nur ein kleiner Einblick in meine Arbeit, fangen Sie an, die Karten zu erkunden und lassen Sie mich wissen, was Sie davon halten! Ich empfehle Ihnen, im Adobe Reader mit 125% heranzuzoomen. Auf diese Weise können Sie sowohl die gerenderten Details schätzen als auch den Überblick behalten. Der Renderer rendert buchstäblich Hunderte von verschiedenen Funktionen. Eine Anmerkung: Obwohl Sie vielleicht denken, dass die Straßen "dünn" angezeigt werden, wenn Sie nur an das Rendern von OpenStreetMap-Webkarten gewöhnt sind, entsprechen sie tatsächlich den Breiten der realen Welt (abgesehen von den Stadtstraßen vom Typ "Boulevard" wie in Paris oder sechsspurigen Autobahnen, die Städte umgeben). ), wie in echten topografischen Karten im Maßstab 1:10.000, und sie sehen auf einer gedruckten Karte gut und normal aus. Ich habe hier sowohl zwei Screenshots eingefügt, um den Appetit zu wecken, als auch einen direkten Link zu einem PDF, und die anderen Karten in ZIP-Dateien für einen einfacheren und zuverlässigeren Download. Sie decken eine Reihe bekannter Städte und Gebiete rund um den Globus ab und sind die eigentliche, direkte Ausgabe meiner Toolbox (nun, der Rendering-Teil davon, nicht das Kartenlayout mit Legenden und dergleichen). Die Karte "Interlaken" ist jedoch ein Sonderfall, sie wurde um ASTER-Satelliten-GDEM V2-basierte Konturen erweitert, die ich selbst aus den Rohrasterdaten erstellt habe, die von der NASA heruntergeladen werden können, ähnlich wie OpenCycleMap.

Einige von Ihnen werden es vielleicht bereuen, dass ich dies nicht in Open Source QGIS erstellt habe, aber obwohl ich vor kurzem begonnen habe, QGIS zu erkunden und das, was ich gesehen habe, wirklich mochte, bleibt die Tatsache, dass ich wesentlich mehr Erfahrung mit ArcGIS als mit QGIS habe. Ich überlasse es jemand anderem, ein QGIS-Äquivalent zu entwickeln. Darüber hinaus konzentriert sich mein Werkzeug auf den tatsächlichen Rendering-Aspekt von OpenStreetMap-Daten in ArcGIS und überlässt die schwere Arbeit der Verarbeitung und Erstellung der Basis-Polygon-/Polyline-/Punkt-ArcGIS-Feature-Classes aus OpenStreetMap-Daten den bereits vorhandenen Werkzeugen, die ESRI der Community zur Verfügung gestellt hat . Mein Renderer nimmt diese als Eingabe.

Schließlich denke ich, dass Sie, sobald Sie die Ergebnisse sehen, es lieben werden, was auch immer Ihre persönlichen Entscheidungen und Verwendungen von OpenStreetMap-Daten und zugehöriger Bearbeitungs- und Webanwendungssoftware sind (na ja, zumindest hoffe ich das. ).

Ja, Sie können diese Karten ausdrucken, es sind *Ihre* (oder sollte ich "Ihre" Daten sagen?). Bitte *nicht(!)* mich bitten, Ihre Stadt, Stadt oder Region zu rendern. Ich kann einen solchen Service unmöglich alleine anbieten.

Ich stehe derzeit in direktem Kontakt mit ESRI Redlands, um zu sehen, was wir tun können, um dies der gesamten OSM-Community zur Verfügung zu stellen und möglicherweise von einer kooperativen Entwicklung zu profitieren, um dieses persönliche Projekt abzuschließen und die erforderliche Datenverarbeitung und Integration dieser Toolboxen zu optimieren. Diese Kontakte befinden sich jedoch noch in der Vorphase, also habt Geduld, es wird noch einige Zeit dauern.

Was auch immer passiert, ich denke jedoch, dass es einen Platz sowohl für ein "topografisches" Rendering wie meins als auch für das Rendering von CartoCSS / Mapnik gibt. Wo sich das standardmäßige OpenStreetMap-Rendering in der Multiskalenanzeige und der Anzeige von Objekten und Beschriftungen bis ins kleinste Detail auszeichnet, gibt meinem Kartenrenderer eine "getreuere" Wiedergabe in Bezug auf die reale Größe und den Maßstab von Objekten, wie von topografischen Karten erwartet.

Zum Schluss: Geduld haben. Trotz der aktuellen Ergebnisse wird es noch einige Zeit dauern, bis dies endlich "veröffentlicht" Es gibt immer noch eine umfangreiche "TO DO"-Liste, und es muss eine Dokumentation geschrieben werden. Das sind absolut keine Dinge, die man überstürzen sollte, ich möchte nichts Halbfertiges oder mit erheblichen "rauen Kanten" veröffentlichen, noch könnte ich es über Nacht tun.

Bitte posten Sie Ihre Kommentare und Fragen hier im Forum!

Ich hoffe, Sie werden genauso viel Spaß beim Erkunden dieser Karten haben wie ich. Es war eine wahre Freude und Aufregung zu sehen, wie Karten von bisher unerforschten Gebieten aus den heruntergeladenen Daten gerendert wurden und in voller Pracht in den PDFs auf dem Bildschirm erscheinen. Beachten Sie, dass die PDFs zwischen 6 und 20 MB groß sind. Bedenken Sie dies vor dem Herunterladen, wenn Sie eine stark eingeschränkte Internetverbindung haben. Es handelt sich um A0(!)-Layouts in voller Größe, also extrem reich an topografischen Details.

Marco Boeringa
Die Niederlande

*** WARNUNG - Adobe Reader - WARNUNG ***
Adobe Reader, der zum Anzeigen dieser PDFs benötigt wird, bietet eine Option zum "Verbessern" dünner Linien. Diese Option führt dazu, dass insbesondere Eisenbahntunnel, aber auch andere dünne Linienobjekte in den unten verlinkten Karten sehr hässlich auf dem Bildschirm erscheinen, mit viel überbetonter Erscheinung. Leider hat Adobe diese schlechte Option zum "Verbessern" dünner Linien standardmäßig eingestellt. Ich empfehle dringend, es zu deaktivieren, bevor Sie diese Karten überprüfen. Die Option finden Sie unter Bearbeiten / Einstellungen / Seitenanzeige und dann unter Rendering / Verbesserung dünner Linien. Schalten Sie diese Option aus, bevor Sie die Karten überprüfen.

Ich fordere Sie auch dringend auf herunterladen die Karten lokal für das beste Anzeigeerlebnis sowohl aus Leistungs- als auch aus Qualitätsgründen. Obwohl die Roma-Karte über den unten stehenden Link direkt im Adobe Reader in Ihrem Browser angezeigt werden kann, leidet die Darstellung darunter, da das Plugin die Dinge anders (und schlechter) handhabt als der Offline-Viewer.
************************


ArcGIS-Neuigkeiten und -Ereignisse

KENYATTA UNIVERSITY GISDAY 2018 – DER KARTESTE ORT DER ERDE.

Kenyatta University GIS Club (KUGISC) mit Unterstützung der Kenyatta University, School of Environmental Studies, dem Department of Environmental Planning and Management und dem Directorate of Capacity Development and Consultancy Services und in Partnerschaft mit Esri Eastern Africa, Regional Center for Mapping of Resources for Development (RCMRD) und Oakar Services veranstalten am Mittwoch, den 14. November 2018 Feierlichkeiten zum GISDay 2018. Dem GISDay gehen zwei Tage mit Workshops und Schulungen voraus.

Das Thema des diesjährigen GISDay lautet „DISCOVERING THE WORLD THROUGH GIS“ und der Rallye Call der Kenyatta University lautet „KARTESTER ORT DER ERDE“

Der GISDay zielt darauf ab, eine Plattform für die Interaktion und den Austausch von raumbezogenem Wissen und Erfahrungen mit der breiten Öffentlichkeit, den raumbezogenen Institutionen und Interessengruppen sowie innerhalb der Universitätsgemeinschaft zu schaffen. Zu den Zielgruppen gehören unter anderem die Öffentlichkeit, Ministerien und Behörden, die Bezirksregierungen, die Studierenden aus dem Land und der Region, Organisationen, Firmen und Industrien.

Alle sind eingeladen, der Gemeinschaft von Nutzern und Forschern von Geodatenwissen der Universität Kenyatta beizutreten. Kommen Sie und sehen und erleben Sie, wie. Wussten Sie, dass Sie Ihre eigenen Karten erstellen können? Wussten Sie, dass Sie Ihr Handy als GPS-Datensammler verwenden können? Weißt du, was Story Maps sind und wie man sie erstellt und verwendet? Wie wäre es mit dem Extrahieren von hochauflösenden Bildern aus Google Earth? Wählen Sie den Workshop aus, an dem Sie teilnehmen möchten ANMELDUNG FÜR FOLGENDE VERANSTALTUNGEN:

11.12.2018 - Workshop 1: Survey 123 Collector (50pax)

11.12.2018 - Workshop 2: Open Source GIS (50pax)

13.11.2018 - Workshop 3: Hexagon Smart App (50pax)

13.11.2018 - Workshop 4: ArcGIS Pro und Online (50pax)

Besuchen Sie am 12. und 13. November 2018 die Projektpräsentationen der Studenten im SZ-40 EPM Studio im 844 Complex.

Der GISday wird am Mittwoch, den 14. November 2018 gefeiert. Die Kenyatta University lädt Sie zu einem Tag mit öffentlichen Vorträgen und Präsentationen sowie Posterausstellungen über die Anwendung von GIS und Fernerkundung ein.

Die Kenyatta University ist der erste Ort in Ostafrika, der die Site-Lizenz der Esri 100 Africa University mit dem Namen GIS-Referenzkonto in Ostafrika erhalten und implementiert hat, den Esri Special Achievement in GIS Award (SAG Award – 2015) erhielt nominierte einen der Esri 2018 Young Scholars Award und einen Mitarbeiter namens Esri GIS Ambassador for Africa.

Die KU hat die vorangegangenen GIS-Tage und Schulungen durch externe Trainer erfolgreich organisiert und durchgeführt und war aktiv an der Internationalen Konferenz des Regional Center for Mapping of Resources for Development (RCMRD) - RIC 2017 und 2018 beteiligt.

Der Kenyatta University GIS Club (KUGISC) mit 250 Mitgliedern im Jahr 2018 wurde von KU-Studenten gegründet. Ziel des Clubs ist es, seinen Mitgliedern räumliches Wissen, Fähigkeiten und Fachwissen zu vermitteln. Diese sollen den Studierenden ermöglichen, ihre räumliche Wissensanwendung in der Forschung und globalen Problemlösung zu stärken. Der Club hat eine Vielzahl von Aktivitäten initiiert, durch die die Schüler interagieren und sich gegenseitig beim Austausch von Geowissen und -erfahrungen sensibilisieren. Durch viele Bemühungen, Vernetzung und Präsenz im Geobereich wurde KUGISC als das beste YouthMappers Global Network ausgezeichnet und anerkannt.

Sozialen Medien
Facebook – GIS-Club der Kenyatta-Universität.
Twitter - @KUGIS_Club
YouTube – GIS-Club der Kenyatta University
E-Mail – Diese E-Mail-Adresse ist vor Spambots geschützt! JavaScript muss aktiviert werden, damit sie angezeigt werden kann.

Kenyatta University: Ein Leuchtturm des Geowissens in Subsahara-Afrika. Prof. Simon Onywere lässt die Fackel der GIS von KU . erstrahlen

Die Kenyatta University ist jetzt ein ESRI-Referenzkonto für regionale und subsaharische Bildungsstandorte in Afrika, das eine echte Fallstudie zur erfolgreichen Implementierung einer Standortlizenz bietet. Die Universität ist heute ein kontinentaler Leuchtturm, dessen GIS-Licht weit und breit strahlt. Jetzt wenden sich immer mehr Universitäten an Esri Ostafrika und möchten, dass sie ihnen das antun, was sie mit der KU getan haben.

Prof. Simon Onywere vom Department für Umweltplanung und -management ist der ESRI-Standortlizenzadministrator an der KU. Für seine Rolle bei der Sensibilisierung der Universitätsgemeinschaft für die Standortlizenz und die dadurch geschaffene Sichtbarkeit der Kenyatta University wurde er 2014 zum ESRI GIS Champion in der Region Ostafrika und sogar in Subsahara-Afrika gekürt. Er und sein kleines Team aus technischem Support und Schulungsteam für GIS erhalten nun Einladungen von anderen Universitäten, um Vordenker bei GIS, dem 100 Africa Universities Program von Esri und der Implementierung von ArcGIS-Lizenzen für Bildungsstandorte zu sein. Die afrikanischen Universitäten, die jetzt die Unterstützung des Programms ESRI 100 African Universities suchen, greifen bei der Umsetzung auf die Erfahrungen der Kenyatta University zurück.

Das KU GIS Team von links: Prof. Simon Onywere, Solomon Mwenda, Elizabeth Maende und Anthony Gakobo

Feierlichkeiten zum Welt-GIS-Tag 2015

Der Welt-GIS-Tag ist der Höhepunkt einer einwöchigen Geographie-Woche, um die Menschen für die Bedeutung der Geographie zu sensibilisieren und das Bewusstsein für die Verwendung geographischer Informationen zu schärfen, die jährlich weltweit abgehalten wird. Es wird jedes Jahr jede dritte Novemberwoche gefeiert und bringt GIS-Experten zusammen, um zu zeigen, was Raumtechnologie zur Lösung globaler Probleme leisten kann. Das Thema des GIS-Tages 2015 war Discovering the World through GIS und die Kenyatta University, eine Begünstigte des Esri 100 African Universities Programme, schloss sich den anderen GIS-Benutzern weltweit an, um diesen Tag zu feiern.

Der GIS-Tag an der Kenyatta University fand dieses Jahr am 18. November 2015 von 8:00 bis 16:30 Uhr im KU-BSSC ROOM 014 auf dem Hauptcampus statt. Rund 300 Teilnehmer kamen zu der Veranstaltung, darunter Studenten der Universität Kenyatta, Vertreter der Fakultät der Universität Kenyatta, JKUAT-Studenten, Vertreter von Esri, Vertreter von RCMRD und Oakar Services sowie Studenten der Universität von Nairobi. Die Veranstaltung begann um 8.00 Uhr mit der Registrierung der Teilnehmer . Vollständigen Bericht lesen

Registrar Academic Dr. Stephen N. Nyaga neben Prof. Onywere und Teilnehmer machen ein Gruppenfoto

Im November 2014 leitete Prof. Onywere eine Delegation von 8 Teilnehmern der Kenyatta University zur 2. Esri Eastern Africa GIS Education User Conference, die an der University of Dar Es Salaam stattfand, wo das Team demonstrierte, wie es der Kenyatta University als lizenzierter Esri ArcGIS Education User gelungen ist, räumliches Wissen in Lehre und Forschung. Die Konferenz brachte 21 Universitäten und Geodatennutzer aus der ostafrikanischen Region zusammen. Das KU GIS-Team veranstaltete auch jeden Mittwoch der 3. Novemberwoche jedes Jahres einen sehr erfolgreichen GIS-Tag. Das Thema des GIS-Tages 2014 lautete „Die Welt durch GIS entdecken“. Das KU GIS-Team hat auch eine Reihe von Schulungsworkshops in der KU durchgeführt. Die 1. Esri Eastern Africa GIS Education User Conference wurde 2013 von der KU ausgerichtet.

Wertvolle Erkenntnisse, die die Universität bei der Implementierung einer Bildungssite-Lizenz bereitgestellt hat, sind:

  • Die kritische Rolle eines aufgeklärten internen GIS-Champions, der seine Zeit, sein Engagement und sein Engagement einbringt, um anderen in der Universität zu helfen, die Vorteile und Möglichkeiten von GIS zu erkennen und voranzukommen.
  • Die Notwendigkeit einer universitätsweiten Unterstützung beim Aufbau von Kapazitäten, um eine schnellere Einführung von GIS und die Nutzung der verfügbaren Lizenzen in allen Schulen voranzutreiben.
  • Exekutive Unterstützung durch das Top-Hochschulmanagement und insbesondere den Vizekanzler sollte vorhanden sein. Andernfalls ist die Einführung von GIS auf Unternehmensebene innerhalb der Universität nicht möglich.
  • Die ICT-Direktion ist ein unschätzbares Zahnrad, da die Direktion die gesamte ICT-Infrastruktur und technische Unterstützung für die erfolgreiche Implementierung einer Standortlizenz bereitstellt.

GIS- und Fernerkundungstraining zur Kartierung vernachlässigter Tropenkrankheiten (NTDs) 15. - 18. Dezember 2014, Kenyatta University, BSCC


Teilnehmer des NTD-Mapping-Trainings

Die Kenyatta University hat mit Unterstützung der Community of Excellence for Research in Neglected Vector Borne and Zoonotic Diseases (CERNvec) vom 15. bis 18. Dezember 2014 eine Schulung zum Thema „GIS and Remote Sensing for Mapping of Neglected Tropical Diseases (NTDs)“ durchgeführt. Die Schulung wurde vom ICIPE/CERNvec-Projekt gesponsert und zieht die Teilnahme von CERNVRC-Partnern der Kenyatta University, der Jomo Kenyatta University of Agriculture and Technology (JKUAT), des Gesundheitsministeriums (DDRS- und NTD-Programm) und des Kenya Medical Research Institute (KEMRI) an.

Sammeln und Aufzeichnen von Schuldaten mit GPS

CERNvec ist eine Plattform, die Forscher, Wissenschaftler, Studenten und andere Praktiker der Gesundheitswissenschaften zusammenbringt, um Ideen und Informationen speziell zu vernachlässigten Tropenkrankheiten (NTDs) in Afrika auszutauschen. Das Hauptziel der Schulung bestand darin, die Teilnehmer mit der GIS-Anwendung in der Krankheitskartierung unter Verwendung des verfügbaren ArcGIS-Tools zu verbinden. Die Schulung konzentrierte sich auf die praktische Schulung mit ArcGIS 10.1, verfügbar im Rahmen der KU_GIS ESRI-Campus-weiten Lizenz, GIS-Datenextraktion, -Visualisierung und -Analyse von Felddaten im GIS. Weiterlesen

8 Teilnehmer der Kenyatta University nehmen an der 2. Esri Eastern Africa Education GIS User Conference vom 20. - 21. November 2014 an der University of Dar es Salaam . teil

Teilnehmer der Esri-EA GIS Education User Conference vor der Nkrumah Hall University of Dar es Salaam

Die 2. Esri Eastern Africa GIS Education User Conference 2014 fand an der University of Dar es Salaam in Tansania statt, wo die Kenyatta University mit 8 Teilnehmern vertreten war. Das Hauptziel der Education User Conference war es zu demonstrieren, wie Esri ArcGIS lizenzierte Bildungsbenutzer Esri Produkte verwenden können, um räumliches Wissen in ihrer Hochschule zu vermitteln, siehe „Agenda for the 2nd Esri Eastern Africa Education GIS User Conference“. Die Konferenz brachte 21 Universitäten und Geodatennutzer aus der ostafrikanischen Region zusammen. Dazu gehörten unter anderem: Kenyatta University, Dedan Kimathi University of Technology, Ardhi University, University of Bagamoyo, University of Dar es Salaam, Makerere University, Southern and Eastern Africa Mineral Center und World Vision. Die Institutionen stellten vor, wie sie Esri ArGIS Produkte und andere Werkzeuge einsetzen konnten, um räumliches Wissen in Lehre und Forschung oder in ihrem Arbeitsumfeld zu vermitteln. Die Kenyatta University, eine der Begünstigten des Esri 100 African University Programms, hatte die höchste Teilnehmerzahl außerhalb der University of Dar es Salaam. Die Referenten der KU konnten zeigen, wie sie in den letzten sechs Monaten ArcGIS-Tools in Ausbildung und Forschung eingesetzt haben. Esri Der Hauptredner, der insbesondere von Esri kam, dankte dem Top-Management der Kenyatta University für ihr Engagement und ihre Unterstützung für Geodaten. Die Universitäten, die jetzt die Unterstützung des ESRI 100 African Universities-Programms suchen, greifen bei der Umsetzung auf die Erfahrungen der Kenyatta University zurück.

Die erste Präsentation der KU war „The Impact of Campus-Wide GIS License on Teaching and Research in Kenyatta University“ von Anthony Gakobo Macharia. Herr Gakobo führte den Teilnehmer durch den Prozess, den KU in der Schulung zu GIS-Konzepten und -Anwendungen mit ArcGIS Tools angewendet hat. Die zweite Präsentation für die Kenyatta University war zum Thema „Anwendung von GIS auf Krankenhausmanagement, Patientenversorgung und Patientenflusssysteme“ von Mugambi Kelvin Mwenda, einem Studenten im vierten Jahr der School of Environmental Studies, Department of Environment and Community Development. Kelvin wurde in der Verwendung von ArcGIS geschult und hat für sein letztes Forschungsprojekt einen Vorschlag zur Verwendung von ArcGIS Campus Editing für das Krankenhausmanagement vorgelegt.

Die dritte KU-Präsentation und die Pick-of-Pick-Präsentation für diesen Tag war „Campus Mapping using GIS to make Informed Decision on Campus“ von Prof. Onywere. Prof. Onywere führte die Teilnehmer durch den Prozess der Kartierung verschiedener Einrichtungen auf dem KU-Campus, den die GIS-Azubis während ihrer Bewerbungsphasen kartierten und das konsolidierte Daten- und Kartenprodukt, das nun die Grundlage für die Campuskartierung bildet. Weitere Präsentationen der Kenyatta University waren 4 Poster von Esther Kagure, Nancy Wachiuri, Caroline Akoth und Simon Onywere.


Kelvin von KU erhält ESRI-Geschenk von Dr. Chauda

Carol und Nancy von KU mit Dr. Gould

Dr. Michael Gould lobte Prof. Onywere, die GIS-Point-Personen, für seine Leidenschaft für GIS und für die Steuerung des Implementierungsprozesses der ESRI ArcGIS Enterprise-Lizenz. Er wurde von Esri anerkannt und zum Geospatial Champion in Ostafrika für 2014 gekrönt und trug ein kastanienbraunes Polo-T-Shirt von Esri, um die Führung in der GIS-Arena zu symbolisieren. Auch das Management der Kenyatta University wurde für die Unterstützung des Programms gelobt. Am zweiten Konferenztag hat Prof.Onywere führte die Esri GIS-Lehrer Schritt für Schritt durch eine Präsentation zum Thema „Kenyatta University Experience with Esri Site License“. Er betonte die Notwendigkeit, die oberste Hochschulleitung von Anfang an einzubeziehen, um Transparenz und finanzielle Unterstützung zu gewährleisten, sowie die ICT-Abteilung, die die Infrastruktur unterstützt, auf der die Software sitzt und läuft. Vollständigen Bericht lesen

GIS-Tag der Kenyatta University am 18. November 2014

Thema: Mit GIS die Welt entdecken.
Vortragsreihe im KU-BSSC ROOM 014

Die Kenyatta University veranstaltete die Feierlichkeiten zum Esri GIS DAY am Dienstag, den 18. November 2014, anstatt am Mittwoch, den 19. November 2014, um dem KU-GIS-Team die Reise nach Dar es Salaam zu ermöglichen, um an der Esri GIS Education Users Conference teilzunehmen. Der GIS DAY ist eine weltweite Veranstaltung, die jedes Jahr jeden 3. Mittwoch im November stattfindet. Es bringt Menschen zusammen, die GIS und damit verbundenes räumliches Wissen nutzen, um globale Probleme zu lösen und die Erde zu einem besseren Ort zum Leben zu machen. Das Thema des GIS DAY 2014 war Discovering the World through GIS und die Kenyatta University, eine Begünstigte des Esri 100 African Universities Programme, schlossen sich den anderen GIS-Benutzern weltweit an, um diesen Tag mit Stil zu feiern.


Anmeldung während des KU GIS DAY

Gruppenfoto einiger KU-Teilnehmer


Teilnehmer verfolgen gespannt die GIS DAY Lecture

Dr. Kinyanjui von DRSRS hält einen Vortrag

Der GIS DAY war auch geprägt von GIS Application Map Stories und GIS Day Videopräsentationen, Ausstellungen und Postern von Studenten und Mitarbeitern, die mit der Auszeichnung der 5 besten Studentenposter und der Abschlusszeremonie gipfelten


Schüler posieren vor Kartenpostern zum GIS-Tag

Auszeichnung für einen der besten GIS-Studenten

Der Tag endete mit großem Dank an alle, die es ermöglicht haben, den GIS DAY auszurichten und den Tag zu einem Erfolg zu machen. Die geladenen Gastredner und einige Studenten wurden mit freundlicher Genehmigung des Vizekanzlers zu einem späten Mittagessen eingeladen. Dies bildete eine weitere Mini-Sitzung zur Interaktion, bevor sich der Gast nach Belieben auflöste. Da es kein anderes Geschäft gab, löste das KU_GIS-Team die Karten und bereitete sich auf die Reise zur Esri-Education Users Conference in Dar-es-Salaam am nächsten Tag vor.

KU_GIS-Team: Von links Prof. Simon Onywere, Elizabeth Maende, Solomon Mwenda & Anthony Gakobo. Lesen Sie den vollständigen Bericht.

KU GIS Team Präsentation vor dem Vizekanzler am 21. Oktober 2014.

Das KU-GIS-Team hat am 21. Oktober 2014 einen Höflichkeitsbesuch beim Vizekanzler gemacht und eine Präsentation über die Fortschritte des Teams bei der Bereitstellung der ArcGIS-Tools durch das ESRI 100 Africa Universities Program für Lehre und Forschung für die KU-Community gehalten. Während des Treffens waren anwesend:

1. Der Vizekanzler, Prof. Olive Mugenda, ESRI ArcGIS Lizenzinhaber
2. Prof. Simon Onywere, der KU-GIS-Teamleiter.
3. Mr. John Njenga, Esri EA Training Manager
4. Herr Anthony Gakobo, KU GIS Trainer und ICIPE/CERNVEC Intern.
5. Herr Solomon Mwenda, GIS-Trainer und ICIPE/CERNVEC Intern
6. Herr Peter Mwirigi, GIS-Schulungsadministrator.

Dem Vizekanzler wurde eine Karte der Kenyatta University präsentiert, die im Rahmen des Trainingsprogramms erstellt wurde

KU_GIS-Team mit der VC in ihrem Büro (von links: Gakobo, Onywere, der Vizekanzler, Njenga, Mwenda und Mwirigi) .Weiterlesen

GIS-Tag| 19. November 2014|Die Welt mit GIS entdecken

Am 19. November nehmen wir Kenyatta Fratenity an der weltweiten Feier des GIS Day teil, dem jährlichen Gruß an die Geotechnologie und ihre Kraft, unser Leben zu verändern und zu verbessern. Nehmen Sie an den Feierlichkeiten teil, indem Sie eine GIS-Tagesveranstaltung veranstalten, unterstützen oder daran teilnehmen.

Esri Eastern Africa Education User Conference|20.-21. November 2014|Universität Dar es Salaam, Tansania

GIS in der Bildung spielt zunehmend eine grundlegende Rolle beim Verstehen, Gestalten und Modellieren unserer Welt. Durch Lehr-, Forschungs- und Verwaltungsanwendungen im Bildungsbereich öffnet das Verständnis der Auswirkungen von räumlichen Beziehungen die Tür zu realen Anwendungen von GIS.
Durch die Esri Eastern Africa Education User Conference bringt die Bildungsgemeinschaft ihren starken Enthusiasmus zusammen, um neue Wege der Anwendung von GIS in ihren verschiedenen Anwendungsbereichen zu teilen, zu verbinden und zu lernen.
Das diesjährige Thema „GIS für alle“ erkennt an, dass die Breite und Tiefe der Anwendung von GIS in der Bildungsgemeinschaft im Laufe der Jahre gewachsen und erweitert wurde. GIS wird heute verwendet, um Telekommunikation, Logistik, öffentliche Verwaltung, Projektüberwachung und -bewertung, IKT, Wirtschaft und andere aufstrebende Bereiche zu lehren.
Die Ziele der diesjährigen Konferenz

  • Diskutieren Sie die Unternehmenssicht von GIS für die Universität in Lehre, Forschung und Verwaltung
  • Erkennen und präsentieren Sie die GIS-Erfolgsgeschichten der Gemeinden
  • Präsentieren Sie die neuesten Funktionen der ArcGIS-Plattform und zugehörige Geodatentechnologien

Esri Eastern Africa User Conference|20.-21. November 2014|Universität Dar es Salaam, Tansania

Seit fast einem Jahrzehnt bringt die Esri Eastern Africa User Conference Benutzer aus ganz Ostafrika zusammen, um sich über die neuesten Geo-Spatial-Technologien zu informieren, ihre Erfahrungen auszutauschen, sich mit Branchenkollegen und Esri EA-Mitarbeitern zu vernetzen und zu vernetzen.

Erstmals im Jahr 2006 in Nairobi abgehalten, waren Kampala, Addis Abeba, Sansibar, Naivasha und Jinja Gastgeber dieser einzigartigen Konferenz. In diesem Jahr wird die Küstenstadt Mombasa die Heimat der Esri Eastern Africa User Conference sein.

Dieser Ort hat das Konferenzthema 2014 „Seaside Servings of GeoTechnology“ inspiriert und bildet einen angemessenen Ort für Esri-Softwarebenutzer aus ganz Ostafrika und darüber hinaus, um zusammenzukommen und sich zu engagieren.


Kartierung und GIS

Einführung in ArcGIS

Herbst 2010 - Frühjahr 2016
Video · Anleitung · Beispieldaten

Möchten Sie herausfinden, wie eine Software für geografische Informationen (GIS) Ihre Forschung unterstützen kann? Dieser Kurs bietet einen Überblick darüber, wie ArcGIS-Software Sie bei der Analyse oder Visualisierung digitaler Daten mit einer Standortkomponente unterstützen kann, sowie die Ausgangspunkte für das Abrufen von Daten. Die Beispiele konzentrieren sich auf sozialwissenschaftliche Daten, aber die Teilnehmer werden ermutigt, Fragen zu ihren eigenen Bedürfnissen zu stellen und können später gerne Einzeltermine für einen gezielteren Unterricht vereinbaren.

Historisches GIS

Herbst 2012 - Frühjahr 2016
Leitfaden · Beispieldaten

In dieser Klasse werden einige Möglichkeiten aufgezeigt, wie ArcGIS für die Analyse und Visualisierung historischer räumlicher Daten verwendet werden kann. Die behandelten Themen sind: Quellen für GIS-Layer, die die Vergangenheit widerspiegeln, Georeferenzierung einer gescannten historischen Karte, Erstellen neuer Layer von Grund auf basierend auf bekannten Positionen von Features, Bearbeiten vorhandener GIS-Layer, um frühere Features widerzuspiegeln und Vektorisieren einer gescannten Karte, um bearbeitbare Features zu erstellen.

Einführung in QGIS

Frühjahr 2016
Handbuch

Suchen Sie nach einer Open-Source-Option für GIS? QGIS ist kostenlos und eine Alternative zur Verwendung von ArcGIS. In diesem Workshop zeigen wir, wie man Daten in QGIS importiert und analysiert und diskutieren die Vorteile der Verwendung von QGIS gegenüber anderer GIS-Software.

ArcGIS Online

Frühling 2014
Handbuch

ArcGIS Online (AGOL) ist eine Ergänzung zum ArcGIS-Client, mit der Mitglieder einer Gruppe räumliche Daten online speichern und freigeben können und die unabhängig oder in Verbindung mit dem Client verwendet werden kann. Wir besprechen Aspekte des AGOL-Organisationskontos, das Hinzufügen und Zugreifen auf Inhalte, das Erstellen von Karten- und Feature-Services, das Erstellen und Freigeben von Webkarten und Präsentationen, das Veröffentlichen von Webanwendungen und die Verwendung von Analysetools.

Mapping mit R

Herbst 2017 - Geschenk
Video · Handbuch · Folien

R ist zu einer beliebten und reproduzierbaren Option zur Unterstützung räumlicher und statistischer Analysen geworden. In diesem praxisorientierten Workshop wird gezeigt, wie x/y-Koordinaten geplottet werden, wie thematische Choropleten mit US-Volkszählung und anderen Bundesdatenimporten generiert, Shapefiles angezeigt und produziert und Flugblattkarten für die Anzeige im Internet erstellt werden.

Web-GIS-Anwendungen

Herbst 2012 - Herbst 2013
Leitfaden · Beispieldaten

Vergleichen und vergleichen Sie mehrere Produkte, die für die räumliche Visualisierung (z. B. eine Karte zum Einbetten in einen Blog oder PowerPoint oder für eine Postersitzung) und in einigen Fällen für die GIS-Datenanalyse bestimmt sind. (1) ArcGIS Online: Begleiter zum ArcGIS-Client, der es Mitgliedern einer Gruppe ermöglicht, Geodaten online zu speichern und freizugeben, und der unabhängig oder in Verbindung mit dem Client verwendet werden kann (2) GeoCommons: sowohl ein Repository für Geodaten als auch als Analyse- und Visualisierungstool (3) Google Earth: Betonung seiner Funktionen, die im akademischen Umfeld am besten geeignet sind. Sehen Sie sich unseren Zeitplan für eine weitere Sitzung zu Google Fusion Tables an.

Google Fusion-Tabellen

Herbst 2011 - Frühjahr 2014
Folien

Einführung in die Funktionen von Google Fusion Tables, darunter das Zusammenführen von Datensätzen, das Filtern und Aggregieren von Daten sowie das Visualisieren von Daten durch Erstellen von Online-Karten und -Grafiken. Für bestimmte Aufgaben kann es als Alternative zum Einsatz von Statistiksoftware wie Stata oder GIS-Software wie ArcGIS dienen.


3 Antworten 3

Viele der Variablennamen haben keine Bedeutung und sind inkonsistent. Einige von ihnen beschreibe ich im Folgenden speziell, aber Druck ist beispielsweise keine gute Wahl für eine Liste von Vorschlägen – auch wenn Sie beabsichtigen, sie auszudrucken. Stattdessen identifizieren Vorschläge eindeutig, was die Liste enthält.

Erfahren Sie, wie Sie JavaDoc zum Dokumentieren öffentlicher Klassen und Methoden verwenden. Es ist nicht nur schöner zu lesen als Einzeiler. Wenn Sie diese Gewohnheit frühzeitig entwickeln, demonstrieren Sie Ihr Ziel, ein professioneller Ingenieur zu werden (wenn das der Fall ist).

Sie bemühen sich sehr, die Methoden aufzubrechen und Bedenken zu trennen, aber ich würde noch einen Schritt weiter gehen. Die Methoden, die alternative Schreibweisen erstellen, sollten nicht für die Überprüfung des Wörterbuchs verantwortlich sein. Kombinieren Sie stattdessen alle Rechtschreibfehler in einer einzigen Liste und durchsuchen Sie das Wörterbuch an einer Stelle. Auf diese Weise können Sie auch Duplikate entfernen und verschwendete Nachschlagevorgänge vermeiden.

Ich würde auch alle Ausgaben vollständig trennen, möglicherweise in eine neue UI-Klasse, um eine Wiederverwendung zu ermöglichen. Sie haben hier ziemlich gut abgeschnitten, aber printSuggestions sollte die Liste der Vorschläge erhalten, anstatt makeSuggestions selbst aufzurufen.

Wenn Dictionary die Set-Schnittstelle implementiert hat, können Sie die integrierte Schnittmenge verwenden, um die Suche für Sie durchzuführen.

input.equals("") wird besser als input.isEmpty() ausgedrückt. Möglicherweise möchten Sie die Eingabe trimmen, um führende/nachgestellte Leerzeichen zu entfernen: input = scan.nextLine().trim()

Ähnliches gilt für ArrayList : print.isEmpty() statt print.size() == 0 .

pringSuggestions erstellt unnötigerweise einen StringBuilder, wenn keine Vorschläge vorhanden sind.

Beim Erstellen von Vorschlägen verwenden Sie zwei verschiedene Methoden zum Verketten von Zeichenfolgen: einen impliziten StringBuilder und String.concat . Beide sind unter verschiedenen Umständen in Ordnung (obwohl ich gestehe, dass ich letzteres nie verwendet habe), aber stellen Sie sicher, dass Sie alle Verkettungen in einer Anweisung kombinieren. Um sie auf mehrere Anweisungen aufzuteilen, wird für jede Anweisung ein neuer Builder verwendet. charsSwapped ist besonders ungeheuerlich und erfordert drei für jeden Vorschlag anstelle von einem.

Mach aus M eine Konstante. So wie es aussieht, initialisieren Sie das Feld auf 1319 und weisen es sich dann im Konstruktor neu zu. Vielleicht ist BUCKET_COUNT ein besserer Name.

Alternativ können Sie einen Konstruktor hinzufügen, der den Wert als Parameter übernimmt. Wenn wir schon dabei sind, wie wäre es mit Buckets anstelle des sehr generischen Namens-Arrays ? Es ist selten eine gute Idee, eine primitive Variable ausschließlich nach ihrem Typ zu benennen.

Beide können statisch sein, da sie nicht auf die Member der äußeren Klassen zugreifen.

Sie brauchen Bucket nicht wirklich und können den Code neu schreiben, um ihn zu entfernen, um den Unterschied zu sehen. Es ist keine große Verbesserung, kann aber den Code vereinfachen.

Wie bei Dictionary sind add und contains sinnvoller als put und get .

Seien Sie bei der Benennung über Methoden hinweg konsistent. In Bucket nimmt get Takes in während put key nimmt, aber in und key stehen für dieselben Dinge und sollten daher denselben Namen verwenden: key . Bleiben Sie auch bei curr, um Verwechslungen mit Node.next zu vermeiden.

@Czippers hat dies genagelt: get und put sollten das gleiche Schleifenkonstrukt verwenden, da beide die Liste der Reihe nach durchlaufen und möglicherweise irgendwann aufhören.


Zusammenführen von Linien, bei denen eine Point-Feature-Class in ArcGIS Desktop vorhanden ist? - Geografisches Informationssystem

Diese Informationsrevolution wird durch die gestiegene Nachfrage, durch Verbesserungen in der Computertechnologie und durch unser wachsendes Verständnis dafür, wie Menschen Informationen suchen und verwenden, vorangetrieben. Da Nicht-Informationsfachleute zu den dominierenden Informationskonsumenten geworden sind, haben sie begonnen, Systeme zu verlangen, die Informationen ohne geheimnisvolle Befehlssprachen und andere traditionelle priesterliche Riten lokalisieren und manipulieren können. Im Gegensatz zu Informationsvermittlern, deren Hauptfunktion die Suche ist, nutzen Wissensarbeiter die Suche als Mittel zum Zweck. Diese immer anspruchsvollere Gruppe von Informationen, die Endbenutzer benötigen, müssen die richtigen Informationen schnell finden, analysieren, in Berichten zusammenfassen, für das obere Management zusammenfassen oder für Entscheidungen verwenden. Sie benötigen eine Reihe integrierter, intelligenter Informationstools, um die heutige unaufhörliche Informationsbombardierung zu verstehen.

Schnellere, größere und billigere Desktop-Computer können neu entwickelte Informationsverarbeitungstools ausführen. Nachrichteninformationssysteme werden auf der Grundlage der linguistischen Analyse von Sprache und Bedeutung aufgebaut. Hinzu kommt unser wachsendes Verständnis kognitiver Prozesse. Die Erforschung des Denkens von Menschen, kombiniert mit Beobachtungen ihrer Interaktion mit Computersystemen, bringt die neue Disziplin der Mensch-Computer-Interaktion hervor. Neue Systeme werden stark auf diesem Gebiet sowie auf kognitiver Psychologie, Grafikdesign, Linguistik, Informatik und Bibliothekswissenschaft zurückgreifen, wobei jedes System seine eigene einzigartige Perspektive auf die effektive Organisation, Suche und Nutzung von Informationen hat.

Das Wachstum von Firmen-Intranets trägt zur Nachfrage bei. Unternehmen sind bereit, in hochwertige, sorgfältig gefertigte Systeme zu investieren. Geschäftszyklen werden kürzer, und unter Druck geratene Mitarbeiter verbringen zu viel Zeit damit, mit zu vielen Informationen umzugehen. Wissen geht aus der Tür, wenn Mitarbeiter zu neuen Jobs in anderen Unternehmen wechseln. Intranets versuchen, diese Informationen zu bewahren und dem gesamten Unternehmen zur Verfügung zu stellen und werden zu einem interaktiven Ort für die Arbeit mit Kollegen und mit Informationen in einem reibungslosen Prozess.

Heutige Dokumentenabrufsysteme bündeln alle Informationsbedürfnisse in einem einzigen Prozess. Neue Informationstools werden diese unterschiedlichen Bedürfnisse in Kategorien einteilen und spezifische Tools für jede Art von Bedarf bereitstellen.

  • Breitgefächerte Recherchen Angelausflüge zu einem dem Suchenden unbekannten Thema. Eine geeignete Terminologie ist zunächst schwer zu bestimmen.
  • Enge, gut definierte Themenrecherchen zu einem bekannten Thema mit bekannten Begriffen.
  • Vergleichende Informationssuche – Welches Unternehmen ist das größte, hat einen Umsatz von mehr als X $ oder mehr als 100 Mitarbeiter?
  • Bekanntes Element, das nach einem bestimmten Titel, Autor oder einer bestimmten Veröffentlichung sucht.
  • Kontinuierliche Überwachung eines Themas.
  • Musterabgleich für aufkommende Trends: Suche nach Übereinstimmungen mit einer Beschreibung eines Ereignisses oder einem Profil eines Konkurrenten oder einer anderen Einheit.
  • Fakt oder statistischer Standort – wer, was, wo, wann, wie?
  • Chronologische Rekonstruktion von Ereignissen oder Aktionen

Der Suchprozess
Wie suchen und verwenden wir Informationen? Unterscheiden sich Endnutzer von Informationsvermittlern und wenn ja, warum? Können wir Sucharten unterscheiden und spezielle Tools entwickeln, um unser Auffinden und Verwenden von Informationen zu verbessern? Diese und weitere Fragen müssen bei der Gestaltung der nächsten Generation von Informationssystemen beantwortet werden.

Die Suche ist nicht linear. Wir wissen, dass Menschen sich in einem iterativen oder zirkulären Prozess engagieren, wenn sie Informationen suchen (siehe Abbildung 1 auf Seite 61).

Nachdem ich das Suchverhalten von Endbenutzern und Informationsexperten in den letzten 5 Jahren getestet habe, glaube ich an die inhärenten Unterschiede zwischen der Suche beider Gruppen. Dies ist nicht überraschend, hat aber wenig mit den Fähigkeiten oder der Ausbildung des Informationsfachmanns oder des Endbenutzers zu tun. Vielmehr unterscheiden sich diese Gruppen in ihrer grundsätzlichen Suchmotivation. Endbenutzer wissen, warum sie suchen, auch wenn sie ihre Informationsbedürfnisse nicht gut artikulieren. Erfolg wird durch eine Antwort auf ihre Informationsbedürfnisse definiert. Sie werden es wissen, wenn sie es sehen. Daher werden sie eher eine sehr breite Abfrage eingeben und dann browsen. Tatsächlich treten sie, wenn sie die Wahl haben, in den Suchzyklus ein, indem sie zuerst surfen und dann ihr Browsen mit einer Abfrage verfeinern. Dies erklärt die Popularität von Verzeichnisseiten wie Yahoo!.

Im Gegensatz dazu muss der Vermittler nur die Frage des Endbenutzers abgleichen. Erfolg wird durch die bestmögliche Übereinstimmung definiert. Daher setzen Vermittler auf Präzision. Ihre Suchanfragen sind in der Regel viel enger und sie suchen, bevor sie surfen. Eine breite Anfrage an den Informationsprofi ist unprofessionell und schlampig. Wenn wir Endnutzer für ihren Mangel an Suchkunst kritisieren, irren wir uns oft. Sie müssen umfassend browsen und browsen (siehe Figur 2 auf Seite 67).

Die meisten der heutigen Dokumentenabrufsysteme ordnen Abfragen Dokumenten zu. Diese Systeme adressieren die Mitte des Informationssucheprozesses, eingeschlossen in die gepunkteten Linien. Obwohl wir uns über die Ergebnisse beschweren können, leisten die Systeme tatsächlich einen ziemlich guten Job, um die tatsächlich erhaltene Abfrage abzugleichen. Die Systeme ignorieren jedoch die beiden äußeren Enden des Prozesses und bieten keinerlei Hilfe bei der Übersetzung des Informationsbedarfs in Fragen und dann in akzeptable Anfragen. Die Systeme tun wenig, um dem Benutzer zu helfen, zu verstehen und zu analysieren, was das System zurückgibt. Während der Benutzer also tatsächlich einige gute Übereinstimmungen mit seiner Abfrage erhält, spiegelt die Abfrage selten den Informationsbedarf dahinter wider.

Wenn der Informationsbedarf jedoch nicht genau dargestellt wird, überschneiden sich die zurückgegebenen Ergebnisse bestenfalls punktuell. Heutige Informationssysteme verlangen vom Suchenden, Begriffe zu extrahieren, die die beste Wahrscheinlichkeit haben, die Frage zu repräsentieren, und gleichzeitig überflüssige oder nicht verwandte Dokumente zu eliminieren. Normalerweise lösen wir dieses Dilemma, indem wir Listen mit Substantiven oder Phrasen verwenden, die die Konzepte in der Frage darstellen. Beim Formulieren einer Abfrage eliminieren wir die eigentliche Bedeutung der Frage, weil wir den Kontext entfernen.

  • Helfen Sie dem Benutzer, eine Abfrage zu formulieren.
  • Finden Sie Antworten, nicht nur Dokumente.
  • Antizipieren Sie die Bedürfnisse der Benutzer.
  • Rufen Sie Daten in jedem Format von mehreren Quellen und Lieferanten ab und führen Sie die Daten zu einem einzigen, deduplizierten Abrufsatz zusammen.
  • Stellen Sie Analyse- und Berichtstools bereit, um abgerufene Daten zu manipulieren.
  • Zeigen Sie Antworten in leicht verständlichen visuellen Formaten an.
  • Finden Sie Muster in Daten, um die Entscheidungsfindung zu unterstützen.
  • Interne Dokumente und Datenbanken in verschiedenen Formaten
  • Ausschussberichte
  • Verzeichnisse von Personen und Fähigkeiten
  • Externe Quellen
  • Tools zum Manipulieren von Informationen und Extrahieren von neuem Wissen

Wenn Sie Ihr Informationssystem als Ganzes betrachten, implementieren Sie jede neue Technologie als Baustein in einem ganzen Gebäude. Sie könnten jede Technologie separat implementieren, aber letztendlich wird die Integration dieser Technologien ein Wissensmanagementsystem und sogar ein Entscheidungsunterstützungssystem schaffen. Ohne diese Vision haben Sie möglicherweise so viele seltsam große Steine, dass Sie von vorne beginnen müssen.

Das von Ihnen erstellte System sollte sich an die Bedürfnisse der Benutzer anpassen und Informationen in jedem Format integrieren. Sie muss Muster und Trends in den Informationen aufdecken, da Muster und Trends in der Regel bedeutsamer sind als einzelne Fakten oder Nuggets. Und vor allem muss sie Antworten auf Fragen liefern.

1. Identifizieren Sie Bakterien im Prozess der Arzneimittelresistenz.

2. Identifizieren Sie Bermuda-Werbekampagnen, die die Insel als Touristenattraktion bewerben.

3. Bereitstellung von Artikeln und Fallstudien über die Einstellung von Unternehmen zur Medienarbeit, einschließlich Best Practices für den Umgang mit Medien und Trends in der Medienarbeit.

4. Bereitstellung von Informationen über die „Vorbereitung von Problemen“ (d. h. Gründe dafür, warum Unternehmen darauf vorbereitet sein sollten, eine Krise oder ein Problem im Voraus zu bewältigen und wie Unternehmen eine Krise oder ein Problem effektiv bewältigen können).

5. Bereitstellung von Informationen über „Gedanken“-Retreats/Seminare/Executive Meetings, CEO-Retreats und Kundenunterhaltungs-/Wertschätzungsveranstaltungen.

6. Identifizieren Sie Bücher oder Artikel, die diskutieren, wie Kunstwerke im Laufe der Jahrhunderte Mundhygiene und Zahnmedizin repräsentiert haben (gibt es zum Beispiel einen Grund, warum die Mona Lisa nicht lächelt?!).

7. Identifizieren Sie aufstrebende Wettbewerber in der X-Branche.

8. Wo soll ich im Januar Urlaub machen, wenn ich nicht mehr als 600 Dollar pro Person ausgeben möchte und Menschenmassen nicht mag? Ich würde gerne an einen warmen Ort mit schöner Landschaft gehen, irgendwo in der Nähe eines Ozeans.

9. Wie viele Widgets wird Sambia in den nächsten 5 Jahren herstellen? Ich möchte nur eine Zahl für jedes Jahr, nicht einen Stapel Dokumente. Ich brauche das übrigens in einer halben Stunde.

10. Ich muss mit neuen Informationstechnologien Schritt halten, wenn sie auftauchen. (Das bedeutet, dass ich neue Begriffe identifizieren und auch veraltete streichen muss.)

Die Grundlage
Jedes Abrufsystem muss zwischen einem Dokument und einem anderen unterscheiden. Das System stützt sich auf Indikatoren, die bestimmen, worum es in einem Dokument geht. Es wird auch versucht, zwischen Dokumenten „meist über“ einem Thema und solchen nur „etwas über“ einem Thema zu unterscheiden. Eindeutige Begriffe oder Phrasen dienen oft als gute Unterscheidungsmerkmale. In einigen Bereichen, wie zum Beispiel in der Wirtschaft, sind jedoch keine eindeutigen Begriffe zu finden, die sehr gebräuchliche Wörter verwenden, um etwas ganz Präzises zu bedeuten. Die Beispielabfragen Stinkers bieten gute Beispiele für dieses Problem.

Um die Bedeutung eines Dokuments am besten zu bestimmen, fragen Sie einen Fachexperten. Indexer tun dies für ihren Lebensunterhalt. Während sich Experten in breiten Themenbereichen einig sein können, können sie sich jedoch darin unterscheiden, welche Begriffe einem bestimmten Dokument zuzuordnen sind. Einige Studien zur Konsistenz von Indexern haben ergeben, dass Indexer nur in 50 Prozent der Fälle denselben Begriff demselben Dokument zuordnen. Indexer ordnen Dokumente dem richtigen allgemeinen Sachgebiet zu, auch wenn sie nicht genau denselben Begriff zuordnen. Sie stellen Finanzinstitute nicht unter Umweltwissenschaften.

Warum halten wir uns dann nicht an menschliche Klassifikatoren, um zu bestimmen, worum es in einem Dokument geht? Es gibt verschiedene Gründe. Erstens ist diese Konsistenzrate von 50 Prozent ziemlich beunruhigend, wenn Sucher Thesauri verwenden, um bei der Formulierung von Abfragen zu helfen. Die Zuweisung eines falschen Begriffs kann ein hochrelevantes Dokument aus einem abgerufenen Satz entfernen. Zweitens ist die Indexierung durch den Menschen langsam und verlängert die Zeit, die benötigt wird, um etwas online verfügbar zu machen, um Wochen, sogar Monate. Da das Publizieren in Echtzeit zu einer akzeptierten Praxis wird, brauchen wir andere zuverlässige Mittel, um das Relevante vom Unwichtigen zu unterscheiden. Drittens ist die schiere Menge an Informationen zu groß, um sie manuell zu klassifizieren.

Da wir ein automatisches Mittel finden müssen, um die besten Dokumente für eine Abfrage auszuwählen, wie können wir dann einem Computer beibringen, eine gute Übereinstimmung zu erkennen?

Statistik und Wahrscheinlichkeit
Trotz allem, was Suchende über Wörter, Begriffe, Befehle und andere linguistische Phänomene sprechen, verstehen Computer in Wirklichkeit nur Zahlen. Jedes ASCII-Zeichen, jeder Buchstabe des Alphabets muss in eine Folge von Einsen und Nullen übersetzt werden, bevor ein Computer es verarbeiten kann. Boolesche Befehle funktionieren schnell, da sie mathematisch basieren. Eine der Ironien der Online-Suche besteht darin, dass sich ihre Praktiker eher als „Wort“ und nicht als „Mathematik“ betrachten. Dennoch handhaben sie die boolesche Logik mit Bravour.

Das Genie von Leuten wie Gerard Salton lag in ihrer Erkenntnis, dass Text vorhersehbare Muster enthält. Diese Muster können mathematisch beschrieben werden, sodass Computer sie erkennen und dann statistische und mathematische Operationen damit durchführen können. Zum Beispiel scheint es offensichtlich, dass je mehr ein Dokument „über“ ein Thema ist, desto häufiger Wörter, die sich mit diesem Thema befassen, im Text vorkommen. Umgekehrt sollten diese Begriffe in Dokumenten, die nicht „über“ dieses Thema sind, nicht sehr häufig vorkommen. Dies ist die rudimentäre Idee hinter dem Relevanzranking in Retrievalsystemen.

Ansammlungen bestimmter Begriffe sind noch bessere Indikatoren dafür, dass ein Dokument ein bestimmtes Thema behandelt. Das Auftreten von gleichzeitig vorkommenden Begriffen bestimmt genauer, wann ein Thema im Mittelpunkt eines Dokuments steht. Nichts davon erfordert, dass wir die Bedeutung der Wörter verstehen, sondern lediglich die Muster, die die Wörter im Text zeigen.

Natürlich könnten wir dieses Prinzip verschönern, indem wir sagen, dass Wörter im Titel wichtiger sind als Wörter im Hauptteil des Dokuments. Wir könnten hinzufügen, dass das Dokument umso wahrscheinlicher ist, je näher themenrelevante Wörter beieinander auftauchen. Oder, wenn die Wörter in einem Hauptabsatz vorkommen, sind sie wichtigere Indikatoren für das Thema als wenn sie in Absatz fünf erscheinen. Dies ist, was erfahrene Sucher tun, wenn sie eine Suche erstellen. Es ist keine Magie.

Wenn wir diese Muster beschreiben können, können wir einen Computer programmieren, um sie zu finden. Die erste mathematische Operation, die Suchmaschinen ausführen, ist das Zählen, was Computer sehr gut und sehr schnell ausführen. Computer zählen, wie oft ein Begriff oder mehrere Begriffe in einem Dokument vorkommen, und weisen dann eine Gewichtung oder Zahl zu, die diese Anzahl repräsentiert, um ein Dokument von einem anderen zu unterscheiden. Diese Gewichtungsberechnung berücksichtigt normalerweise, wie selten der Begriff in der gesamten Datenbank ist – wie oft er in jedem Dokument der Sammlung vorkommt. Seltene Begriffe sind oft gute Unterscheidungsmerkmale und erhalten ein höheres Gewicht.

Suchmaschinen können auch Begriffe abschneiden, um Plural- und Singularformen einzuschließen. Begriffen, die im Titel oder Hauptabsatz erscheinen, kommt häufig zusätzliches Gewicht zu, wie bei Dokumenten, die mehrere Abfragebegriffe im selben Satz oder im selben Absatz enthalten. Die meisten Suchmaschinen „normalisieren“ Ergebnisse auch, um Variationen in der Länge von Dokumenten zu berücksichtigen, da längere Dokumente wahrscheinlich mehr Vorkommen eines Begriffs enthalten. Wenn ein Suchsystem Ihre Suchbegriffe Dokumenten zuordnet, addiert es die Gewichtungen für jeden Suchbegriff, der in einem Dokument erscheint, und weist diesem Dokument eine Punktzahl zu. Dann vergleicht es alle Punktzahlen und präsentiert die höchste zuerst. Dies ist das Relevanz-Ranking auf den Punkt gebracht.

Statistiken und Muster fließen in einer Reihe anderer Kontexte in fortschrittliche Retrieval-Systeme ein. Um beispielsweise festzustellen, ob ein Dokument mit einer Abfrage übereinstimmt, muss das System die Ähnlichkeit des Dokuments mit der Abfrage berechnen. Der menschliche Verstand tut dies, ohne einen Algorithmus auszuprobieren. Computer müssen sowohl die Abfrage als auch das Dokument in eine Art Darstellung übersetzen. Über diese Aufgabe haben Experten ganze Bücher geschrieben.

Ein Ansatz besteht darin, sowohl die Abfrage als auch das Dokument in einen „Vektor“ zu übersetzen – eine Linie, die in einem bestimmten Winkel von der Mitte eines imaginären Raums ausgeht. Stellen Sie sich diesen Raum als einen Wegweiser in der Mitte vor, wobei jedes einzelne Schild in eine etwas andere Richtung zeigt. Die Worte im Dokument weisen alle auf bestimmte Richtungen in dieser imaginären Landschaft hin. Dokumente, die ähnliche Wörter enthalten, weisen in dieselbe allgemeine Richtung, je ähnlicher diese Dokumentbegriffe sind, desto näher liegen ihre Winkel beieinander. Wir können diese Winkel messen, um uns ein gewisses Maß an Ähnlichkeit zu geben. Dieses Vektorraummodell kann helfen, das Relevanzranking zu berechnen, aber es kann auch Cluster oder Klumpen ähnlicher Dokumente bestimmen. Dies ist die Grundlage für die meisten Sternkarten oder imaginären Landschaftsvisualisierungen, die verwendet werden, um den Inhalt einer Datenbank oder eines abgerufenen Dokumentensatzes anzuzeigen.

Diese statistischen Techniken funktionieren in den meisten Fällen überraschend gut. Diese Techniken funktionieren jedoch nicht bei jeder Abfrage. Das liegt in der Natur statistischer Methoden. Wenn wir auf eine Ausnahme von der Regel treffen, können die Fehler im Gegensatz zu menschlichen Fehlern eklatant sein. Wenn beispielsweise eine Abfrage sowohl ein sehr wichtiges Konzept, das in einem extrem häufigen Begriff ausgedrückt wird, als auch ein sehr untergeordnetes Konzept, das in einem seltenen Begriff ausgedrückt wird, enthält, kann der seltene Begriff die Relevanzrangfolge verzerren, da er eine höhere Gewichtung als der allgemeine Begriff hat.

Denken Sie auch daran, dass statistische Systeme eine Abfrage nicht „verstehen“, sondern mit den Zahlen arbeiten. Viele Bedeutungen für dasselbe Wort entziehen sich dieser Art von Technologie. Finanzinstitute können als Umweltwissenschaften klassifiziert werden, wenn das Wort „Bank“ ist. Da Bank jedoch nicht in Kombination mit anderen Umweltbegriffen auftaucht, würde ein statistisches System einen solchen falschen Rückgang einstufen, wenn eine Anfrage länger als ein Wort ist niedrig. Daher sehen Suchmaschinen sehr dumm aus, indem sie Fehler machen, die ein Mensch mit einem halben Gehirn niemals machen würde. Dies könnte erklären, warum Suchmaschinen bei den meisten professionellen Suchenden einen so schlechten Ruf haben, dass ihre Fehler unvernünftig sind. Dies liegt daran, dass die Bedeutung der abgerufenen Begriffe nicht Teil der Gleichung für die statistische Verarbeitung ist.

Verarbeitung natürlicher Sprache
Um ein hochmodernes Informationssystem aufzubauen, muss man jedem Dokument so viel Bedeutung wie möglich entnehmen. Eine Liste von Wörtern oder sogar Wörtern und Phrasen reicht nicht aus. Kontext und Bedeutung müssen erhalten bleiben. Nur ein System, das in der Lage ist, Bedeutungen zu unterscheiden, kann Artikel über Terroristen anstelle von Rugby-Spielen zurückgeben, wenn es nach Anschlägen, Scharmützeln und Schlachten in Ruanda gefragt wird. Ein bedeutungsbasiertes System wird auch in Frage 9 unserer Stinker-Liste Vorhersagen über die zukünftige, nicht die vergangene Produktion von Widgets in Sambia zurückgeben können.

Um ein fortschrittliches Informationssystem zu erstellen, muss zunächst eine Wissensbasis aufgebaut werden. Diese Basis enthält alle Dokumente im System und ihre Wörter, aber auch zusätzliche Informationen, um Bedeutungen aufzulösen und Mehrdeutigkeiten aufzulösen. Ein gutes auf natürlicher Sprache basierendes System bildet die Grundlage für dieses System, da es Sätze gründlich analysiert, Bedeutungen aus dem Kontext extrahiert und schlau genug ist, um zu erkennen, dass Hilary Rodham Clinton und die First Lady im Jahr 1999 dieselbe Person sind . Es wird ein Werkzeug zur Dokumentenverarbeitung benötigt, das viele Bedeutungsebenen extrahieren und speichern kann sowie Dokumente automatisch kategorisiert und alle Varianten von Eigennamen identifiziert. Jede Bedeutungseinheit kann auch einen Zeitstempel enthalten, der sich auf den Inhalt bezieht, nicht auf das Datum, an dem jemand das Dokument in die Datenbank aufgenommen hat. Wenn relevante Daten vorhanden sind, können spätere Tools automatisch Chronologien von Ereignissen extrahieren. Chronologische Informationen ermöglichen es dem System auch, je nach Zeitpunkt und Kontext der Frage zwischen den First Ladies Barbara Bush und Hilary Clinton zu unterscheiden. Die Informationen in der Wissensdatenbank sollten auch als separate Einheiten abrufbar sein, beispielsweise als einzelner Satz oder Absatz, wenn wir direkte Antworten auf Fragen liefern möchten.

Ich betone diesen Schritt zum Aufbau einer Wissensdatenbank, weil die meisten Unternehmen das Geld, die Zeit und den Aufwand, die zum Entwerfen einer Wissensdatenbank erforderlich sind, nicht bereitwillig innerhalb weniger Jahre mehr als einmal investieren werden. Jedes zukünftige erweiterte Informationstool wird auf den Inhalten dieser Wissensdatenbank arbeiten. Daher sollte die Gewinnung von so viel Wissen wie möglich die Flexibilität in Zukunft erhöhen, um neue Technologien zu übernehmen, sobald sie auftauchen. Wir können jetzt nicht wissen, welche Tools, in welchen Formaten, die Forschung und der Markt in den nächsten 5-10 Jahren liefern werden. Kompatibilität wird immer ein Problem sein. Rohes Wissen ändert sich jedoch nicht. Je mehr Handles Sie erstellen, um eine Information zu erfassen, desto größer ist die Chance, dass Sie sie bei Bedarf abrufen können. Das gleiche Prinzip, das beim Scannen von Sammlungen zum Digitalisieren in hoher Auflösung rät: Bauen Sie das Fundament mit Bedacht und Reichhaltig auf, denn Sie werden nie wieder bei Null anfangen können.

Wenn wir fortschrittliche Informationssysteme aufbauen, werden wir verlangen, dass die Systeme Text so verstehen, wie wir es tun. Auf natürlicher Sprache (NLP) basierende Systeme sind derzeit die einzigen, die diese Beschreibung beantworten können. Während NLP-Systeme Begriffe abgleichen, wie dies sowohl bei booleschen als auch bei statistischen Suchmaschinen der Fall ist, extrahieren die Systeme auch Bedeutungen aus Syntax, integrierten Lexika, Kontext und sogar der Struktur des Textes selbst. Dies ist, was Menschen tun, um herauszufinden, was ein Dokument bedeutet.

Viele Leute glauben, dass statistische und NLP-Systeme in bibliografischen Datenbanken nicht so gut funktionieren, weil ihre Stärke in der Volltextsuche liegt. Es stimmt, diese Systeme sind nicht dafür ausgelegt, gut mit Dokumentdatensätzen zu arbeiten, die keinen wesentlichen Text enthalten. Daher wird gesagt, dass bibliografische Datensätze, wie sie in einem typischen Bibliothekskatalog erscheinen, keine guten Kandidaten für diese fortgeschrittenen Retrieval-Systeme sind. Ich habe jedoch festgestellt, dass diese Systeme beim Durchsuchen bibliografischer Datenbanken genauso effektiv sind wie boolesche Systeme, da die meisten bei Bedarf standardmäßig auf eine entspannte boolesche Abfrage zurückgreifen können. Als zusätzlicher Vorteil bedeutet die Fähigkeit der Systeme, die Beschränkungen einer Abfrage zu lockern, dass gelegentliche Tippfehler in relevanten Datensätzen ignoriert werden, die ein boolesches System aus den Ergebnissen eliminieren würde.

Intelligente Agenten
Stellen Sie sich ein Informationssystem vor, das lernte, was Sie suchten, und begann zu antizipieren, was Sie gerne sehen würden. Obwohl dies nach Star Wars klingen mag, existiert diese Fähigkeit heute in embryonaler Form. Interaktionen mit heutigen Systemen sind zeitlich fixiert. Der Suchende muss eine Abfrage ändern, um noch nicht gefundene Dokumente zu finden und manuell neue Indexierungsbegriffe hinzuzufügen. Wir brauchen Systeme, die sich sowohl an die sich ändernden Interessen der Nutzer als auch an geänderte Begriffe zur Beschreibung jedes Themas anpassen. Techniken des maschinellen Lernens können ein Informationssystem dynamisch machen.

Nehmen wir zum Beispiel an, Sie haben vor 3 Jahren einen Alert für alles zum Thema „Information Retrieval“ eingerichtet. Wenn Sie Ihr Alert-Profil nicht ändern würden, würden Sie alle Artikel über Data Mining, Wissensmanagement oder automatische Zusammenfassung verpassen. Ein intelligentes Agentensystem könnte das Aufkommen dieser neuen Begriffe erkennen. Das System würde Hinweise im Auftreten von Data Mining als einem gleichzeitig auftretenden Begriff mit Information Retrieval finden. Oder das Agentensystem stellt möglicherweise fest, dass Sie Artikel über Data Mining gelesen haben, und fragt, ob Sie diesen Begriff zu Ihrem Profil hinzufügen möchten. Es kann so programmiert sein, dass es neuen Internetlinks von Websites folgt, die Sie interessieren, oder es könnte regelmäßig eine aktualisierte Abfrage bei allen Websuchmaschinen ausführen und dann diesen Links folgen. Dies ist von immenser Bedeutung in einer Welt, in der eine Reuters-Umfrage 1997 ergab, dass die meisten Fachleute mehr Zeit damit verbrachten, Informationen zu suchen als sie zu nutzen.

Intelligente Agenten sind Softwareprogramme, die maschinelles Lernen verwenden. Agenten haben keine angeborene Intelligenz. Obwohl Agenten in Situationen arbeiten können, denen irgendwelche Muster oder Regeln zugrunde liegen, können Agenten nicht in völligem Chaos oder mit zufälligen Eingaben arbeiten. Die Muster oder Regeln, auf die sie sich stützen, können von Menschen beschrieben oder vom agentenbasierten System selbst entwickelt werden. Ein Agentensystem entwickelt Regeln aus Sätzen repräsentativer Daten und Abfragen – ein Trainingssatz. Während der Trainingsphase „lernen“ Systemagenten die besten Matches, indem sie verschiedene Matches ausprobieren und Korrekturen durch menschliche Eingaben erhalten. Letztendlich erstellen Agenten ein Muster dafür, was eine „gute Übereinstimmung“ ausmacht

Agentensysteme sind autonom, d. h. sie können innerhalb eines sorgfältig definierten Regelwerks Aktionen auslösen. Sie sind auch anpassungsfähig und in der Lage, mit anderen Agenten und mit dem Benutzer zu kommunizieren. Agenten können mobil sein und über das Internet oder andere Netzwerke reisen, um verschiedene Aufgaben auszuführen, wie zum Beispiel das Auffinden oder Liefern von Informationen, das Bestellen von Büchern oder das Überwachen von Ereignissen. Am wichtigsten ist, dass Agenten ihr Verhalten an eine neue Situation anpassen können. Sie lernen und verändern sich.

Einige Agentensysteme existieren heute. Siehe den Botspot [http://www.botspot.com] für eine ausführliche Liste und Beschreibung solcher Systeme. Die Agenten der Microsoft Office Suite sind nur ein Anfang. Sie sind nicht anpassungsfähig und folgen festgelegten Regeln. Diese Agenten geben Hinweise, nehmen und beantworten manchmal Fragen zu Funktionen der Software und sind leicht amüsant. Letztendlich können wir erwarten, dass sich Agentensysteme an unsere Präferenzen für Formate oder andere sich wiederholende Aktionen, die wir ergreifen, anpassen – wie das Öffnen von Anträgen in bestimmten Bestellungen oder das Abrufen von E-Mails zu einer bestimmten Tageszeit – und diese Aufgaben automatisch ausführen.

Schließlich werden Agenten eine große Rolle in den derzeit in Entwicklung befindlichen Entscheidungsunterstützungssystemen spielen. Diese Systeme verwenden eine Wissensdatenbank, um frühere Situationen zu finden und zu vergleichen, die auf aktuelle Probleme zutreffen, alternative Lösungen anzubieten und möglicherweise Szenarien für jede Alternative zu erstellen.

Diese drei Disziplinen – Statistik, natürliches Sprachverständnis und intelligente Agenten – bilden die Grundlage für das Verständnis und die Nutzung der Informationswerkzeuge der Zukunft. Während es möglich sein wird, diese Werkzeuge zu verwenden und ihr Innenleben nie zu verstehen, werden diejenigen, die sich mit den Regeln der Oberfläche befassen, sie am effektivsten einsetzen. Auch scheinbare Anomalien und Fehler werden weniger rätselhaft.

NLP-basierte Technologien
Indem sie Bedeutungen untersuchen, anstatt nur Wortketten abzugleichen, können NLP-Systeme viele Retrieval-Probleme intelligent lösen. Dazu gehört die Identifizierung von Konzepten, auch wenn unterschiedliche Begriffe verwendet werden, um dieselbe Idee zu beschreiben. NLP-Systeme sollten die Namen von Personen, Orten oder Dingen in jeglicher Form identifizieren. Die Systeme könnten auch Sprachverarbeitung, das Zusammenfassen von Dokumenten und sogar Gruppen von Dokumenten sowie das automatische Indizieren und Klassifizieren von Dokumenten umfassen. Jeder dieser Aspekte repräsentiert einen eigenen Forschungsbereich mit Werkzeugen in der Entwicklung oder teilweise bereits auf dem Markt.

Konzeptextraktion und -zuordnung
Concept Mapping ist der Schlüssel zu vielen neuen Technologien am Horizont. Sprache bietet reiche Alternativen, wie eine Idee ausgedrückt wird. Es gibt nicht nur direkte Synonyme, sondern auch Metaphern, Gleichnisse und andere literarische Mittel.Diese Geräte erfreuen den Leser, aber verwirren den Computer. Wir brauchen Systeme, die all diese Sprachebenen nutzen können, um Bedeutungen richtig zu interpretieren und ähnliche Ausdrücke einer Idee mit demselben Konzept zu verknüpfen.

  • Suchen Sie fachübergreifend und verwenden Sie verschiedene Vokabulare, um dieselbe Idee auszudrücken.
  • Suchen Sie in mehreren Sprachen nach demselben Thema.
  • Identifizieren und rufen Sie alle Varianten eines Namens oder Ortes ab, egal wie eine Frage formuliert ist.
  • Materialien automatisch indexieren.

Vocabulary Mapping, eine Form dieser Technik, ermöglicht einem Suchenden, der MESH-Begriffe in MEDLINE verwendet, eine intelligente Suche in CINAHL, einer anderen medizinischen Datenbank mit einem anderen Thesaurus unter Kontrolle. Somit sind der Idee von Baum mehrere Begriffe zugeordnet, wie unten in gezeigt Figur 3.
Dabei handelt es sich um eine Technologie, die bereits mit unterschiedlichen Ausprägungsgraden vorhanden ist. Es wird in den folgenden Bereichen verwendet.

Maschinenunterstützte und automatische Indexierung
Die maschinelle oder automatische Indexierung (MAI) findet wichtige Begriffe in Texten, ordnet sie einem internen Thesaurus oder kontrolliertem Vokabular zu und wendet Indexbegriffe automatisch an. Es kann auch wichtige Namen extrahieren, Wörter eindeutig machen und neue Terminologie identifizieren, die Indexer zum System hinzufügen können. MAI bietet Indexern Kandidatenbegriffe zur Genehmigung an. Bei der automatischen Indexierung werden diese Begriffe ohne menschliches Eingreifen angewendet.

Die maschinell unterstützte Indexierung gibt es schon lange. Die meisten dieser Systeme sind regelbasiert und weisen Begriffe auf der Grundlage von Regeln zu, wie z. Data Harmony/Access Innovations ist bekannt für seine regelbasierten maschinengestützten Indexierungssysteme. Northern Light verwendet von menschlichen Indexern entwickelte Regeln, um allen Dokumenten für seine benutzerdefinierten Ordner automatisch allgemeine Begriffe zuzuweisen. Autonomy verwendet maschinelles Lernen, um Materialien automatisch zu kategorisieren, und Semio erstellt automatisch Taxonomien oder Hierarchien. Systeme wie DR-LINK, entwickelt von Dr. Elizabeth Liddy an der Syracuse University, weisen Themencodes zu, um Wörter eindeutig zu machen. Einige MAI-Systeme arbeiten mit einer Genauigkeit von bis zu 80 Prozent, was im Vergleich zur manuellen Indexierung günstig ist.

Einige experimentelle Ansätze verwenden Wahrscheinlichkeit und Statistik, um Materialien zu kategorisieren. Muscat, jetzt im Besitz von Dialog, ist ein gutes Beispiel für diesen Ansatz. Andere experimentieren mit neuronalen Netzen zur automatischen Klassifizierung.

MAI-Systeme können auch wichtige Namen aus dem Text extrahieren oder Begriffe „disambiguieren“. Betrachten Sie den Begriff „Bank“. Dies kann ein Ort zum Aufbewahren von Geld sein, ein Flussufer, eine Abbiegung eines Flugzeugs oder die Steigung einer Kurve auf einer Autobahn oder Eisenbahn. In zunehmendem Maße verwenden Web- und andere Suchmaschinen die automatische Indexierung, um eindeutige oder breite Kategorien für das Browsen zu erstellen.

MAI kann den Indexierungs- und Abstraktionsprozess beschleunigen, der für die Vorbereitung von Datenbanken erforderlich ist. Es hilft insbesondere bei der Bewältigung von Aufgaben mit hohem Volumen wie der Zuweisung von Metadatenbegriffen zu Webdokumenten.

Automatische Zusammenfassung
Vor nicht allzu langer Zeit konnte niemand Informationen finden. Jetzt ist es zu viel. Jedes Werkzeug, das uns schnell zum Wichtigsten bringt, ist wertvoll. Schnelle, automatisch erstellte Zusammenfassungen haben dieses Potenzial. Es gibt zwei Arten der automatischen Zusammenfassung. Die erste fasst ganze Dokumente zusammen, entweder durch Herausziehen wichtiger Sätze oder durch Umformulieren und Kürzung des Originaltextes. Die meisten Zusammenfassungstools, die sich derzeit in der Entwicklung befinden, extrahieren Schlüsselpassagen oder Themensätze, anstatt das Dokument neu zu formulieren. Umformulieren ist eine viel schwierigere Aufgabe.

Der zweite Prozess fasst über mehrere Dokumente hinweg zusammen. Die dokumentübergreifende Zusammenfassung ist schwieriger, aber potenziell wertvoller. Es wird den Wert von Warndiensten erhöhen, indem die abgerufenen Informationen in kleineren, besser zu verwaltenden Berichten zusammengefasst werden. Die dokumentübergreifende Zusammenfassung ermöglicht es uns, vielbeschäftigten Kunden einen sehr kurzen Überblick über neue Entwicklungen zu geben. Wir können davon ausgehen, dass einige Tools dies in den nächsten 2-4 Jahren tun werden.

Sprachübergreifender Abruf
Forschungsgemeinschaften erstrecken sich mittlerweile über den ganzen Globus. Forscher müssen wissen, was in ihren Bereichen vor sich geht, unabhängig von der Sprache der Quelle, z. B. Unternehmen, die in Umfang und Interesse global agieren. Zwei Ansätze sind in Entwicklung. Die erste übersetzt Text von einer Sprache in eine andere. Die zweite ordnet Wörter in derselben Sprache einem einzigen codierten Konzept zu, genau wie das Konzept-Mapping. Selbst grobe Formulierungen oder schlechte Übersetzungen sind für den sprachübergreifenden Abruf ausreichend. Wir können es auch zum Abrufen von fremdsprachigen Dokumenten verwenden, auch wenn wir die Dokumente nicht perfekt übersetzen können. Die Kombination aus Concept Mapping und automatischer Zusammenfassung kann einen groben Glanz oder eine Übersicht über einen Artikel liefern, sodass ein Forscher entscheiden kann, ob er ein ganzes Dokument lesen möchte.

Entitätsextraktion
Entitäten sind Namen von Personen, Orten oder Dingen. Wie wir alle wissen, sind Entitäten in einer Dokumentensammlung oft schwer zu finden, da sich viele abweichende Begriffe auf dieselbe Person beziehen können. Beispielsweise kann AT&T auch als AT und T oder AT&T gefunden werden. Marcia Bates kann als Bates, M oder Bates, Marcia erscheinen, sollte aber nicht mit Mary Ellen . verwechselt werden Bates. Präsident Clinton war einst Gouverneur Clinton und ist immer noch Bill
Clinton und William Jefferson Clinton, ganz zu schweigen vom „Präsidenten“.

Neuere Informationssysteme entwickeln Listen von Namensvarianten, so dass alle Formen eines Namens dem gleichen Konzept entsprechen und alle Datensätze abrufen, egal welcher Begriff in einer Abfrage vorkommt. Diese Systeme können auch eingebaute Lexika mit Fachbegriffen und geografischen Namenserweiterungen enthalten, z. B. um Frankreich einzuschließen, wenn der Suchende nach Europa fragt. Systemadministratoren sollten Zugriff auf die Lexika haben, um interne Thesauri und Vokabeln hinzuzufügen. Sie sollten auch neue Namen oder Begriffe hinzufügen, wenn sie in neuen Materialien vorkommen. NetOwl ist ein Beispiel für ein Produkt, das Entitäten extrahiert. Seit Jahrzehnten verwendet LEXIS-NEXIS Namensvarianten, um das Abrufen zu verbessern, aber automatisierte Extraktion und Speicherung verleihen dieser Richtlinie weitaus mehr Macht.

  • Die ISA-Beziehung definiert, wer oder was das Subjekt ist: „Gil Shahan ist ein guter Geiger.“
  • Die AGENTOF-Beziehung beschreibt, wer oder was ein Ereignis verursacht hat oder einen kausalen Zusammenhang hatte: „Erhöhtes Ozon in der südlichen Hemisphäre verursacht schwere Sonnenbrände.“

Wie wir gesehen haben, reichen Worte allein oft nicht aus, um eine Bedeutung zu bestimmen. Wenn man den Kontext, die Syntax und die eindeutige Bedeutung jedes Satzes als Einheit speichern kann, kann man ein gutes Frage-Antwort-System aufbauen. Tools wie diese können Fragen beantworten wie: „Wer hat den Präsidenten der Consolidated Widget Company gefeuert?“

Chronologische und numerische Extraktionen
Wenn ein System feststellen kann, wann und welches Ereignis aufgetreten ist oder wie groß etwas im Vergleich zu etwas anderem ist, kann es Fragen beantworten wie „Wann wurde Netscape von AOL gekauft?“ oder „Alle Widget-Unternehmen finden, die mehr produzieren“ als 5 Millionen Widgets pro Jahr. Mit dieser Art von Informationen, die aus ihren Inhalten extrahiert werden, kann das System auch Chronologien von Ereignissen erstellen. Dies mag nicht weltbewegend erscheinen, da man vielleicht eine Biographie einer Person findet, anstatt sie zu konstruieren, aber stellen Sie sich die Möglichkeiten vor, wenn das System die Entwicklung eines Konkurrenten rekonstruieren und dann dieses Modell verwenden könnte, um Nachrichten für aufstrebende Konkurrenten zu überwachen, bevor Sie sie identifiziert haben Ihnen.

Text-Mining
Text-Mining-Technologien unterscheiden sich von der Suche, da sie Fakten und Muster in einer Datenbank finden. Mit anderen Worten, Text Mining betrachtet die gesamte Datenbank, nicht nur ein einzelnes Dokument, und extrahiert dann Informationen aus allen relevanten Dokumenten, um Muster im Laufe der Zeit oder innerhalb eines Themas aufzudecken. Diese Technologien führen einige Textanalysen in einer Datenbank durch, um dem Benutzer Muster, Chronologien oder Beziehungen darzustellen.

Bibliothekare betreiben Data Mining fast implizit – für sie fallen Informationen in Muster, Gruppen, Cluster und Hierarchien. Auch wenn es uns als selbstverständlich erscheinen mag, ist es tatsächlich ein seltenes Talent. Wie kann Software dasselbe erreichen? Nun, es kann nicht mit irgendeiner Intelligenz. Aber denken Sie daran, dass Sprache aus Mustern besteht. Diese Tatsache lässt uns neue, aber dennoch verständliche Sätze generieren. Wenn Sie die Hinweise identifizieren, die Ihnen zum Beispiel sagen, dass etwas eine Vorhersage ist, kann die Software denselben Regeln folgen, um Vorhersagen zu finden, z. B. mit Begriffen wie „bis nächstes Jahr“, „im Jahr 2010“. von der Qualität der Wissensbasis, auf der es operiert. Wenn Beziehungen, Konzepte, chronologische Informationen und Entitäten bereits extrahiert wurden, kann der Text-Mining-Prozess diese Informationen nutzen und darin nach Mustern suchen.

Frage-Antwort-Systeme
Oft verlieren wir den Zweck der Informationsbeschaffung aus den Augen, der in der Regel darin besteht, Fragen zu beantworten und nicht nur Dokumente abzurufen. Frage-Antwort-Systeme suchen in Dokumenten oder Wissensdatenbanken nach Antworten. Wenn Sie beispielsweise ein Frage-Antwort-System stellen, „Wann wurde das Wye River-Abkommen unterzeichnet?“, erhalten Sie eine Antwort vom Oktober 1998 anstelle einer Liste von Dokumenten über das Wye-River-Abkommen, die enthalten sein kann oder nicht die Antwort. Frage-Antwort-Systeme finden die am besten passenden Antworten, die aus übereinstimmenden Dokumenten extrahiert werden. Wenn Benutzer weitere Informationen benötigen, können sie auf die Quelldokumente verlinken.

Filtern, Überwachen oder Warnen
Der Unterschied zwischen Filtern und Ad-hoc-Suchen besteht darin, dass sich bei der Suche die Suche ändern kann, die Datenbank jedoch gleich bleibt, während beim Filtern die Suche gleich bleibt, sich jedoch die Daten ändern, mit denen die Suche übereinstimmt. Beim Filtern wird nur nach neuen interessanten Dokumenten gesucht. Um einen Filter einzurichten, erstellt der Benutzer ein Profil oder eine „ständige Abfrage“, die gegen alle Neuzugänge in der Datenbank ausgeführt wird. Die Kunst, eine ständige Abfrage zu entwerfen, besteht darin, eine Abfrage zu erstellen, die breit genug ist, um zu verhindern, dass wichtige Entwicklungen ausgelassen werden, und sie gleichzeitig eng genug zu gestalten, um zu verhindern, dass zu viele Informationen den Benutzer überfluten.

Wie bei jeder anderen Suchtechnologie hängt auch das Filtern oder Alerting von der Qualität der verwendeten Suchmaschine ab. Eine Suchmaschine, die eine gezielte Suche ermöglicht, vorzugsweise mithilfe einer Art von Begriffsklärung und Konzeptextraktion, wird höchstwahrscheinlich verwandte Themen erfassen.

Eines der Hauptprobleme bei jeder Art von ständigen, fortlaufenden Abfrage- oder Überwachungsdiensten besteht darin, dass sich die Terminologie in jedem Bereich im Laufe der Zeit ändert. Ebenso die Interessen eines Benutzers. Die meisten der heutigen Alarmierungsdienste sind jedoch statisch. Wer auf Profile angewiesen ist, muss diese regelmäßig aktualisieren. Als Beispiel ist meine eigene, drei Jahre alte Warnung zum Thema „Information Retrieval“ heutzutage sehr wenig interessant. Stattdessen muss ich Suchmaschinen, Data Mining, Text Mining, Filtering and Routing, Natural Language Processing, Knowledge Management und viele andere neue Begriffe hinzufügen. Neuere Systeme, die eine Art maschinelles Lernen oder intelligente Agenten beinhalten, sind für eine gute kontinuierliche Überwachung von Themen unerlässlich. Filtertools, die maschinelles Lernen integrieren, können neue Begriffe erkennen und anbieten, sie zu einer Dauerabfrage hinzuzufügen. Außerdem können sie Veränderungen der Nutzerinteressen feststellen und die Abfrage an diese neuen Themen anpassen.

Änderungsüberwachung
Die Änderungsüberwachung ist eine spezielle Art der Filterung. Es überwacht etablierte Dokumente oder Websites und stellt fest, wann darin Änderungen aufgetreten sind. Die Technik ist zu einem wichtigen Bestandteil der Wettbewerbs- oder Ereignisüberwachung geworden. Bleibt die Website eines Mitbewerbers unverändert, ignoriert das System diese, schlägt aber bei wesentlichen Änderungen und Ergänzungen eine rote Flagge. Ebenso müssen offizielle Stellen, die mit der Sammlung und Archivierung von Regierungsdokumenten beauftragt sind, wissen, wenn eine neue Überarbeitung eines Formulars, Dokuments oder Gesetzes erscheint.

Ein Unternehmen, das Webseiten auf Änderungen überwacht, ist Ingenius Technologies [http://www.ingetech.com]. Ihr JavElink überwacht eine Liste der vom Client bereitgestellten URLs und meldet nur die Änderungen. Die visuelle Anzeige macht es leicht, auf einen Blick zu erkennen, was sich geändert hat (siehe Figur 4). Ingenius verwendet diese Technologie auch, um E-Mail-Benachrichtigungen zu erstellen [NetBrief, http://www.netbrief.com], die nur den geänderten Text einer Site enthalten. Die Ingenius-Site zeigt als Beispiele mehrere kostenlose Benachrichtigungen zu beliebten Themen an.

Eine neue Erweiterung von NetBrief versendet täglich eine E-Mail mit URLs und kurzen Auszügen passend zu den Kunden-Keywords. Jeden Tag überprüft InGenius 100 Online-Tageszeitungen sowie Dutzende von Wirtschafts- und Fachpublikationen. Kunden können nach Belieben neue Sites oder Suchmaschinen hinzufügen. Sie können auch bestimmte Quellen oder Themen gezielt einbeziehen oder ausschließen.

Visualisierung
Das menschliche Auge versteht visuelle Darstellungen viel schneller als es Text lesen kann. Wie ein altes Sprichwort sagt: „Ein Bild sagt mehr als tausend Worte.“ Vergleichen Sie die Einfachheit und Geschwindigkeit, ein Bild von Menschen zu erkennen, die bei einem Picknick unter einem Baum sitzen, mit dem Lesen einer Beschreibung derselben Szene. Um Menschen bei der Interpretation großer Datenmengen oder Dokumente zu helfen, entwerfen viele Forscher visuelle Äquivalente des Textes, damit Benutzer die Informationen auf einen Blick erfassen können.

Visualisierung hilft bei der Bewältigung der Informationsüberflutung. Stellen Sie sich vor, Sie könnten dem CEO eines Unternehmens statt einer fünfseitigen Zusammenfassung einen visuellen Überblick über die Entwicklungen der Woche auf einer Seite geben. Visuelle Informationssysteme sind auch für das Krisenmanagement, die Flugsicherung und andere Situationen von entscheidender Bedeutung, in denen Menschen sofort auf viele Informationen reagieren müssen.

Effektive visuelle Darstellungen werden durch die Beschränkungen des Computerbildschirms eingeschränkt. Es gibt nur eine begrenzte Menge an Informationen, die auf dem standardmäßigen 14- oder 15-Zoll-Monitor effektiv angezeigt werden können. Ein Beispiel für eine nette Schnittstelle finden Sie in der Beschreibung der Schnittstelle zu Phrasier [http://www.cs.waikato.ac.nz/

stevej/Forschung/Phrasier], ein innovatives System zum Durchsuchen von Phrasen. Das Bildschirmdesign dieses Produkts ist zu groß für einen Standardbildschirm, enthält jedoch alle Elemente, die ein Benutzer haben möchte, um gut mit einem Informationssystem zu interagieren. Es zeigt Dokumente, verwandte Konzepte und Schlüsselsätze an einem Ort an. Abbildung 5 zeigt einen Teil des Bildschirms an.

Die meisten visuellen Präsentationen von Informationen, die wir heute sehen, sind experimentell. Wir wissen wirklich nicht, wie die Leute mit ihnen interagieren. Kognitionspsychologen, Online-Experten und Informatiker brauchen mehr als nur anekdotische Informationen aus Usability-Tests, um Leitlinien für gutes Design aufzustellen. Wir wissen, dass Menschen viele verschiedene kognitive Stile haben und dass sie für eine effiziente Interaktion mit Computern Werkzeuge und Schnittstellen benötigen, die zu ihrer Denkweise passen. Die große Herausforderung wird darin bestehen, herauszufinden, wie der Verstand funktioniert, und dann Werkzeuge zu entwerfen, die auf diesem Wissen basieren.

Einige Konzepte sind ziemlich einfach effektiv zu visualisieren. Balkendiagramme oder auch unterschiedlich große Quadrate können schnell vergleichende Größen, Mengen oder Zahlen veranschaulichen. Zeitleisten können zeitabhängige Ereignisse anzeigen. Die Nähe von Objekten kann auf enge Beziehungen hinweisen. Kreisdiagramme zeigen, wie die Teile ein Ganzes bilden. Wenn wir von diesen gemeinsamen Konzepten dazu übergehen, Beziehungen zwischen Menschen und Orten im Laufe der Zeit darzustellen, müssen wir eine neue Bildgebung erfinden.

Eine Visualisierung sitzt auf den Informationen, die von einem System abgerufen werden. Während die Schnittstelle bestimmt, wie die Informationen angezeigt werden, hängt die Anzeige von den extrahierten Daten ab. So lassen sich Relevanzrankings einfach als Balkendiagramme darstellen. Die Menge der zu einem Thema verfügbaren Informationen kann als eine Reihe von farbigen Kästchen unterschiedlicher Größe angezeigt werden.

Das zuvor besprochene Vektorraummodell liegt unter den meisten Visualisierungen von Themeninhalten. Es kann Sternkarten erstellen, die Gruppen von Dokumenten zeigen, oder die imaginären Landformkarten von Cartia]. Sehen Sie sich diese Visualisierung einer Reihe von Suchergebnissen von Cartia in . an Abbildung 6. Die höchsten Spitzen repräsentieren Themen mit den meisten Dokumenten. Die Nähe der Hügel zeigt Nähe.

Der Browser des Human Computer Interaction Laboratory [HCIL, http://www.cs.umd.edu/hcil/ndl/ndldemo/draft11/daveloc4.html] an der University of Maryland gibt einen sofortigen Überblick über die Sammlungen der Library of Congress. Wenn Sie mit der Maus über jede Zeitleiste fahren, wird sie blau, ebenso wie die Arten von Sammlungen, die Informationen über diesen Zeitraum enthalten.

Die Formulierung von Anfragen ist eine der schwächsten Stellen im Informationsprozess. Mehrere Unternehmen und Forschungsgruppen haben visuelle Hilfen zur Formulierung von Abfragen entwickelt, aber ich mag immer noch den Text-Power-Suchbildschirm von DR-LINK, entwickelt von Dr. Liddy an der Syracuse University, der Ihnen zeigt, wie der Computer Ihre Suche interpretiert hat und Ihnen eine Chance, es zu ändern (siehe Abbildung 7).

Spotfire (siehe Abbildung 8) und Dotfire, seine neueste Form, sind dynamische Abfragetools. Diese Tools bieten eine Reihe von Kategorien, die helfen, eine Suche einzugrenzen. Sie können jede Kategorie mit einem Schieberegler bearbeiten. HCIL an der University of Maryland hat beide entwickelt [http://www.cs.umd.edu/hcil]. Punktfeuer [http://www.cs.umd.edu/hcil/west-legal/dotfire.gif] ist der neue Westlaw-Rechtsprechungsforscher. [Weitere Informationen finden Sie im technischen Artikel von Ben Shneiderman, David Feldman und Anne Rose, Visualizing Digital Library Search Results with Categorical and Hierarchical Axes CS-TR-3992, UMIACS-TR-99-12, Februar 1999, ftp://ftp.cs.umd.edu/pub/
hcil/Berichte-Abstracts-Bibliographie/99-03html/99-03.html
.]

Abbildung 9 oben zeigt den Hyperbolic-Browser von Xerox PARC, der entwickelt wurde, um Benutzern zu helfen, den Inhalt einer Datenbank visuell zu erkunden. Sie finden es in der InXight-Datenbank [http://www.inxight.com].

Gary Marchionini und seine Studenten am Interaction Design Lab der University of North Carolina untersuchen die Effektivität von Interface-Designs für verschiedene Arten von Ressourcenformaten wie Statistiken oder Videodateien. Der interaktive Browser für statistische Beziehungen ist ein Prototyp, der für das Bureau of Labor Statistics entwickelt wurde. Es zeigt auf einem Bildschirm die von der Datenbank abgedeckten Themen, die Nummern- und Formattypen für Berichte sowie die abgedeckten Regionen und Daten an. Verwandte Websites werden ebenfalls angezeigt. Es ist einfach, aber effektiv. [Sehen http://ils.unc.edu/idl/ für andere Forschungen dieser Gruppe.]

Die Perspecta-Oberfläche zeigt dem Benutzer auf einem Bildschirm, nach welchen Parametern er suchen kann. Dieser Screenshot zeigt auch die Ergebnisse einer Suche in ihrer Reiseinformationsdatenbank. Jedes Kästchen zeigt dem Benutzer auf einen Blick die Anzahl der Touren, die in jeder der angeforderten Kategorien während des angegebenen Zeitraums vorhanden sind. So werden zu einer bestimmten Zeit 87 Kanutouren angeboten.Durch die Gruppierung der Ergebnisse in logische Bündel ermöglicht diese Software dem Benutzer, die Ergebnisse einer Suche zu verstehen, bevor er beginnt, die tatsächlichen Treffer zu durchsuchen.

Mit Tools, die Ihnen mehrere Ansichten derselben Daten bieten, können Sie Muster erkennen.

Die benutzerdefinierten Ordner von Northern Light geben Ihnen einen schnellen visuellen Überblick über die Suchergebnisse. Die sorgfältige Kategorisierung der Inhalte macht die Suche nach Northern Light sowohl umfassend als auch fokussiert. Northern Light durchsucht auch Yahoo! Verzeichnisseiten. Yahoo! hat einige ausgezeichnete Ressourcen, aber ich ziehe es vor, zu suchen, anstatt mit einem Stöbern zu beginnen. Northern Light bietet mir das Beste aus beiden Ansätzen.

  • Phonetisch sind die tatsächlichen Laute, die bei der Aussprache von Wörtern entstehen. Dies ist nicht relevant für geschriebenen Text, aber es vermittelt äußerst wichtige Bedeutungsnuancen in der Sprache.
  • Morphologisch ist die kleinste Einheit der Sprache, die Bedeutung vermittelt. Dazu gehören Plural- und Singularformen sowie andere Präfixe und Suffixe, wie Prä- oder -isierung.
  • Syntaktisch ist die Rolle, die jedes Wort in einem Satz spielt. Viele der heutigen Suchmaschinen können einen Satz parsen, wie wir es in der Grundschule gelernt haben, um die Subjekte, Verben, Objekte und Phrasen herauszusuchen. Dadurch können die Engines zwischen Bill pick Al und Al picked Bill unterscheiden.
  • Semantik ist die Wörterbuchbedeutung eines Wortes sowie die Bedeutung eines Wortes, das durch seinen Kontext im Text geliefert wird. Diese Ebene hilft uns, die Bedeutungsunterschiede von „Pool“ in „Lass uns Billard spielen“ und „Lasst uns im Pool schwimmen“ zu unterscheiden. Diese Fähigkeit, zwischen den vielen Bedeutungen des gleichen Wortes zu unterscheiden, wird als Begriffsklärung bezeichnet. Es ermöglicht einem System, falsche Tropfen zu eliminieren. Ein NLP-System sollte Ihnen niemals Finanzinstitute geben, wenn Sie um Erosion von Flussufern bitten, nicht einmal für die Consolidated Bank of Moose River.
  • Diskurs ist die Struktur eines ganzen Dokuments. Viele Dokumente haben eine vorhersehbare Struktur, wie z. B. technische Berichte mit ihren Titeln, Zusammenfassungen, Einführungen, Methodenabschnitten, Erläuterungen und Schlussfolgerungen. Wo ein Satz in dieser Struktur platziert ist, beeinflusst seine Bedeutung und seine Bedeutung.
  • Pragmatisch ist das Wissen um die reale Welt. Wenn wir beispielsweise Europa sagen, wissen wir, dass zu dieser geografischen Region Frankreich gehört, auch wenn dies im Dokument nie ausdrücklich erwähnt wird. Diese Art von Wissen kann zu neuen Informationssystemen hinzugefügt werden, damit die Systeme verstehen, dass Kongressabgeordneter Schumer und Senator Schumer dieselbe Person sind.

Tools zum Analysieren und Interagieren mit Daten
Das Auffinden und Verwenden von Informationen sollte ein aktiver Prozess sein. Wir müssen lesen, was wir finden, aber wir müssen auch Quellen zusammenführen, auseinandernehmen, die Daten in Kategorien unterteilen, die Daten sortieren, nach Mustern suchen und die Informationen an Kollegen und Kunden senden.

Papageientauchersuche [http://www.puffinware.com] lädt zu dieser Art der Interaktion ein. Es durchsucht bis zu acht Websuchmaschinen gleichzeitig und bringt die Ergebnisse zurück auf Ihren Desktop. Es speichert die Suchergebnisse und erstellt eine Liste aller Begriffe, die in zwei oder mehr Zitaten vorkommen. Anschließend können Sie die Ergebnisse sortieren, gruppieren und neu sortieren, indem Sie eine beliebige Zelle in der Tabelle als Vergleichsbasis verwenden. Wählen Sie einen Titel aus und alle anderen Treffer werden nach ihrer Ähnlichkeit mit diesem Titel neu sortiert. Oder wählen Sie mehrere der Keywords aus und ordnen Sie alle 1.200 Treffer nach den von Ihnen gewählten Begriffen. Sie können nach Suchmaschine oder nach URL sortieren. Puffin bildet automatisch Cluster basierend auf der Ähnlichkeit einer Gruppe von Dokumenten, wobei eine ähnliche Technik wie beim Vektorraummodell verwendet wird. Sie können eine Suche auch automatisch aktualisieren, wenn Sie sie als Filterwerkzeug verwenden.

  • Netbook ermöglicht es Benutzern, Bilder aus digitalen Sammlungen aufzunehmen, zu speichern und auf der persönlichen Netbook-Seite eines Benutzers anzuzeigen. Miniaturansichten von Bildern können organisiert werden, sodass Benutzer eine überschaubare Sammlung erstellen können.
  • Kommentator ermöglicht es Benutzern, Anmerkungen zu Bildern, die einer Online-Sammlung oder einem Netbook entnommen wurden, zu kommentieren oder zu lesen. Eine Klasse von Schülern kann beispielsweise die Anmerkungen anzeigen, die ein Lehrer zu einem Bild gemacht hat, oder ihre eigenen Anmerkungen erstellen, die für ihre Klassenkameraden sichtbar sind.
  • Authoring hilft Benutzern, Recherchen und Daten mit hierarchischen und Hypermedia-Links zu manipulieren, zu organisieren und anzuzeigen. Die Schüler können die Arbeit anderer anzeigen und ihre eigenen Links organisieren und erstellen.
  • Kunstansicht verwandelt Online-Bildsammlungen aus Museen und anderen Websites in kollaborative Lernräume. Gleichzeitig, aber von verschiedenen Standorten aus, können Benutzer ein Bild anzeigen und über ein gemeinsames Textfenster miteinander kommunizieren.

Gleichzeitiges Durchsuchen mehrerer Quellen
Die Suche in verschiedenen Arten von Informationssammlungen stellt eine der größten Herausforderungen dar, denen sich Entwickler digitaler Bibliotheken und Intranets gegenübersehen. Sammlungen können Text oder Bilder oder Statistiken umfassen. Textdateien können bibliografische Datensätze, Zusammenfassungen oder Volltext enthalten. Bildersammlungen dürfen Suchmaschinen nur den als Bildunterschriften erscheinenden Text anbieten. Sobald wir uns außerhalb kontrollierter, integrierter Sammlungen der gleichen Art von Materialien bewegen, stoßen wir auf mehrere Hindernisse. Dazu gehören Vokabularunterschiede, Unterschiede in der Art der Materialien und Unterschiede in Relevanz-Ranking-Algorithmen.

Unterschiede im Wortschatz sind jedem erfahrenen Suchenden ein bekanntes Problem. Jede Sammlung oder Quelle kann unterschiedliche Begriffe verwenden, um dieselbe Idee auszudrücken. Wir professionellen Sucher lösen dieses Problem traditionell, indem wir jedes uns einfallende Synonym verwenden. Daher können wir sowohl Pumpen als auch Laufräder oder Theater und Theater auswählen, um eine gute Abfrage abzurunden. In NLP-Systemen kann Concept Matching einen Teil dieser Arbeit für uns übernehmen. Allerdings möchten kundenspezifische Intranets möglicherweise interne Lexika entwickeln, die Pumpen und Laufräder automatisch demselben Konzept zuordnen. Dies ist eine gute Anwendung für die Konzeptüberwachung und die automatische Indexierung.

Die Suche in heterogenen Materialien stellt ein schwierigeres Problem dar, wie Sucher, die mit Dialog OneSearches arbeiten, Ihnen sagen können. Zum Beispiel ist das Gewicht jedes Wortes in einem bibliografischen Datensatz wahrscheinlich enorm hoch im Vergleich zu dem gleichen Begriff, der in einem 10-seitigen Volltextdokument vorkommt. Man könnte sich vorstellen, ein Suchsystem jedes Mal zu optimieren, wenn es eine neue Art von Sammlung hinzufügt.

Die Suche über mehrere Systeme hinweg verkompliziert die Sache noch weiter. Die meisten Suchmaschinen berechnen die Relevanz eines Dokuments, indem sie die Anzahl der Vorkommen jedes Suchbegriffs in jedem Dokument zählen. Je mehr Vorkommen, desto relevanter ist das Dokument. Dies funktioniert gut, wenn die Dokumente ungefähr gleich lang und vom gleichen Typ sind. Wenn wir diese Materialien in einer einzigen Suche kombinieren, werden die Ergebnisse je nach Textlänge verzerrt.

Wenn wir versuchen, über Suchsysteme hinweg zu suchen, wie dies bei Web-Metasuchmaschinen der Fall ist, stellen wir fest, dass jede die Relevanz unterschiedlich misst. Da außerdem jedes System die Relevanz eines Dokuments für eine Abfrage teilweise dadurch berechnet, dass es ermittelt, wie selten dieser Begriff in der gesamten Datenbank vorkommt und jede Sammlung unterschiedliche Materialien enthält, ist es unwahrscheinlich, dass das, was in einer Sammlung hochrelevant ist wird in einer anderen auf die gleiche Weise rangieren. Die Datenfusion ist eine Reihe von Techniken, um eine gemeinsame Grundlage zur Messung der Relevanz zu schaffen. Das Fehlen einer Datenfusionsbehandlung erklärt, warum die Suche über Dateien in Dialog oder die Metasuche im Web innerhalb von Relevanzbewertungssystemen nicht gut funktioniert.

Hier ist ein Beispiel. Angenommen, wir beschließen, nach ein paar guten Artikeln über die Ursachen von Bluthochdruck zu suchen. Wir wählen zwei Websuchmaschinen aus. Wir wissen jedoch nicht, dass Suchmaschine 1 alle wichtigen medizinischen Informationsseiten abdeckt, während Suchmaschine 2 sich auf Sport konzentriert. Suchmaschine 1 findet 250.000 Artikel über Bluthochdruck. Es ordnet sie ein. Search Engine 2 findet 10 Artikel, die nur minimale Informationen zu diesem Thema enthalten. Denken Sie an unseren Gewichtungsalgorithmus zurück. Wenn Bluthochdruck selten in einer Datenbank auftaucht, bekommt er ein hohes Gewicht. Also, Search Engine 2 gibt all diesen Dokumenten ein 98-Prozent-Ranking. Da Bluthochdruck ein gängiger Begriff in Search Engine 1 ist, erhält er ein geringeres Gewicht. Wenn unsere Metasuchmaschine jeweils die Top 10 herausnimmt, werden wir alle 10 Dokumente von Search Engine 2 sehen, bevor wir jemals zu denen von Search Engine 1 gelangen. Die Ergebnisse von Search Engine 1 aus medizinischen Quellen können jedoch erheblich sein Vorgesetzter.

Die Datenfusion versucht, Ergebnisse aus mehreren Suchsystemen zusammenzuführen. Eine Technik nimmt in einem Round-Robin-Ansatz von jedem ein Dokument. Ein anderer erstellt eine virtuelle Sammlung, die alle in allen Datenbanken gefundenen Dokumente zusammenführt. Dann werden die Gewichte basierend auf dieser gemeinsamen Sammlung neu zugewiesen.

Die zweite Technik liefert bessere Ergebnisse, ist aber rechnerisch aufwendiger.

Kombination von Beweisen
Die Kombination von Nachweisen verbessert den Abruf aus derselben Sammlung, indem unterschiedliche Abruftechniken verwendet werden. Es wird in den nächsten Jahren ein heißes Thema sein, da die Rechenleistung weiter steigt. Jede Abruftechnik ist fehlerhaft und lässt einige relevante Dokumente aus, vielleicht aufgrund einer schlechten Abfrage, aufgrund von Unterschieden in der Terminologie oder sogar aufgrund von Rechtschreibfehlern, die von Programmen zur optischen Zeichenerkennung eingeführt werden. Suchende können auch wichtige Dokumente verpassen, wenn die Dokumente nicht in den Top 30 oder 50 der untersuchten Dokumente erscheinen. Bestimmte Ranking-Algorithmen leisten eindeutig bessere Arbeit bei der einen oder anderen Dokumentart. Einige passen sich möglicherweise der Wortposition oder der Nähe von Abfragebegriffen an. Andere bevorzugen lange oder kurze Dokumente oder tendieren dazu, der Terminhäufigkeit gegenüber der Terminrarität in der Datenbank den Vorzug zu geben. Einige betonen möglicherweise Metadaten, andere ignorieren Begriffe des kontrollierten Vokabulars vollständig. Dies sind alles vernünftige Designentscheidungen, die einer bestimmten Art von Kollektion entsprechen können. Während Suchende nicht immer verstehen können, warum eine Suchmaschine bestimmte Dokumente übersieht, die eine andere sucht, wissen wir, dass dies passiert. Die Unterschiede in den Suchalgorithmen können eine Erklärung bieten.

Die Kombination von Nachweisen kann sich darauf beziehen, dieselbe Sammlung mit verschiedenen Suchmaschinen zu durchsuchen und die Ergebnisse zu kombinieren, oder sie kann sich auf die Verwendung verschiedener Quellen zum Sammeln von Informationen über Dokumente beziehen. Beispielsweise kann eine Sammlung von Nachrichtensendungen anhand von Sprachtext durchsucht werden, der von einer Spracherkennungssoftware erstellt wurde. Sendungen mit geschlossenen Untertiteln würden eine weitere Quelle liefern, ebenso wie die Videobilder selbst unter Verwendung von Bilderkennungssoftware. Jede dieser Quellen ist für sich genommen keine verlässliche Quelle – keine von ihnen enthält genügend genaue Informationen zum Thema des Dokuments – aber zusammengenommen gleichen die Stärken der einen die Schwächen der anderen aus. Infomedia [http://www.informedia.cs.cmu.edu/], eines der ersten National Digital Library Projects, bietet ein gutes Beispiel für diese Technik.

Spracherkennung für gesprochene Schnittstellen
Obwohl die Interaktion mit dem Computer über Tastatur und Maus einigermaßen bequem geworden ist, ist dies nicht selbstverständlich. Unsere Interaktionen zeigen es. Wer würde eine gesprochene Frage mit einem einzigen Wort stellen? Dennoch handelt es sich bei der überwiegenden Mehrheit der Suchanfragen in Websuchmaschinen um einzelne Wörter. Und würden wir uns bei einer einfacheren Alternative wirklich dafür entscheiden, eine Abfrage mit Klammern und Kürzungssymbolen einzugeben? Gesprochene Interaktionen sind ein normalerer Modus, und eine Sprachschnittstelle oder VUI (Voice User Interface) kann einige der Eingabeprobleme lösen, mit denen Designer bei geschriebenen oder grafischen Schnittstellen konfrontiert sind.

Die Spracherkennung hat zwei verschiedene Seiten: Eingabe und Ausgabe. Die Spracherkennung kann von Text zu Sprache oder von Sprache zu Text gehen (Sprachsynthese). Sowohl Spracherkennungs- als auch Spracherzeugungssoftware müssen entwickelt werden, um gute VUIs zu erstellen. Die einfachere davon ist die Spracherzeugung. Menschen können computergenerierte Sprache bereits verstehen, weil sie bereits wissen, wie sie sich auf leichte Abweichungen in der Aussprache oder Intonation einstellen können, und sei es nur durch das Zuhören echter Menschen. Unternehmen wie Cogentex haben bereits Technologien entwickelt, die Sprache aus Daten plus einer Vorlage generieren. Der Wetterbericht von Montreal verwendet dieses Produkt.

Die Spracherkennung ist ein schwierigeres Unterfangen. Die Verarbeitung natürlicher Sprache bringt uns einen Teil des Weges zu Spracherkennungssystemen, aber einige für die Sprache wichtige Sprachebenen machen Probleme in der geschriebenen Sprache. Die Art und Weise, wie wir Wörter aussprechen, hat viel mehr Variationen, als uns bewusst ist. Zum Beispiel unterscheidet sich das c in cat vom c in core. Intonationsmuster vermitteln Bedeutung durch das gesungene Lied. Ein Aussagesatz gegenüber einer Frage beispielsweise unterscheidet sich allein durch die Töne, die die Stimme verwendet – eine fallende statt einer steigenden Flexion. Die Spracherkennung stolpert auch über regionale Ausspracheunterschiede sowie beim Finden der Grenzen zwischen Wörtern. Wir lassen ein Wort in ein anderes übergehen und erwarten von unseren Zuhörern, dass sie den Schnitt zwischen jedem machen. Computer können dies nicht so einfach verwalten. Sagen Sie in normalem Ton: „Was soll mich aufhalten?“, um zu sehen, was ich meine. Erwischt!

Trotzdem sind Sprachschnittstellen auf den Markt gekommen. Mein gespräch [http://www.mytalk.com] von General Magic holt Ihre E-Mail ab und liest sie Ihnen am Telefon vor. Es verwendet Spracherzeugungssoftware und intelligente Agenten, um nur das zu lesen, was Sie möchten. Sie können mit mehreren hundert Befehlen interagieren, und wenn Sie vergessen, was Sie fragen sollen, erhalten Sie eine Auswahl.

Microsoft scheint mit seinem SAPI-Standard (Speech Application Programming Interface) Persona Project und assoziierten Forschungsgruppen zur Spracherkennung einen Nachfolger von Microsoft Bob zu schaffen, der kontinuierliche Sprache interpretieren und dann eine Antwort generieren kann. Microsoft verwendet NLP und könnte diese Software auch zum Abrufen von Informationen verwenden. Andere wichtige Player sind Lernout und Hauspie, Dragon Software, IBM, Nuance, Motorola, Unisys, Dialogic und AT&T.

Der Großteil der Forschung mit NLP und Spracherkennung konzentriert sich darauf, Wortgrenzen zu verstehen und Phoneme über verschiedene Sprecher und Akzente hinweg korrekt zu identifizieren. Dies ist eine nicht triviale Aufgabe. Eine Lösung besteht darin, ein System innerhalb einer kleinen Domäne zu trainieren, z. B. um Kundendienstfragen für ein bestimmtes Unternehmen zu beantworten. Eine andere besteht darin, eine Anwendung so zu trainieren, dass sie nur die Stimme eines Benutzers erkennt. Diese letztere Anwendung ist für diejenigen gefragt, die einen Bildschirm nicht lesen oder tippen können. Tatsächlich bilden Reporter mit Karpaltunnelsyndrom eine wachsende Gruppe von VUI-Benutzern.

Sobald wir das Problem gelöst haben, eine normale Sprachinteraktion als Computerschnittstelle zu etablieren, wird sich unsere gesamte Arbeitsweise mit Computern ändern. Wir werden unser Auto nach dem Weg fragen und uns sagen lassen, wo wir als nächstes abbiegen müssen, nachdem es unsere Route festgelegt hat. Tatsächlich ist das jetzt verfügbar. Wir werden unseren Agenten anweisen, uns während der Kaffeezubereitung alle Neuigkeiten zu Internet-Themen vorzulesen. Es wird uns fragen, ob wir zuerst die dringende Nachricht von unserem Chef hören wollen. Und wir werden darum bitten, dass der monatliche Bericht aus unseren Statistiken generiert und dann als PowerPoint-Präsentation mit Tortendiagrammen präsentiert wird, ohne sich daran erinnern zu müssen, wie man ein Diagramm importiert und seine Größe ändert.

Es ist fast 2001. Kann HAL weit weg sein?

  • Studieren Sie Benutzer und ihre Bedürfnisse.
  • Entwerfen Sie die Ausgabe und dann das Zugangssystem.
  • Entwerfen Sie die Eingabe, um die Ausgabe zu erstellen, die Sie benötigen.

Forscher suchen anders nach Informationen als Marketingleute oder Führungskräfte. Dies ist nicht verwunderlich, da sie alle unterschiedliche Informationsbedürfnisse haben. Forscher wollen fundierte Informationen. Marketingleute möchten vielleicht Fakten, Statistiken oder mit der Konkurrenz Schritt halten. Führungskräfte möchten vielleicht schnelle Übersichten und Zusammenfassungen, die ihnen viele Informationen auf hohem Niveau in gekapselter Form bieten. Wollen Ihre User alles zu einem Thema (hohe Erinnerung) oder nur die wenigen besten Nuggets (hohe Präzision)? Wie werden sie die Informationen verwenden? Benötigen sie rund um die Uhr, 7 Tage die Woche Zugriff von entfernten Standorten? Wie soll die Systemausgabe aussehen?

Finden Sie zunächst heraus, was Ihre Benutzer brauchen, wollen und wie sie die Informationen verwenden werden. Entwerfen Sie dann ein Zugangssystem, das zu ihrer Denk- und Arbeitsweise passt. Wir haben zum Beispiel noch nie eine Nutzerpopulation gefunden, die zwischen „Schlagwörtern“ und „Keywords“ unterscheiden kann. Erwarten Sie nicht, dass sie lernen. Erstellen Sie einfach ein System, das nicht zu viel Wissen erfordert, das nicht mit ihrer täglichen Arbeit zu tun hat.

Erstellen Sie Zugriffsmodelle – Thema, Autor, Felder – die für Ihre Organisation sinnvoll sind, auch wenn dies gegen die bibliothekarische Orthodoxie verstößt. Wenn Sie nur über Informatikmaterialien verfügen, erwarten Sie nicht, dass die Klassifikation der Library of Congress nützlich sein wird. Denken Sie darüber nach, warum Klassifikationsschemata erfunden wurden, und verwenden Sie dann etwas, das Ihnen helfen kann, zwischen den Materialien zu unterscheiden.

Schließlich entwerfen Sie das System so, dass es Ihnen das liefert, was Sie bereits spezifiziert haben. Lassen Sie sich wichtige Funktionen nicht ausreden. Und lassen Sie sich keinen ausgefallenen Schnickschnack einschleichen, der die Benutzer verwirren wird. Halten Sie es einfach. Stellen Sie sicher, dass die Navigation einfach ist. Testen Sie es und testen Sie es erneut.

Ich bin nicht unbedingt ein Fan von Automatik. Die besten Systeme geben Benutzern die Möglichkeit, einzugreifen, Informationen hinzuzufügen, Richtungen zu ändern und Korrekturen vorzunehmen. Diese Systeme bilden eine Partnerschaft mit dem Benutzer. Beziehen Sie bei der Gestaltung eines Informationssystems den Benutzer in die Gestaltung mit ein. In der besten aller möglichen Welten würden Systemdesigner beobachten, wie Menschen Informationen am Arbeitsplatz nutzen, und dann ein System entwerfen, das in den normalen Arbeitsfluss passt.

Abschluss
All diese Technologien ergänzen sich zu einer nahtlosen Suite von Informationstools, die Informationen finden, organisieren, auf dem neuesten Stand halten, nach Mustern suchen und visuelle Übersichten zum schnellen Verständnis präsentieren. Mit anderen Worten, ein Anrufbeantworter. Die Tools, die ich gerade beschrieben habe, werden es uns ermöglichen, große und komplexe Informationen leichter zu verstehen. Diese Tools ermöglichen ein schnelles Verständnis, indem sie eine neue Dimension der Analyse und sogar Spaß beim Arbeiten mit Informationen hinzufügen. Sie geben Wissensarbeitern die Möglichkeit, die Informationen, die wir für sie abrufen, zu untersuchen, zu manipulieren und zu verstehen. Mit diesen Werkzeugen können wir eine Abstraktionsebene zur Analyse, Bewertung und Planung aufsteigen. Dies bietet unserem Beruf eine spannende, herausfordernde und vielversprechende Aufgabe.

Um an der Entwicklung des Informationssystems der nächsten Generation beteiligt zu sein, müssen wir bereit sein, groß zu denken, gelegentlich von Fristen Abstand zu nehmen und isolierte Fakten und Statistiken zu sammeln. Wir müssen den Platz von Informationen in der Organisation verstehen und klären. Dies ist eine Rolle für praktische Visionäre.

Zum Glück für uns sind wir genau das.

Smith Widgets, Inc., 5. Oktober 1999. 10:00 Uhr

Boss: Guten Morgen, Dennis. Wir müssen unseren Competitive Intelligence-Bericht heute aktualisieren.Ich würde gerne alle neuen Produkte, die unsere Wettbewerber in den letzten 6 Monaten herausgebracht haben, sowie ihre Pläne für neue Produkte wissen.
Dennis: In Ordnung. Wann brauchst du es? Der Präsident hat mich gerade angerufen und will Zahlen für die Vorstandssitzung heute Mittag.
Boss: Naja, ich wollte es auch wirklich bis Mittag. Auch für die morgige Vorstandssitzung. Sehen Sie, was Sie tun können.
Dennis: Ich werde mein Bestes geben. Welche Informationen benötigen Sie am meisten? Daran werde ich erstmal arbeiten.
Boss: Nun, ich brauche wirklich eine Liste neuer Produkte und deren Verkaufszahlen nach Unternehmen, und dann möchte ich eine Zusammenfassung der Trends und Vorhersagen für die Branche, nur Aufzählungspunkte.
Dennis: Ich denke, ich kann Ihnen die Liste der Produkte besorgen, da wir die Namen der Unternehmen bereits kennen und ich eine Datei mit den Änderungen an ihren Websites geführt habe. Zumindest haben wir die neuen Produktankündigungen. Es wird jedoch eine Weile dauern, die Dokumente zu durchsuchen, die ich bei einer Online-Suche erhalte, daher bin ich nicht sicher, ob ich Ihnen die anderen Informationen sofort besorgen kann. Ich werde mein Bestes geben.
Boss: Ich brauche sie wirklich dringend, damit wir die Grafiker dazu bringen können, sie in ein Folien-Briefing zu verwandeln.
Dennis: Wann ist die Vorstandssitzung?
Boss: Morgen um 13 Uhr.
Dennis: Ich kann Ihnen wahrscheinlich heute Abend die Aufzählungspunkte besorgen und sie den Grafiken für morgen früh übergeben.
Boss: Nun, wenn das das Beste ist, was Sie tun können, müssen wir uns wohl damit begnügen, aber ich wollte die Notizen heute Abend noch einmal durchgehen.
Dennis: Ich werde sehen, ob ich Ihnen bis heute um 5 ein paar vorläufige Ergebnisse liefern kann, und dann an einer Zusammenfassung und Stichpunkten arbeiten. Wir können die Verkaufszahlen an die Grafiken weitergeben, sobald ich sie habe. Sie sind der einfachere Teil.
Boss: In Ordnung. Lass es mich einfach wissen, sobald du etwas hast.
Dennis: In Ordnung. (Chef geht, Dennis wählt das Büro seiner Frau). Hallo. Erraten Sie, was? Es ist wieder vierteljährliche Panikzeit. Er will bis heute Abend einen Bericht. Können Sie die Groves anrufen und fragen, ob wir das Abendessen verschieben können? Nein, ich kenne die Nummer eines guten Scheidungsanwalts nicht, und ich werde einen langen Tag ohne Sarkasmus haben. Sie wissen, ich liebe dich. Klar, Schatz, wir sehen uns, wenn ich dich sehe.
Dennis (überlegt): Wo habe ich nun diese CI-Suchstrategie gespeichert? Okay, hier ist Dialog, hier ist NEXIS, hier ist Dow Jones. Ich sollte auch den Webfilter aktualisieren und mir diese Dokumente in meinem CI-Postfach für Widgets ansehen. Hier sind die Strategien. Dialog, Datei 16: ss (Jones oder Franklin oder Thomas oder Automated) (w) Widget? und (ec=65? oder ec=33?)
Suche 2: ss pc= und (ec=1? oder ec=6?) und (Vorhersage? oder Projektion oder projiziert oder Zukunft oder Prognose? oder Trend oder Ausblick oder Jahr()(200? oder 201?) (2:30 an diesem Tag)

Dennis (Chef anrufend): Hallo, ich habe die Produktinfos und Verkaufszahlen Ihrer drei Mitbewerber. Soll ich sie Ihnen elektronisch zusenden? Es gab 467 Dokumente aus der Online-Suche, und ich werde sie so schnell wie möglich scannen, um Ihnen die benötigten Informationen zu liefern. Ich verwende PuffinSearch, um die Suchanfragen, die ich in Dialog, NEXIS und Dow Jones durchgeführt habe, zusammenzuführen und nach Relevanz zu bewerten. Ist es für Sie in Ordnung, wenn ich einfach mit den Top 150 beginne?
Boss: Ja, aber bitte versuchen Sie auch den Rest zu scannen. Wir sind wirklich in Schwierigkeiten geraten, als wir das neue Unternehmen, Automated Widgets, das letzte Mal verpasst haben. Ich denke, sie sind marginal, aber es schadet nicht zu sehen, was sie vorhaben.
Dennis: Ich werde mein Bestes geben, aber der letzte Zug fährt um 9:30 ab und ich muss ihn erwischen.
Boss: Geben Sie mir bis 9:00 Uhr, was Sie haben.

ERGEBNIS: Dennis musste bei Dokument 322 aufhören, nachdem er sowohl Mittag- als auch Abendessen verpasst hatte, um Zeit zu haben, die Zusammenfassungen und Aufzählungspunkte rechtzeitig zu schreiben. Dokument 463 zeigte, dass Automated Widgets einen Experten für vernetzte Geräte von Sun Microsystems eingestellt hatte. Smith Widgets wurde 2003 von Automated Widgets aufgekauft. Der Boss ging in den Vorruhestand. Dennis half beim Aufbau eines unternehmensweiten Informationssystems und entwarf Vorlagen für Interaktionen und Kategorien für die automatische Indexierung.

Automated Widget Company, 5. Oktober 2009. 10:00 Uhr

Boss: Guten Morgen, Alvin. Wir müssen unseren Competitive Intelligence-Bericht heute aktualisieren. Ich würde gerne wissen, welche neuen Produkte unsere Wettbewerber in den letzten 6 Monaten auf den Markt gebracht haben und welche Pläne sie für neue Produkte haben.
Alvin, der Computer: Okay Boss. Möchten Sie Produkte von Ihren Mitbewerbern, wenn diese in einer anderen Produktkategorie als Automated Widgets sind?
Boss: Jawohl.
Alvin: Wann willst du das? Welches Format?
Boss: Ich brauche es heute Mittag. Geben Sie mir Produktlisten, sortiert nach Firmennamen. Dann hätte ich gerne eine Zusammenfassung der Trends in der Branche. Fassen Sie einfach zusammen und machen Sie einige Stichpunkte, aber behalten Sie die Informationen bei. Ich möchte vielleicht mehr Details zu einigen der wichtigsten Punkte in der Zusammenfassung. Wir machen uns wirklich Sorgen um MS Widgets, also geben Sie mir alles, was Sie darauf finden können. Ich möchte neue Einstellungen und Entlassungen sowie Berichte von Branchenanalysten.
Alvin: Sie wollen Verkaufszahlen wie im letzten Bericht?
Boss: Oh ja. Ich möchte Verkaufszahlen für jeden. Vergleichen Sie sie mit den Zahlen, die wir für dieses Unternehmen vor 6 Monaten haben. Ziehen Sie einfach das alte Diagramm aus dem letzten Bericht und fügen Sie eine Spalte für die neuen Produkte und eine weitere für die Verkäufe hinzu. Geben Sie mir auch jedes Wachstum oder jeden Rückgang des Gesamtumsatzes für jedes Unternehmen an. Vergessen Sie nicht ihre vorherigen Produkte.
Alvin: Noch etwas?
Boss: Ja, nachdem Sie mir die Listen und die Aufzählungspunkte gegeben haben, aktualisieren Sie den Competitive Intelligence-Bericht, den wir vor 6 Monaten erstellt haben.
Alvin: Gleiches Format?
Boss: Ja, aber machen Sie die Diagramme größer. Extrahieren Sie auch die wichtigsten Punkte und fügen Sie sie und die Diagramme in eine Folienpräsentation ein. Geben Sie mir eine separate Folie zu MS Widgets. Ich will das bis 13 Uhr.
Alvin: Noch etwas?
Boss: Nein, das ist es.
Alvin: In Ordnung. Ich werde Listen von Automated Widgets-Wettbewerbern und deren neuen Produkten mit Verkaufszahlen finden und für jedes Unternehmen eine Liste erstellen. Dann werde ich Trends und Vorhersagen finden. Ich ziehe wichtige Punkte heraus, die in zwei oder mehr Artikeln erscheinen oder in einem Artikel mehrmals erwähnt werden. Diese Listen und Aufzählungspunkte schicke ich Ihnen bis Mittag in Ihren Posteingang.
Ich werde den CI-Bericht ab 31. März 2009 aktualisieren und die neuen Hauptpunkte und Diagramme für eine Folienpräsentation verwenden. Dieser kann bis 13 Uhr fertig sein, aber bis dahin nicht gedruckt werden. Die Marketingabteilung hat den Farbdrucker den ganzen Nachmittag reserviert. Können Sie die Folien online überprüfen oder sollte ich die Druckerei benachrichtigen, dass Ihre Arbeit Priorität hat? Wir können nach 16 Uhr drucken.
Boss: Ich werde online überprüfen. Stellen Sie die Druckschrift groß genug zum Lesen ein.
Alvin: 14-Punkte-Schriftart?
Boss: In Ordnung.

(11:30. Boss kommt ins Zimmer)

Boss: Alvin, ist der Bericht fertig?
Alvin: Es ist fertig, Chef. Das gedruckte Exemplar befindet sich in Ihrem Posteingang. Online-Kopie befindet sich in der Infobox mit hoher Priorität, die mit Wettbewerbsinformationen gekennzeichnet ist. Soll ich es Ihnen vorlesen oder sehen Sie es sich lieber an?
Boss: Lesen Sie mir die neuen Produkte und die wichtigsten Stichpunkte vor. Auch alles, was Sie gefunden haben, das nicht in eine Kategorie passt
Alvin: In der neuen Produktkategorie

Franklin-Widgets Programmierbares Kühlschrank-/Herdmodul
MS-Widgets Programmierbares Badewannenmodul
Widgetech Programmierbarer Gasgrill
Programmierbare Clutter-Hinder

In der Kategorie People hielt Andrew Wyatt im September einen Vortrag auf der Futuretech-Konferenz. Ich habe es für dich zusammengefasst. Sie haben ihn im vergangenen Frühjahr auf der WIA-Konferenz kennengelernt, und ich möchte Ihnen sagen, dass Sie ihn im Oktober kontaktieren sollen. Seine Telefonnummer ist 577-304-8976. Seine E-Mail lautet [email protected] Ich habe auch seine Adresse.
In der Kategorie „Unangenehme Überraschungen“ haben Sie nicht darum gebeten, Solutions.com zu überwachen. Es ist ein neues Unternehmen, das Ihrem Wettbewerbsprofil entspricht. Sie haben ein Fernbedienungsmodul „Firmen kommend“ entwickelt, das Unordnung verbirgt, den Kühlschrank inventarisiert, Lebensmittel bestellt, das Haus putzt, den Ofen einschaltet und die Bettwäsche wechselt.
Im MS Widgets-Bericht sind ihre Einnahmen um 23 Prozent gestiegen. Sie haben gerade ein Widget-Integrationsunternehmen erworben.
Gibt es noch etwas, was Sie wollen?
Boss: Jawohl! Holen Sie mir alles, was Sie über Widget-Integrationsunternehmen können. Ich möchte eine Liste derjenigen mit tatsächlichen Produkten und was diese Produkte sind. Auch Verkäufe und Vorhersagen für jeden von ihnen.
Fügen Sie Solutions.com zu unserer Überwachungsliste hinzu.
Alvin: Okay Boss.

Der Beginn einer neuen Ära kann aufregend oder beunruhigend sein. Im Moment gibt es so viele Finger in unserem ehemaligen Informationskuchen, dass wir uns vielleicht überfüllt und vielleicht bedroht fühlen. Informatiker, Psychologen, Grafikdesigner, Linguisten und Internetunternehmen schnitzen sich alle Stücke.

Was haben wir Informationsprofis von Wert zu bieten? Erstens haben wir eine einzigartige Perspektive auf Informationen selbst. Wir verstehen es, die richtigen Fragen zu stellen, um das zu finden, was wir brauchen. Wir verstehen das Gleichgewicht in Sammlungen, gute Quellen und wie man Materialien kategorisiert, damit sie von den Leuten gefunden werden können. Dies ist von unschätzbarem Wert. Wir haben auch etwas, was den anderen vielleicht fehlt – wir nutzen Informationssysteme. Wir suchen seit Jahrzehnten nach Informationen. Wir haben praktische Erfahrung. Wenn wir die Erfahrung mit der Flexibilität abmildern können, etwas Neues auszuprobieren, können wir der Teil des Entwicklungsteams werden, der am stärksten in der Realität verankert ist.

Susan Feldman ist Präsidentin von Datasearch und von Datasearch Labs, einem Unternehmen für Usability-Tests für Informationsprodukte. Sie schreibt häufig über neue Informationstechnologien und testet, bewertet und empfiehlt Produkte für Kunden. Ihre E-Mail-Adresse lautet [email protected].

Urheberrecht, Susan Feldmann. Veröffentlichungsrechte und Rechte zum Nachdruck dieses Artikels und der Grafiken liegen bei Information Today, Inc. Der Autor behält sich das Recht vor, Kopien zu Bildungszwecken zu verteilen, den Artikel im WWW zu veröffentlichen, wenn er nicht frei verfügbar ist, Teile des Textes und der Abbildungen zu verwenden für andere Zwecke verwenden oder den Artikel in zukünftige Sammlungen aufnehmen.


Bereit für den Verkauf.

Das SalesMakers-Team macht es uns zur Aufgabe, Ihres zu maximieren. Profitieren Sie von einer agilen, kollektiven nationalen Belegschaft, die die neueste Technologie, bewährte Kommunikationspraktiken und eine direkte Einbeziehung des Managements anwendet, die auf Umsatzgenerierung und Service-Verkauf ausgerichtet sind – überall, wo SalesMakers tätig ist.

VertriebMobilisierer

Ein Verkaufsteam, das von Anfang an bereit ist.

SalesMakers baut ein dynamisches Verkaufsteam mit Anreizen durch den Einsatz fortschrittlicher Videotechnologie auf, von persönlichen Interviews und Live-Schulungen im Studio bis hin zu Coaching für den Übergang im Geschäft in Ihrem gesamten Gebiet.

Mit fortschrittlicher Videotechnologie und Best Practices für die Rekrutierung führt unser erfahrenes Personalteam persönliche Live-Feed-Interviews durch, und dynamische Verkaufstrainer führen umfassende Verkaufstrainings im Studio durch, damit Ihr Team Ihre Marke, Ihre Produkte und Ihre Kunden kennt – noch nie zuvor die Verkaufsfläche betreten. Darüber hinaus spornt unsere Wettbewerbskultur und unser Anreizprogramm jeden SalesMaker an, Ihre Ziele zu erreichen und Ihren Gewinn zu steigern.

Verkaufsmotivatoren

Vernetzt, motiviert, agil und informiert.

Mit SalesMakers arbeitet Ihr Außendienst in Echtzeit. Einzelpersonen interagieren mit Kollegen und Managern über Social-Media-Gruppen, GPS-Tracking, „Zeig mir“-Check-ins und mehr, um Herausforderungen zu lösen und Gewinne zu verfolgen – wenn sie passieren, wann und wo immer sie sind.

Das SalesMakers-Management ist direkt involviert, um die optimale Leistung der Vertriebsmitarbeiter bis auf Filialebene zu fördern. Unser Vertriebsteam bleibt intelligent und fokussiert durch sofortige Problemlösung und Managementverbindung zwischen Kollegen, direkte Schulungs- und Supportressourcen und schnelle Reaktion auf Echtzeit-Verkaufsstatistiken. Und SalesMakers gewährleistet jederzeit Kundentransparenz, um Ihren Erfolg in Echtzeit sicherzustellen.

VertriebMover

Erreichen Sie Ihre Verkaufskennzahlen. Verdienen Sie diese Anreize.

Greifen Sie mit dem Smartphone-, Tablet- und Desktop-Zugriff auf aktuelle Berichte zu, damit Sie mit Agilität, Geschwindigkeit und Intelligenz in der Geschwindigkeit von jetzt reagieren können.

Alles ohne den üblichen Verwaltungsaufwand. Wenn Sie das umfassende Konsortium von Business-Intelligence-Tools und -Analysen von SalesMakers nutzen, können Sie mit der Geschwindigkeit von jetzt arbeiten. Verfolgen Sie die betriebliche Compliance, messen Sie Verkäufe, analysieren Sie Aktivitäten und gewinnen Sie Programmeinblicke – alles in Echtzeit – um Verbesserungen voranzutreiben und die Leistung zu optimieren. Und mit der konkurrenzlosen Expertise des SalesMakers-Führungsteams erhalten Sie Einblicke und Auswirkungen, um Ihre Rendite zu maximieren.


Einfache passwortgeschützte Verschlüsselungsdienste

Russell W. F. Lai und Christoph Egger, Friedrich-Alexander-Universität Erlangen-Nürnberg Manuel Reinert, Universität des Saarlandes Sherman S. M. Chow, Chinesische Universität Hongkong Matteo Maffei, TU Wien Dominique Schröder, Friedrich-Alexander-Universität Erlangen-Nürnberg

Passwörter und Zugangskontrollen bleiben trotz ihrer bekannten Anfälligkeit für Brute-Force-Angriffe die beliebte Wahl zum Schutz sensibler online gespeicherter Daten. Eine natürliche Lösung ist die Verwendung von Verschlüsselung. Obwohl Standardpraktiken der Verwendung von Verschlüsselung das Problem etwas mildern, ist eine Entschlüsselung oft für den Nutzen erforderlich, und es ist offensichtlich gefährlich, den Entschlüsselungsschlüssel in Reichweite zu halten. Um dieses scheinbar unvermeidliche Problem der Datensicherheit zu lösen, schlagen wir die passwortgeschützte Verschlüsselung (PHE) vor. Mit Hilfe eines externen Krypto-Servers kann ein Dienstanbieter die von PHE verschlüsselten Benutzerdaten nur dann wiederherstellen, wenn ein Endbenutzer ein korrektes Passwort angegeben hat. PHE erbt die Sicherheitsfunktionen der Passwort-Härtung (Usenix Security ’15) und bietet zusätzlichen Schutz für die Benutzerdaten. Insbesondere erfährt der Krypto-Server keine Informationen über irgendwelche Benutzerdaten. Noch wichtiger ist, dass sowohl der Kryptoserver als auch der Dienstanbieter ihre geheimen Schlüssel rotieren können, ein proaktiver Sicherheitsmechanismus, der vom Payment Card Industry Data Security Standard (PCI DSS) vorgeschrieben wird. Wir bauen ein extrem einfaches passwortgeschütztes Verschlüsselungsschema. Verglichen mit dem modernen Passwort-Härtungsschema (Usenix Security ’17) verwendet unser Schema nur minimale zahlentheoretische Operationen und ist daher 30% - 50% effizienter. Tatsächlich zeigt unsere umfangreiche experimentelle Bewertung, dass unser Schema mehr als 525 Verschlüsselungs- und (erfolgreiche) Entschlüsselungsanforderungen pro Sekunde und Kern verarbeiten kann, was zeigt, dass es leichtgewichtig und in großen Systemen leicht einsetzbar ist. In Bezug auf die Sicherheit erreicht unser Schema auch eine stärkere Soliditätseigenschaft, die weniger Vertrauen in das gute Verhalten des Krypto-Servers setzt.


Schau das Video: JOINING POINTS ON ARCMAP