Internetagenten und mobile Internetdienste

w5.cs.uni.sb.de

Internetagenten und mobile Internetdienste

Termine

2

Vorlesung im Wintersemester 2003/2004

Internetagenten und

mobile Internetdienste

Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster

wahlster@dfki.de

0681 302 5252 oder 2362

Übungen: Boris Brandherm

Christoph Endres

Patrick Brandmeier

Klausur: 19.2.2004 9.00-11.00

Ausweichtermine: Dienstag 16-18.00?

Nächste Vorlesung: 30.10., 9.15


Was sind Netzagenten?

3

4

... ein Netzagent ist ein auf der

Agententechnologie beruhendes

Programm, das Aufträge des

Benutzers ausführt, indem es

Netzdienste selbstständig ansteuert,

auswertet, interpretiert

und die Verarbeitungsergebnisse

benutzeradaptiv präsentiert.

Intelligente Software-Assistenten für die Infobahn

Heute

Präsentationsdienste

z.B. NETSCAPE

Anwender

WWW-

Dokumente

Internet

Suchdienste

z.B. Google

Zukünftig

Anwender

Persönlicher

Netzassistent

Intelligente

Infrastruktur-Dienste

WWW-

Dokumente

Internet


Netbots als persönliche Assistenten

5

6

Netbot := Intelligenter Agent der Internet-Werkzeuge im Auftrag eines

Benutzers bedient

z.B. Ahoy!,

Jango, AiA

Netbots

Indices,

Verzeichnisse,

Suchsysteme

WWW

Persönliche

Assistenten

Massendienste

Netbot für den Touristen: versucht die Ziele des Reisenden zu befriedigen

(generiert Pläne und führt sie aus)

Überprüft Verfügbarkeit

Findet günstigstes Angebot

Beachtet persönliche Präferenzen (z.B. Frequent Flyer Programm,

Sitzplatz-Präferenz)

Teilt dem Reisenden mit, wenn Sitzplätze frei werden

Nachteile konventioneller Internet-Suchsysteme

Suche in manuell erstellten Verzeichnissen (z.B. Yahoo!)

Für große dynamische Kategorien werden aktuelle

Verweise nicht gefunden (Klassifikation zu aufwendig und zu langsam)

☺ Für kleine und statische Informationskategorien viele korrekte und

vollständige Suchergebnisse

Suche in automatisch generierten Verzeichnissen (z.B. Google)

Sehr umfangreiche und unpräzise Ergebnisse, die vom Benutzer

weiter gefiltert werden müssen

☺ Relativ vollständig bis auf aktuelle Seiten, die noch nicht

indiziert wurden


Intelligente Suchassistenten: Weniger ist mehr

7

8

Netbots sind spezielle Softbots, die Internet-Dienste im Auftrag eines

Benutzers effizient ansteuern, gezielt kombinieren und intelligent auswerten. Sie

integrieren KI-Techniken wie heuristische Suche, deduktives Planen,

maschinelles Lernen und Sprachverarbeitung.

Frühe Beispiele für Netbots:

MetaCrawler ist ein Netbot, der durch Transformation einer einzigen Suchanfrage

mehrere Suchmaschinen parallel ansteuert und deren Ergebnisse filtert, bevor er

sie zu einem Gesamtergebnis vereinigt.

Ahoy! ist ein wissensbasierter Netbot zum Auffinden persönlicher Homepages

u.a. durch Nutzung des MetaCrawlers. Er findet im Mittel

nach 13 Sekunden weltweit die Homepage für eine gesuchte Person.

Intelligente Infrastruktur-Dienste auf der Infobahn

Konsument

Käufer von:

Information

Waren

Dienstleistungen

Multimodale

WWW-Seiten

Software Agent

Informationsfilterung

Informationskondensierung

Informationsvermittlung/Makler

Teleshopping-Assistenz

Telemarketing-Assistenz

Übersetzungsdienste

Datenanalyse

Wissensgewinnung

Anbieter

Verkäufer von:

Information

Waren

Dienstleistungen

Wissen über:

Nutzungsmuster

Benutzermodelle

Kundenprofil


Drei Generationen von Web-Seiten

9

Erste Generation Zweite Generation Dritte Generation

Statische

Web-Seiten

Papierersatz in HTML

Interaktive

Web-Seiten

JavaScripts und Applets

Datenbank-Zugriff und

Template-basierte

Generierung

Dynamische

Web-Seiten

Was ist eine virtuelle Webseite?

10

Bekannt in der Informatik: virtueller Speicher, virtuelle Relation,

virtuelle Realität (VR)

Eine virtuelle Webseite

Virtuelle

Web-Seiten

Netbots,

Informationsextraktion,

Presentationsplaner

Benutzermodellierung,

Maschinelles Lernen,

Online Layout

Adaptive

Web-Seiten

wird jeweils aktuell als Kombination von verschiedenen Medienobjekten

aus unterschiedlichen Web-Angeboten oder als Transformation einer

realen Webseite erzeugt.

wirkt wie eine reale Webseite, aber ist nicht persistent gespeichert.

integriert und koordiniert neu synthetisierte und im Netz gefundene

Medienobjekte.

kann auf ein spezifisches Nutzerprofil zugeschnitten werden und an

einen bestimmten Interaktionskontext adaptiert werden.

hat eine zugrundeliegende Repräsentation des Präsentationskontextes,

so daß ein Schnittstellenagent Komponenten der Seite dokumentieren

und erklären kann.


Extrahiertes Material wird durch Abstraktion

und Annotationstechniken hervorgehoben

11

Netbots im Vergleich mit Push-Technologien

1

2

3

12

Massenaussendung (Push-Technologie)

Kunde 1

Kunde 2

Kunde N

Information

Information

Information

Interaktive Anfrage (Pull)

Kunde

Anfrage

Information

Anbieter

Anbieter

Netbots mit parallelen Anfragen (Parallel Pull)

Anfrage

Kunde Netbot

Information

Anbieter 1

Anbieter 2

Anbieter N

+ kein Kundenaufwand

- geringe Adaption

+ gute Adaption

- großer Kundenaufwand

+ gute Adaption

+ geringer Kundenaufwand


Software

Agenten

Verstehen von

Benutzeranfragen

Beantwortung von

Klärungsfragen

Dialoge mit

gemischter Initiative

13

14

INTER-

AKTIV

Visualisierung als Persona

Autonome Interaktionsplanung

Initiative in der Interaktion

AKTIV

INTERNET

AGENTEN REAKTIV

PROAKTIV

Antizipation von Benutzerwünschen

Adaption an Benutzerziele

Überbeantwortung von Fragen

Ahoy! - ein Softbot zur Suche von persönlichen

Homepages

Sofortige Reaktion

auf Unterbrechungen,

Kritik und

Klärungsfragen

Direkte Manipulation

Nur zwei obligatorische Eingaben: Vorname und Familienname der Person

Benutzt einen anderen Softbot namens Metacrawler als Meta-Suchhilfe

Verwendet außerdem verschiedene Suchhilfen für email-Adressen

-OKRA, WhoWhere?, IAF

Greift auf die Institutionen-Datenbank von Yahoo! zu


Die Architektur von Ahoy!

Anfrage:

15

Name

Institution

MetaCrawler

Netbot mit Zugriff auf

WWW-Suchdienste

Email-

Suchdienste

Institutionen-

Suchdienste

Ahoy!

Filterung

und

Bewertung

Der URL-Generator von Ahoy!

16

URL-

Generator

URL-

Zugriff

und

Auswahl

Ahoy! findet auch persönliche Homepages, die in keinem Index

verzeichnet sind, indem es wissensbasiert potentielle URLs für die

gesuchte Person generiert, danach sucht und - falls sie existieren - das

Ergebnis filtert und präsentiert.

Der URL-Generator greift auf eine URL-Musterbasis zu, die aus Tripeln

der Form [name, institution, URL] besteht.

Diese Musterbasis wird durch den Musterextraktor gebildet. Jede mit

hoher Bewertung über MetaCrawler gefundene Seite wird als Erfolg

gewertet und vom Musterextraktor als positives Lernbeispiel betrachtet:

Es werden die Namen von Web-Servern an Institutionen gelernt.

Es werden Pfadnamen von Homepages auf den Servern gelernt,

wobei Substrings mit dem Personennamen beachtet werden.

Persönliche

Persönliche

Homepage Homepage


Beispiel für die Generierung

einer URL durch Ahoy!

Gesucht sei die persönliche Homepage von Rob Jacob an der

Tufts Universität. Die Seite sei über Suchsysteme nicht zu finden.

Bei früheren Suchen hat Ahoy! folgende Server bei Tufts entdeckt

und durch den Musterextraktor in der Musterdatenbasis abgelegt:

www.cs.tufts.edu mit Pfadnamen wie ~[username]/

emerald.tufts.edu mit Pfadnamen wie people/[username]/

Falls Rob Jacobs´ Benutzername durch die email-Suchsysteme nicht

gefunden wird, rät der URL-Generator einen möglichen Benutzernamen

(z.B. rjacob, rob, robjacob) und kombiniert ihn mit den gelernten Servern

und Pfadnamen.

17

Potentielle URL für eine nicht indizierte

Homepage

Da bekannt ist, daß Rob Jacobs an der Tufts Universität ist, sind Web-Server

bei tufts.edu relevant. Ahoy! testet folgende URLs:

18

www.cs.tufts.edu/~rjacob/

www.cs.tufts.edu/~robjacob/

www.cs.tufts.edu/~rob/

www.cs.tufts.edu/~rj/

www.cs.tufts.edu/~robj/

www.cs.tufts.edu/~jacob/

emerald.tufts.edu/people/rjacob/

emerald.tufts.edu/people/robjacob/

emerald.tufts.edu/people/rob/

emerald.tufts.edu/people/rj/

emerald.tufts.edu/people/robj/

emerald.tufts.edu/people/jacob/