Werner Stangls
Tips zur Suche im internet

Auf dieser site werden Informationen, links und Materialien zum Umgang und zur Erleichterung des Umgangs mit der Datenfülle des internet bereitgestellt. Ich stütze mich dabei neben eigenen Arbeiten auf Vorarbeiten von KollegInnen, die bei der jeweiligen Quelle angegeben werden.

Es gibt grundsätzlich sechs Such- bzw. Navigationsmethoden im internet:


Die Vorstellung, im WWW die Lösung aller wissenschaftlichen Probleme oder auch nur alle relevanten Informationen zu einem Themenbereich zu finden, darf nicht zur Richtschnur für den Einsatz des WWW genommen werden. Zwei Probleme sind besonders hervorzuheben:

Katalog- und verzeichnisbasierte Suche

Das Suchverfahren in Katalogen basiert auf der Navigation in hierarchisch aufgebauten Sachgebieten oder geographischen Listen bzw. Karten. Dadurch, daß nicht zu viele Dokumente auf einer Ebene sein dürfen, da sonst der Benutzer schnell das Interesse durch ein informationelles Überangebot verlieren könnte, sind die Organisatoren von Katalogen gezwungen, nach »guten« Startseiten (Home Pages) zu den einzelnen Themen zu suchen. So werden nur bekannte und themenrelevante WWW-Dokumente aufgenommen. Auf den Inhalt eines Katalogs kann man aber auch selbst Einfluß nehmen, indem über WWW-Formulare Verweise auf eigene Dokumente eingetragen oder Vorschläge gemacht werden können. Fast jeder Katalog bietet eine Rubrik »Home Pages« für Privatpersonen an, in dem beliebige Dokumentverweise erlaubt sind. In beiden Fällen erfolgen die Einträge manuell und die Aktualität sowie richtige Einordnung der Einträge hängt von den Eintragenden ab.

Kataloge eignen sich vor allem, wenn man zu einem gewissen Thema bzw. Sachgebiet einen Einstieg finden will ohne dabei ganz gezielt nach bestimmter Information zu suchen. Das Browsen des Benutzers in einem Katalog erlaubt auch Einblicke in ähnliche und benachbarte Themen (Serendipity), die beim Einstieg in neue Gebiete durchaus wünschenswert sind und bei der Stichwortsuche eher ausbleiben.

Aber auch WWW-Kataloge sind so umfangreich, daß die Navigation in diesen schwerfällig ist und Möglichkeiten zur schnellen Suche über Stichworte und Suchhilfen angeboten werden. Diese Stichwortsuche ist aber für den Benutzer meist sehr unzufriedenstellend, da die Suche nicht auf den Volltexten basiert, sondern nur über Inhalte des Titels und der Dokumentadresse gesucht wird. Die angebotenen Suchmethoden und -operatoren sind deshalb meist nur auf Boolesche Operatoren und eine Suchraumeingrenzung auf die einzelnen Katalogrubriken beschränkt.

Jedoch gibt es auch Kataloganwendungen, bei denen die Stichwortsuche eine größere Rolle spielt als die Navigation, wie z.B. bei E-Mail-Adressverzeichnissen. Abgesehen davon, daß die globale Suche hierbei nur über WWW-Kataloge bzw. Verzeichnisse möglich ist, da E-Mail-Adressen im Gegensatz zu Web-Seiten nicht automatisch abgefragt werden können, ist der Anwender weniger daran interessiert, in einem E-Mail-Verzeichnis zu navigieren, sondern eher über die Stichwortsuche die gewünschte E-Mail-Adresse herauszufinden.

Nach Gertsch (1999) empfehlen sich vor allem für Anfänger Kataloge als Alternative zu den großen Suchmaschinen, welche keinen Unterschied machen zwischen einer Reparaturanleitung, einem Ferienprospekt, einem Gedicht oder einer wissenschaftlichen Abhandlung, solange das gesuchte Stichwort darin erscheint. Es gibt aber auch tausende von verschiedenen Katalogen und Verzeichnissen, die von Menschenhand und damit nach einer nachvollziehbaren Logik und Systematik erstellt worden sind. Am wertvollsten für die Recherche sind kleinere Listen von Ressourcen zu einem bestimmten Thema oder Gegenstand, welche von öffentlichen Institutionen - zum Beispiel den Universitätsbibliotheken - Firmen, Verlagen oder Privatpersonen erstellt worden sind und die jeweils nur einen kleinen, dafür aber fokussierten Ausschnitt aus der Menge an Information auf dem WWW erschließen. Wie findet man nun aber den thematischen Spezialkatalog, der für die geplante Recherche relevant ist? Am schnellsten, indem man nicht über eine Suchmaschine, sondern über einen thematischen Katalog (einen sogenannten subject tree catalogue) ins WWW einsteigt.

Die großen thematischen Kataloge (zB Yahoo) oder die sogenannten virtuellen Bibliotheken (zB diejenige der Universitätsbibliothek Düsseldorf oder die WWW Virtual Library) erleichtern die Suche nach Spezialkatalogen zu bestimmten Fachgebieten oder Gegegnständen. Man öffnet im - deutschen oder internationalen - Yahoo Katalog das gewünschte Fachgebiet und wählt dann dort die Unterkategorien "Indices" oder "Directories".

Hat man via thematische Kataloge erst einmal einige für die Recherche relevante Spezialverzeichnisse gefunden, so geht es in einem nächsten Schritt darum, herauszufinden, ob diese Verzeichnisse auch speziell genug sind. Das ist im allgemeinen dann der Fall, wenn man beim Sichten der verschiedenen Ressourcenverzeichnisse feststellt, daß kaum mehr neue Information auftaucht. Erst jetzt kann man mit der Evaluation der eigentlichen Quellen beginnen. Letztlich wird man bei einzelnen Dokumenten landen, die es inhaltlich und formal zu evaluieren gilt.


Empfehlenswerte Literatur

Gertsch, Christian A. (1999): Lernen und lehren mit Internet.
WWW:
http://www.cx.unibe.ch/ens/qual.html (99-12-31)
Gorraiz, Juan (1999). Suchtips.
WWW:
http://www.zbp.univie.ac.at/gj/vortrag/tips.htm (99-01-07)
Stangl, Werner (1996). Richtlinien für Quellennachweise. Zitieren von Quellen aus dem Internet
WWW:
http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/Zitation.html (97-12-21)
Stangl, Werner (1997). Die Definition von Begriffen mit dem internet. Ein Vergleich von traditionellen Quellen mit internet-Recherchen.
WWW:
http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/ONLINERECHERCHE/ Begriffssuche.html (97-12-21)
Karzauninkat, Stefan (1998). "Die kleine Suchfibel"
WWW:
http://www.suchfibel.de/ (98-12-10)
Stefan Karzauninkat (1999). Zielfahndung. Suchmaschinen, Kataloge, Spezialisten und kommerzielle Datenbanken richtig einsetzen. c't 23/99.
Binder, Wolfgang (1997). Wie findet man die Nadel im Heuhaufen? Einführung in Suchdienste für WWW-Dokumente.
WWW:
http://www.ub.uni-bielefeld.de/biblio/search/smkurs.htm (98-04-28)
Gorraiz, Juan (1999). SUCHSTRATEGIEN.
WWW:
http://www.zbp.univie.ac.at/gj/vortrag/sust.htm (99-01-07)
Müller, Stefan (1997). Können Sie eigentlich logisch denken?
WWW:
http://www.sozialwiss.uni-hamburg.de/phil/ag/search/stringlogik.html (97-12-22)
Bleuel, Jens (1996). Zitieren von Quellen im Internet.
WWW:
http://ourworld.compuserve.com/homepages/jbleuel/ip- zitl.htm (97-12-22)
Hosenfeld. Friedel (1999). Wissenschaftliches Arbeiten im WWW. Suchen und Finden im Internet.
WWW: *** (99-12-31)
Quelle: Rohs, Michael (1996). WWW-Unterstützung durch intelligente Agenten.
WWW: http://www.informatik.tu-darmstadt.de/VS/Lehre/WS95-96/Proseminar/rohs/ (01-02-97)
Bekavac,
Bernard (1998). Tutorial zur Suche im WWW/Internet (1.2).
WWW: http://www.inf-wiss.uni-konstanz.de/People/bb.html (99-12-30)


Suchmaschinen

Roboter, auch Spider, Wanderer oder Worm genannt, sind Programme, die entlang von WWW-Hypertextstrukturen Dokumente automatisch verarbeiten. Dabei wird ein Dokument geladen, der Inhalt analysiert und es werden referenzierte Dokumente rekursiv weiterverfolgt. Einige große Suchdienste arbeiten über ihre Roboter große Teile des Webs ständig ab. Die zugehörigen Volltextindizes oder auch nur Teilindizes der Dokumente werden in Datenbanken gespeichert. Diese Datenbanken bilden die Grundlage für die Suchmaschinen bzw. Such-Server, die inzwischen über Benutzerschnittstellen mit diversen Abfrageformularen die Suche nach WWW-Dokumenten ermöglichen.

Die Vorteile dieses Suchverfahrens liegen auf der Hand. Über Abfrageformulare, über die die meisten Suchmethoden und -operatoren angewendet werden können, kann der Benutzer weltweit nach Informationen suchen. Die Suchanfrage wird in einer üblicherweise angemessenen Zeit vom Suchserver abgearbeitet und das Ergebnis dem Benutzer in Form einer meist nach Relevanzgrad sortierten Trefferliste präsentiert. Teilweise werden zu den Treffern auch Teile des Originaldokuments oder automatisch generierte Abstracts sowie andere Zusatzinformationen hinzugefügt, die dem Benutzer helfen sollen, die Relevanzbestimmung zu erleichtern. Dieser kann dann direkt zu den Trefferdokumenten navigieren und von dort aus, falls nötig, über weitere Navigation die gewünschte Information erarbeiten. Die semantische Zusammengehörigkeit von WWW-Hypertexten oder die hierarchische Struktur, die WWW-Kataloge wenigstens ansatzweise wiedergeben, lassen roboterbasierte Suchdienste allerdings ganz außer acht.

Die ständigen Zugriffe der Suchmaschinen belasten natürlich auch weltweite WWW-Server. Die Belastung von WWW-Server durch Roboter hängt zum einem von der Anzahl Roboter und ihrer Zugriffshäufigkeit ab und zum anderem von der Strategie des Zugriffs. Dabei wird unterschieden, ob parallel auf mehrere Dokumente zugegriffen wird oder ob die WWW-Seiten sukzessive abgerufen werden. Tests haben ergeben, daß sich sowohl die eine oder andere Zugriffsstrategie bei WWW-Servern negativ auf die Performance auswirken kann. Natürlich spielen dabei auch weitere Faktoren eine Rolle, wie z.B. die Leistungsfähigkeit einer Server-Maschine und ob diese zusätzlich anderweitig genutzt wird. Immerhin gibt es die Möglichkeit, über den »Standard for Robot Exclusion« WWW-Server vor Roboterzugriffen zu schützen. Im Prinzip ist dies eine spezielle Datei im Serververzeichnis, über die Roboter erfahren, welche Dokumente bzw. Teile des Servers gelesen werden dürfen. Dies ist jedoch kein richtiger Zugriffsschutz, sondern eine Art Abmachung unter den Betreibern der Suchdienste.

Die Bekanntheit und Beliebtheit von Suchservern spiegelt sich in ihrem Zugriff wieder: Die bekanntesten Suchmaschinen bearbeiten bis zu mehreren Dutzend Millionen Anfragen pro Tag.
Die Verarbeitung und Aktualisierung einer stark wachsenden Anzahl von WWW-Dokumenten weltweit sowie die große Menge von Suchanfragen verlangen die höchsten Ansprüche an Hard- und Software des Suchservers. Meistens sind die Aufgaben in solch einem System auf mehrere in einem Netz verbundene Rechner verteilt. Dabei werden unterschiedliche Softwarekomponenten eingesetzt. Welche Programme dies konkret sind, ist von Dienst zu Dienst unterschiedlich. Als Hauptkomponenten kann man aber auf jeden Fall Roboter, Datenbank und die Anfragebearbeitung herausstellen.

Die Suchmaschinen sind zweifellos die weitaus meistbenutzten und komfortabelsten Suchdienste des Internet. Um diese richtig einzusetzen und damit einen hohen Nutzen daraus zu ziehen, bedarf es neben der Kenntnis und Anwendung der weiter unten beschriebenen Suchmethoden und -operatoren auch eines tieferen Einblickes in ihre Funktionsweisen. Dies ist vor allem wichtig, um sich bewußt zu machen, welche Internet-Dokumente nun tatsächlich von den Robotern erschlossen werden und welche nicht.

Unabdingbare Voraussetzung für eine erfolgreiche Recherche mit Suchmaschinen ist nach Gertsch (1999) eine möglichst genaue Formulierung des Recherchevorhabens, und zwar vor Suchbeginn. Je präziser ein Recherchevorhaben formuliert werden kann, desto grösser die Wahrscheinlichkeit, innert nützlicher Frist relevante Dokumente zu finden. Suchmaschinen - ebenso wie die thematischen Kataloge- enthalten nicht die Dokumente selber, sondern bloß deren Titel - eventuell zusammen mit einer kurzen Beschreibung des Inhalts - und ihre internet-Adresse. Die Relevanz des Resultats für die eigene Recherche hängt dabei zunächst von den folgenden vier Faktoren ab:

Sind diese vier Bedingungen erfüllt, ergibt sich als Resultat in den meisten Fällen immer noch eine ansehnliche Liste von Dokumenten, die für die Recherche allenfalls relevant sein könnten. Erst wenn diese Liste nicht mehr als ein paar Dutzend Dokumente enthält, hat man Gewähr, dass die Suchvorgaben richtig gewählt worden sind.

Suchmaschinen sind feine und mittlerweile unverzichtbare Einrichtungen im Internet. Um aber effektiv die Informationen zu finden, die man gerade sucht, sind gewisse Maßnahmen zu beachten. Im allgemeinen ist es so, daß das Gefühl für die richtige Bedienung einer Suchmaschine sich erst mit der Zeit und nach einigen erfolgreichen und vergeblichen Versuchen einstellt. Aus diesem Grund kann es auch sinnvoll sein, sich für die meisten Suchen auf die leistungsfähige Suchmaschine zu beschränken, die einem/einer gut bekannt sind. Natürlich gibt es auch Gründe, von Zeit zu Zeit andere Suchmaschinen zu testen, um die Mechanismen und Erfolgsquoten vergleichen zu können.

Im Normallfall wird bei der einfachen Suche nach WWW-Seiten gesucht, die eines der angegebenen Wörter enthalten. Nun ist es aber häufig so, daß nicht nur eines dieser Worte, sondern mehrere oder möglichst alle in der gesuchten WWW-Seite vorkommen sollten.

Sehr viel mehr ist allerdings mit der erweiterten Suche machbar. Die erweiterte Suche - hier als Beispiel Altavista - bietet vier Vorteile gegenüber der einfachen Suche:

Um verschiedene Begriffe miteinander zu verknüpfen, müssen die Operatoren AND (und), OR (oder), NEAR (nahe bei) und NOT (nicht) verwendet werden. Sie müssen in englisch (wie hier aufgeführt) sein, können aber auch klein geschrieben werden. Alternativ dürfen auch Symbole benutzt werden:

AND

OR

NEAR

!

NOT

Der NEAR-Operator bedeutet, daß zwischen zwei damit verknüpften Suchbegriffen höchstens zehn andere Worte liegen dürfen. Der Operator NOT dient dazu, bestimmte Begriffe aus einer Anfrage auszuschließen, d.h. es werden nur Seiten gefunden, in denen dieser Begriff nicht auftaucht. Er muß immer mit anderen Operatoren zusammen verwendet werden. Außerdem können Klammern gesetzt werden, um deartige Ausdrücke zusammenzufassen. Es ist aus Übersichtlichtkeitsgründen sogar sehr sinnvoll, Klammern zu setzen.

Interessant ist auch der Aspekt der Groß- und Kleinschreibung. Wenn Wörter klein geschrieben werden, signalisiert dies, daß die Schreibweise egal ist. Bei der Verwendung von Großbuchstaben wird allerdings auf exakte Übereinstimmung geprüft. Wenn die Schreibweise nicht berücksichtigt werden soll, ist es also immer sicherer, nur Kleinbuchstaben zu schreiben.

AltaVista bietet an, daß die Suche nach Begriffen nur auf bestimmte Bereiche eines Dokuments wie etwa den Titel beschränkt wird. Das Beschränkungsschlüsselwort (wie etwa "title") muß dabei komplett in Kleinbuchstaben geschrieben werden und mit einem Doppelpunkt (direkt dahinter) abgeschlossen werden.

Evaluieren der Resultate von Suchmaschinen

Bevor man nun einzelne Dokumente herunterlädt, empfiehlt Gertsch (1999), die Information, welche die Suchmaschine über die Dokumente liefert, etwas genauer zu studieren. Alle Suchmaschinen liefern:

- den Dokumenttitel

Er gibt zunächst einmal Aufschluß über die Sprache, in der das Dokument verfasst ist. Der Titel kann ferner aussagekräftig und präzise sein oder sehr allgemein gehalten. Manchmal fehlt er ganz (no title) oder er ist verstümmelt oder auf sonst eine Weise unvollständig, was immer auf mangelnde Professionalität bei der Seitenerstellung schließen läßt. Solche Dokumente sind meist wertlos.

- den URL

Hier erfährt man einiges über den Anbieter der Seite: Aus welchem Land stammt er (.de, .ch, ...); handelt es sich um eine Firma (.com); eine Universität (.edu); eine nicht-kommerzielle Organisation (.org); ein kurzer URL verweist meist auf eine wichtige Einstiegsseite (homepage), wogegen lange URLs, in denen Unterverzeichnisse erscheinen, eher auf ein spezielleres Dokument in einer ganzen Dokumentstruktur verweisen. Private Homepages erkennt man oft daran, dass sie sich in einem Verzeichnis 'hompages' befinden, oder in einem Verzeichnis, dessen Name ein Eigenname mit vorangestellter Tilde (~) ist.

Die folgende Recherche möge als kleine Illustration dazu dienen. Alle die folgenden Dokumente wurden mit den Stichwörtern "inline skating" in der Suchmaschine Excite gefunden. Aufgrund der Dokumenttitel und der URLs (http:// ...) lässt sich bereits einiges über die Dokumente aussagen:

Yahoo! - Sports and Recreation:Skating:Inline Skating 

http://dir.yahoo.com/Regional/U_S__States/California/Metropolitan_Areas/San_

Francisco_Bay_Area/Recreation_and_Sports/Skating/Inline_Skating/

 Die Seite über In-line Skating im lokalen Yahoo Katalog für die San Francisco Bay Region.

Aggresive Inline Skating

http://restonweb.com/sports/sporttalk/messages/11.html

 Ein Beitrag zum Thema "Aggresivität der Skater" in einem Diskussionsforum auf dem WWW.

 Inline skating in the Netherlands

http://www.nada.kth.se/~johannes/inline/

 Eine persönliche Seite eines Holländers, der in Schweden lebt (auf einem schwedischen Server).

 InLiners - An Introduction to Inline Skating

http://www.inliners.co.uk/links.html

 Eine Sammlung von links zum Thema (auf einem englischen Server)

 Rullaluistelu linkit 

http://www.webtravel.fi/luistelu/linkit.htm

 Ein Dokument in finnischer Sprache

 Simon Atkinsons Rollerblading Page 

http://www.cs.york.ac.uk/~ska/Hobbies/inline.html

 Simon Atkinsons persönliche Seite zum Thema (auf einem englischen Server)

  International Inline Skating Association (IISA) Resource Center 

http://www.iisa.org/

 Die Home Page des Internationalen Inline Skating Verbandes.

- eine kurze Inhaltsbeschreibung:

Oft handelt es sich dabei bloß um die ersten paar Zeilen des Dokuments. Professionelle WWW-Autoren sind deshalb immer dafür besorgt, dass wichtige Informationen über den Inhalt des Dokuments gleich in den ersten Zeilen erscheinen. Zusammen mit dem Titel und dem URL lassen sie Rückschlüsse zu über die Sprache und Textsorte (kommerziell, nicht-kommerziell, privat, offiziell, ...) des Dokuments.

Es gibt keine allgemeingültigen Kriterien dafür, welche Dokumente relevant sind. Je nach Recherche wird man gewisse Kriterien höher gewichten als andere. Recherchiert man z.B. ein sehr entlegenes, spezielles Fachgebiet, das eher von einzelnen Personen als von Institutionen gepflegt wird, so wird man privaten Dokumenten mehr Beachtung schenken als solchen von Universitäten oder Firmen. Sucht man offizielle Informationen zu einem Thema, so wird man sich eher an die Publikationen von öffentlichen Institutionen halten. Sucht man Informationen über bestimmte Produkte (auch Bücher, CDs, Filme, ...), so werden kommerzielle Anbieter wichtige Informationsquellen sein. Sehr aktuelle Informationen zum Tagesgeschehen findet man auf den Servern von Tageszeitungen und Nachrichtenagenturen.

Nachdem die für die persönliche Recherche allenfalls relevanten Adressen identifiziert sind, lassen sich die Dokumente herunterladen und evaluieren.


Evaluieren eines einzelnen Dokuments

Um die Qualität und Relevanz des Inhalts eines einzelnen Hypertextdokuments zu beurteilen, braucht es nach Gertsch (1999) - genau wie bei den Druckmedien - Sach- und Fachkenntnisse in den Bereichen, die das Dokument beschlägt. Kennt man sich in den Inhalten nicht besonders gut aus, so kann man sich auf die Beurteilung des fraglichen Dokuments durch andere Benutzer abstützen. Zu diesem Zweck gibt man z.B. im Altavista Advanced Modus ein: link:URL des Dokuments. Auf diese Weise erhält man eine Liste von Dokumenten, welche das Dokument zitieren. Eventuell finden sich auf diese Weise Besprechungen, Kommentare, Bewertungen des fraglichen Dokuments. In jedem Fall erkennt man, wer sich für das Dokument interessiert.

Findet man keine Verweise auf das Dokument, so bleibt immerhin die Beurteilung von formalen Kriterien, die meist verlässliche Rückschlüsse auch auf die Qualität und vor allem die Dichte der im Dokument enthaltenen Information erlauben.

Qualitativ hochstehende Hypertextdokumente auf dem WWW zeichnen sich durch folgende formale Eigenschaften aus:

Sind alle diese Anforderungen erfüllt, so kann man mit einiger Sicherheit davon ausgehen, dass auch der Inhalt gewissen Ansprüchen standhält.

Irreführende Werbung

In letzter Zeit ist es immer üblicher geworden, sogenannte Werbebannerìauf WWW-Seiten (insbesondere bei Suchmaschen oder "Portal Sites") einzublenden. Mit den lästigen Ladezeiten dieser Bildchen könnte mensch sich eigentlich noch abfinden. Leider ist es aber zunehmend so, daß diese Werbebanner nicht als solche gekennzeichnet werden. Es wird einerseits suggeriert, daß sie ein Teil der angewählten Seite bilden, und andererseits soll der Anwender/die Anwenderin zum Anklicken dieser Werbebanner ermutigt werden, wobei dies meiner Meinung teilweise unter graphischer Vorspiegelung falscher Funktionen erfolgt. So werden Scrollbars dargestellt, die vermeintlich verdeckte Textteile sichtbar machen sollen. Klickt jemand auf diesen vorgetäuschten Scrollbar, landet er unbeabsichtigt auf einer ganz anderen Seite. Ebenso werden Informationen über den eigenen Computer bzw. ein Systemcheck versprochen, in Wirklichkeit verbirgt sich dahinter wiederum ein Link auf eine andere WWW-Seite.


Zusammenstellungen von Suchmaschinen

Die Standardsuchmaschinen,
weitere Suchmaschinen im Internet (schon alt :-)
eine dritte umfangreiche Liste von Suchmaschinen
Aller guten Dinge sind 4: Noch eine Sammlung von Suchmaschinen
Ach ja, da gibt es noch eine weitere Sammlung von Suchmaschinen
und dann Web-Kataloge - Suchmaschinen - Metasuchmaschinen - E-Mail-Suche - Programm-Suche und die Zusammenstellung des PI St. Pölten!
[pLANet]s Suchmaschinen.


Die Zukunft? Intelligente Agenten

Mit dem Fortschreiten der weltweiten Vernetzung und der damit verbundenen steigenden Komplexität bedarf es neben den teilweise schon ausgereiften Suchdiensten auch der Erforschung und Entwicklung neuer Methoden zur Unterstützung der Nutzer für ein effizientes und zielgerichtetes Arbeiten im Internet.
In diesem Zusammenhang hört man oft den Begriff »Intelligente« oder »Mobile« Agenten. Diese weiterführenden Konzepte aus dem Bereich der Künstlichen Intelligenz versprechen eine weitere Professionalisierung des Umgangs mit dem Internet. Die aufgrund dieser Konzepte entwickelten intelligenten Agenten sind Programme, die Aufträge eines Benutzers oder eines anderen Programmes mit einem gewissen Grad an Eigenständigkeit und Unabhängigkeit ausführen und dabei Wissen über die Ziele und Wünsche des Benutzers anwenden.
Wenn auch momentan keine universell gültige und akzeptierte Definition des Begriffs »Agenten« existiert, gibt es doch einige Charakteristiken, die solche Agenten gemeinsam haben (sollten):

Als »Mobile Agenten« werden solche bezeichnet, die sich selbst mitsamt ihrem Code und ihrem inneren Zustand, d.h. mit den bis dahin von ihnen gesammelten Informationen, durch das Internet bewegen können. Die hier besprochenen Charakteristiken sind nicht notwendig mobil. Nicht alle mobilen Agenten benutzen Mittel der Künstlichen Intelligenz.

 

Quelle: Rohs, Michael (1996). WWW-Unterstützung durch intelligente Agenten.
WWW: http://www.informatik.tu-darmstadt.de/VS/Lehre/WS95-96/Proseminar/rohs/ (01-02-97)


©opyright Werner Stangl, Linz 1997. These pages belong to "Werner Stangls Arbeitsblätter": http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/Arbeitsblaetter.html
Permission is hereby granted to use these documents for personal use and in courses of instruction at educational institutions provided that the articles are used in full and this copyright statement is reproduced. Permission is also given to mirror these documents on WorldWideWeb servers. Any other usage is prohibited without the written permission of the author. Please mail:
jku@stangl.eu
http://paedpsych.jk.uni-linz.ac.at/INTERNET/ARBEITSBLAETTERORD/ONLINERECHERCHE/Onlinerecherche.html