https://www.grenzwissenschaft-aktuell.de


Donnerstag, 13. März 2008

"Second Life"-Figur zeigt Entwicklungsstand von Vorschulkindern

"False Belief"-Test in "Second Life"

Troy/ USA - Mittels einer Software für künstliche Intelligenz, hat eine am Computer simulierte Spielfigur aus dem Online-Spiel "Second Life" einen eigentlich für Menschenkinder entwickelten kognitiven Fähigkeitstest zur Ermittlung kognitiver Lernfähigkeiten gemeistert und somit Fähigkeiten eines vier- bis fünfjährigen Kindes erreicht.

Der so genannte "False Believe"-Test überprüft, ob das Kind jenen kognitiven Entwicklungsstand erreicht hat, ab dem es in der Lage ist zu erkennen, dass andere Menschen Überzeugungen haben können, von denen das Kind weiß, dass sie falsch sind. Normalerweise, so berichtet das Fachmagazin "New Scientist", wird dieser Entwicklungsstand von Kindern mit dem vierten bis fünften Lebensjahr erreicht. Hierbei wird dem Kind zum Beispiel eine Spielszene gezeigt, in der ein anderes Kind ein Objekt in eine Schublade legt und dann den Raum verlässt. Ohne, dieses Kind dies sehen kann, nimmt als nächstes die Mutter den Gegenstand aus der Schublade und legt ihn an einen anderen Ort. Erst ab einem bestimmten Entwicklungsstand können Kinder beim Betrachten dieses Szenarios erkennen und verstehen, dass das beobachtete Kind weiterhin und fälschlicherweise glaubt, dass das Objekt immer noch in der Schublade sei.

www.grenzwissenschaft-aktuell.de
>>> HIER können Sie unseren täglichen Newsletter bestellen <<<

Für einen vergleichbaren Testaufbau wurde die von Forschern um Selmer Bringsjord vom "Rensselaer Polytechnic Institute" in Troy im US-Bundesstaat New York entwickelte virtuelle Roboterfigur "Eddie" in die virtuelle Online-Spielwelt "Second Life" überspielt. Von zwei Avataren, also von Menschen gesteuerten Spielfiguren in der Onlinewelt) begleitet, wurde Eddie ein roter Koffer mit Pistole und daneben ein leerer grüner Koffer gezeigt. Dann verließ einer der Avatare die Szene, während der verbleibende die Pistole aus dem roten in den grünen Koffer packt. Als nächstes wurde Eddie nun gefragt, wo der zurückgekommene zweite Erwachsene wohl am wahrscheinlichsten nach der Pistole suchen werde. Tatsächlich sagte das Eddie-Programm richtig voraus, dass dieser wohl zuerst im roten Koffer suchen werde.

Die Software hinter Eddie hat dabei Zugriff auf eine ständig aktualisierte Datenbank von Tatsachen, die beispielsweise den aktuellen Aufenthaltsort der Pistole angeben und versucht, mittels dieser Informationen logische Schlüsse zu berechnen. Auf den Test bezogen bedeutet dies, dass Eddies Logikprogramm schlussfolgert, dass eine Person nur das weiß, was er auch sieht. Dinge die er nicht gesehen hat, weiß er auch nicht. Somit schlussfolgerte das Programm, dass der Avatar außerhalb des Raumes nicht wissen konnte, dass die Pistole vom roten in den grünen Koffer gelegt wurde. Bei Testversuchen mit einer Eddie-Version ohne Zugriff auf das Logikprogramm, machte dieser keine erfolgreichen Vorhersagen.

Bücher zum Thema

- - -


Bereits ein Jahr zuvor ist es Wissenschaftlern am "Massachusetts Institute of Technology" gelungen, mittels eines ähnlichen Logikprogramms einen Roboter den Test erfolgreich absolvieren zu lassen. Vor diesem Hintergrund zeigt sich John Liard, der am University of Michigan in Ann Arbor über Computerspiele und künstliche Intelligenz (Artificial Intelligence, AI) forscht, gegenüber dem New Scientist auch nur wenig beeindruckt von dem Test im Second-Life. "Viel beeindruckender wäre es, wenn es einem erfolglosen Eddie-Avatar nach einem erfolglosen Test gelingen würde, die notwendigen Schlussfolgerungen selbst zu erlernen. So wie wir Menschen das tun."

HIER finden Sie eine Aufzeichnung des "False-Belief-Test mit Eddie im "Second Life"
(15 MB, Format: .mov)

Von dieser Kritik lassen sich Bringsjord und Kollegen jedoch nicht entmutigen. Immerhin sei Eddie das erste Computerwesen, das diesen Entwicklungsschritt erreicht habe. Mit den Erkenntnissen aus ihrem Experiment wollen die Forscher und Computerspiele-Entwickler zukünftige Computerspiele verbessern und die Charaktere in die Lage versetzten, logische Schlussfolgerungen über die Aktionen der Mitspieler zu ziehen. Auch könnten Suchmaschinen mit entsprechender Software Anwender-optimiert werden.
Als nächsten Schritt wollen die Forscher jetzt einem Avatar das Lügen beibringen.

Weitere Bücher zum Thema:

- - -


Quellen: newscientist.com / grenzwissenschaft-aktuell.de
Copyright: grenzwissenschaft-aktuell.de
(falls nicht anders angegeben)


Für die Inhalte externer Links übernehmen wir keine Verantwortung oder Haftung.


WEITERE MELDUNGEN finden Sie auf unserer STARTSEITE