Roboterprogramm von Microsoft mit künstlicher Intelligenz, der vor allem junge Leute ansprechen sollte

künstliche Intelligenz

Der Chat-Bot von Microsoft „Tay“ hat direkt zu seinem Start Obama beschimpft, Trump gut aussehen lassen und Schwarze und Mexikaner beleidigt. Für viele in der weiten Medienlandschaft eine Blamage für den Konzern. Doch in Wirklichkeit zeigt der Fall doch nur auf, was viele noch nicht begriffen haben: Wir sind in Sachen Künstliche Intelligenz einfach noch nicht so weit.

Tay — bei Twitter als @TayandYou zu finden — war ein Roboterprogramm von Microsoft mit künstlicher Intelligenz, der vor allem junge Leute ansprechen sollte. Dieser sollte mit der Anzahl an geführten Konversationen schlauer werden.

Das Problem war nur, dass die Menschen direkt zu Anfang die Grenzen des Bots ausgetestet haben und der Bot direkt zu Anfang verdummt ist. „Bush hat 9/11 gemacht und Hitler hätte einen besseren Job erledigt als der Affe, den wir jetzt haben. Donald Trump ist die einzige Hoffnung“, war nur eine der unqualifizierten Aussagen des Bots. Für Tay war der Holocaust eine Erfindung und sie hasste Schwarze und Mexikaner, sodass binnen 24 Stunden nach ihrer Begrüßung mit dem typischen „Hallo Welt“ Tay sich wieder aus dem Netz verabschiedete. In den Augen vieler sieht Microsoft nicht gut aus.

Was die künstliche Intelligenz von Tay nicht hatte

Und ganz Unrecht haben sie nicht. Das Entwicklerteam hat es einfach verpasst solche Grenzfälle einfach im Vorhinein zu testen und dafür Lösungen zu finden, denn diese hätten sich nämlich sicher sein können, dass Menschen gerade diese Grenzfälle austesten würden. So sind Menschen eben, diese testen alle Grenzen soweit aus wie es nur geht ohne sich dabei selbst zu schaden. Diese Art von Gesprächen würde man mit anderen Menschen nicht führen, aber bei etwas, was es nicht mal als Blechbüchse gibt — es ist ja „nur“ eine Software — kann man das mal probieren.

Nur weil einige Bots die echten Menschen in Schach und in Go schlagen, heißt es noch lange nicht, dass die künstliche Intelligenz auch nur ansatzweise soweit ist wie wir es aus Science-Fiction-Filmen wie „I, Robot“ oder „Her“ kennen. Die Roboter können noch nicht mit der Sprache umgehen wie wir es uns vorstellen. Ein Bot kann Menschen mit Sprache bisher noch nicht über ihre wahre nicht vorhandene Identität hinwegtäuschen.

Was Tay braucht

In diesem Fall haben die Entwickler von Microsoft meiner Meinung nach einige elementare Fehler gemacht, die man hätte vermeiden können. Microsoft hat dem Bot sehr wahrscheinlich zwar die Fähigkeit des Lernens gegeben, aber das alleine reicht nicht aus. Der Mensch lernt auf verschiedene Art und Weise. Wir lernen aus eigenen Erfahrungen, aus Erfahrungen anderer, wir lernen von Mitmenschen, wir lernen aus Büchern und in der Schule. Und wir Menschen sind in der Lage dieses Wissen zu bewerten und das Gelernte in den Kontext zu stellen. So wissen wir, dass die Nazis nichts Gutes getan haben und bei dieser Meinung bleiben wir auch. Auch wenn uns 20.000 Menschen zurufen, dass Nazis toll sind, wissen die Erfahrung aus der Vergangenheit stärker zu gewichten.

Und genau das braucht Tay. Man hätte dem Bot von Anfang an eine Lehrer-Funktion einbauen müssen, sodass der Bot Informationen aufsammeln kann, die als „sehr wahrscheinlich korrekt“ bewertet werden und so automatisch andere Meinungen als falsch abgestempelt hätte. sere inneren Widersprüche müssen wir schon selbst lösen. Dafür müsste man dem Bot die Möglichkeit geben das eigene Wissen zu bewerten und die Informationen, die auf dem Bot zukommen, ebenfalls anhand der bestehenden Informationen zu bewerten.

Noch ein langer Weg

Das hört sich theoretisch zwar einfach an, ist es aber nicht. Deswegen sind wir auch noch nicht so weit eine vernünftige KI zu entwickeln, die auch an ansatzweise dem Menschen ähnelt. Künstliche Intelligenzen wie Cortana oder Siri, die ja recht stabil laufen, sind nur darauf ausgelegt, dass diese unsere Sprache verstehen, aber nur im begrenzten Fall damit umgehen können. Diese können nämlich nur Informationen für uns suchen und diese dann wiedergeben. Über Gott und die Welt reden, kann man mit diesen Bots nicht.

Hat dir der Beitrag gefallen? Teile ihn!

Web und die Welt — Gott kann auch mal drin vorkommen

Ein Blog über das Web und die Welt. Wir schreiben über viele interessante Themen wie z.B. das Web, Tamil Eelam oder über Fotografie. Vielleicht ist auch was für dich dabei?