Künstliche Intelligenz sondert strafbare Kommentare ab

Ist es vor kurzem noch einem Computer gelungen erstmals im überaus komplizierten Spiel Go gegen einen hochkarätigen menschlichen Spieler zu gewinnen, gibt Microsoft kurz darauf ein Lehrstück darüber ab, wie dieselbe gründlich aus dem Ruder laufen kann. Die Entwicklung „Tay“ ist eine Art Chatbot, der mit Teenagern und Twens kommunizieren und gelegentlich twittern sollte. Dabei schnappt die KI offenbar Gesprächschnipsel aus eingegangenen Konversationen und dem Internet auf und verarbeitet sie zu neuen Aussagen und Antworten. Es dauerte nur wenige Stunden, dann wurde Tay zunehmend unzivil. Die KI soll rassistische und sexistische Äußerungen gemacht haben, darunter Dinge die man in Deutschland besser keinem Staatsanwalt sagen sollte.
Tay ist mittlerweile deaktiviert, man habe eine Pause nötig, heißt es auf der Netzseite.

Fazit

Vielleicht sollte man nicht alles als künstliche Intelligenz bezeichnen, was willenlos Informationsschnipsel aus dem Internet aufsaugt und es unbewertet sowie völlig kontextbefreit wiedergibt. Turing-Test wurde trotz „Deep Learning“ nicht bestanden.

Schreibe einen Kommentar