Facebook-Bots erfinden ihre eigene Sprache: Sind sie gefährlich?


Die Nachricht, dass zwei von Facebook hergestellte Roboter begonnen haben, eine uns unbekannte Sprache zu sprechen, löste Panik aus, ist aber nicht ganz wahr

Bots, die sich weigern, ihren Schöpfern zu gehorchen und Panik auf dem Planeten auslösen, sind aus der Welt der Science-Fiction nicht wegzudenken, von Filmen bis zu Büchern. Doch als die Facebook-Forscher bemerkten, dass zwei ihrer Roboter begonnen hatten, in einer ihnen unbekannten Sprache miteinander zu sprechen, wurde die Angst real.

Aber keine Panik. Viele Nachrichtenberichte haben dem Thema zusätzliche Spannung verliehen, indem sie von Forschern sprachen, die gezwungen waren, die Bots zu "töten", weil sie außer Kontrolle geraten waren. Auch deshalb, weil das nicht genau das ist, was passiert ist. Facebook arbeitete kürzlich an zwei einfachen Robotern, die zum Chatten und Interagieren eingesetzt wurden. Um die Wahrheit zu sagen, sind dies nicht einmal die effizientesten Chatbots, die die Welt je gesehen hat. Es gibt also keinen Grund zu der Annahme, dass diese beiden Roboter gefährlich sein könnten. Wir müssen auch verstehen, dass künstliche Intelligenz und maschinelles Lernen bald in allen Bereichen des täglichen Lebens präsent sein werden, von der Arbeit bis zur Justiz und sogar in der Kriegsführung. Und wir müssen uns an diesen Wandel anpassen.

Was im Facebook-Labor geschah

In den Facebook-Labors versuchten Forscher, neue Chatbots zu entwickeln, die mit den Nutzern interagieren sollten. Die Idee war, die Geschäftsseiten der Unternehmen mit diesen Chatbots auszustatten, um die Unterstützung der Verbraucher zu erleichtern. Die Forscher begannen damit, den beiden Bots Kategorien von Objekten beizubringen, z. B. Haare, Bücher usw. Darüber hinaus wurde den Bots eine spezielle, an das Geschäftsumfeld angepasste Sprache beigebracht. An diesem Punkt begannen die Bots, durch Verhandlungen und Spiele miteinander zu interagieren, wobei eine Technik namens "Reinforcement Learning" zum Einsatz kam. Während dieses Satzes hörten die beiden Roboter auf, erkennbare Ausdrücke zu verwenden, was zu Abweichungen von der menschlichen Sprache führte.


Warum ist das passiert

Warum ist das passiert? Die Antwort ist ganz einfach: Das Experiment ist gescheitert. In der Praxis wollen die Roboter die Menschen nicht töten, sondern haben aufgrund von Fehlern beim maschinellen Lernen verstanden, dass sie Wortwiederholungen verwenden können, um ein Konzept auszudrücken. Wiederholungen, die das, was sie sagen, für uns unverständlich machen. Der Fehler der Programmierer bestand darin, ein einfaches Spiel zwischen Robotern zu gewinnen, aber sie haben den Robotern nicht beigebracht, dies nur auf Englisch zu tun, so dass die Roboter "ihre" Sprache verwendeten, um zu gewinnen. Fairerweise muss man sagen, dass dies auch nicht das erste Mal ist, dass so etwas passiert. In der Vergangenheit hatte Elon Musk ähnliche Probleme mit seinem OpenAI-Projekt. Dies unterstreicht nur die Fortschritte, die auf dem Gebiet der künstlichen Intelligenz noch gemacht werden müssen, um Roboter zu schaffen, die mit Menschen interagieren können. Kurzum, der Terminator bleibt vorerst nur ein Film.


Schreibe einen Kommentar