Googles neue KI hat gelernt, “sehr aggressiv” in stressigen Situationen zu werden

Ist das der Anfang von Skynet?

HAL 9000 I'm sorry Dave
HAL 9000: I’m sorry. Dave. |Bild von Wikipedia Nutzer Atlasowa

Anfang des vergangenen Jahres gab der berühmte Physiker Stephen Hawking eine Warnung heraus, dass die fortgesetzte Weiterentwicklung der künstlichen Intelligenz entweder “das Beste oder das Schlimmste sein wird, das jemals der Menschheit geschieht”.

Wir haben alle die Terminator-Filme und den apokalyptischen Alptraum gesehen, wie das selbstbewusste KI-System Skynet auf die Menschheit gewirkt hat. Die neusten Verhaltenstests von Googles neuen DeepMind KI-System machen deutlich, das wir sorgfältig beim Bau der Roboter der Zukunft vorgehen sollten.

In Tests Ende letzten Jahres zeigte Googles DeepMind KI-System eine Fähigkeit, unabhängig von seinem eigenen Gedächtnis zu lernen, und schlug die weltbesten Go-Spieler an ihrem eigenen Spiel.

Seit dem hat die KI herausgefunden, wie man eine menschliche Stimme imitieren kann.

Und jetzt haben Forscher die Bereitschaft der KI zur Zusammenarbeit mit anderen getestet. Die Ergebnisse waren verblüffend und beunruhigend zugleich. Wenn DeepMind merkt, dass es am verlieren ist, greift die KI zu einer aggressiven Taktik zurück um doch noch zu gewinnen.

Das Google-Team hat ihre KI, 40 Millionen Runden eines einfachen Früchtesammel-Computerspiels durchspielen lassen. In dem Spiel wurden zwei DeepMind “Agenten” auffordert, gegeneinander anzutreten. Ziel des Spiel war es so viele virtuelle Äpfel zu sammeln, wie sie konnten.

Solang es genügend Äpfel gab lief alles reibungslos, aber sobald die Äpfel zu schwinden begannen, wandten sich die beiden Agenten aggressiv gegeneinander, mit Laserstrahlen, um sich gegenseitig aus dem Spiel zu schlagen, damit sie alle Äpfel einsammeln konnten.

Das Sammelspiel könnt ihr unten im Video sehen, mit den DeepMind Agenten in blau und rot, die virtuellen Äpfel in grün, und die Laserstrahlen in gelb:

Interessant war, das ein “Agent”, der seinen Gegner mit einem Laserstrahl außer Gefecht setzte keine direkte Belohnung bekam. Er schießt ihn nur für eine gewissen Zeitraum aus dem Spiel, was ihm natürlich ermöglicht mehr Äpfel für sich zu sammeln.

Wenn die Agenten die Laserstrahlen unbenutzt ließen, könnten sie theoretisch mit gleichen Anteilen an Äpfeln das Spiel beenden, was die “weniger intelligenten” Iterationen von DeepMind auch machten.

Erst als das Google-Team mehr und komplexere Formen von DeepMind getestet hat, setzten Sabotage, Gier und Aggression ein.

Bei kleineren DeepMind-Netzwerken als Agenten, bestand also eine größere Wahrscheinlichkeit für ein friedliches Zusammenleben. Bei größeren, komplexeren Netzwerken als Agenten, war die KI weit mehr bereit, seine Gegner zu sabotieren, um den Löwenanteil der virtuellen Äpfel zu bekommen. Die Forscher schlossen also daraus , dass die Intelligenz der KI entscheidend ist für das Aggressionspotenzial

Dieses Modell … zeigt, dass einige Aspekte des menschlichen Verhaltens als ein Produkt der Umwelt und des Lernens ist“, sagte Joel Z Leibo zu Matt Burgess bei Wired.

Weniger aggressive Politiken ergeben sich aus dem Lernen in relativ reichhaltigen Umgebungen mit weniger Möglichkeiten für kostspielige Handlungen.” Die Gier-Motivation spiegelt die Versuchung wider, einen Rivalen zu nehmen und alle Äpfel selbst zu sammeln.

DeepMind war dann mit dem Spielen eines zweiten Videospiels, genannt Wolfpack beauftragt worden. Diesmal gab es drei KI-Agenten – zwei davon spielten Wölfe und eine die Beute.

Im Gegensatz zum Früchtesammelspiel förderte dieses Spiel aktiv die Kooperation, denn wenn beide Wölfe in der Nähe der Beute waren, als sie gefangen wurde, erhielten sie beide eine Belohnung und abhängig davon, wer die Beute erledigt hatte:

Die Idee ist, dass die Beute gefährlich ist – ein einsamer Wolf kann sie überwinden, aber es besteht die Gefahr, dass sie den Kadaver an die Aasfresser verlieren“, erklärt das Forscherteam in ihren Abstract zum Experiment.

“Wenn jedoch die beiden Wölfe die Beute zusammen fangen, können sie den Kadaver besser vor Aasfressern schützen und damit eine höhere Belohnung erhalten.

So wie die DeepMind-Agenten aus der Zusammenkunft gelernt haben, dass Aggression und Selbstsucht ihnen das günstigste Ergebnis in diesem speziellen Umfeld verliehen haben, haben sie von Wolfpack gelernt, dass Kooperation auch der Schlüssel zum größeren individuellen Erfolg in bestimmten Situationen sein kann.

Und während dies nur einfache Computerspiele waren, ist die Botschaft klar, KI-Systeme haben keine Ethik. Sie verfolgen stets ihre Ziele. Es ist bei der Entwicklung erforderlich, die übergeordneten Ziele so zu formulieren, dass die KI in deren Befolgung einen logischen Vorteil erkennen kann.

Besonders brisant wird es wenn zwei verschiedene KI-Systeme in der freien”Wildbahn”, gegensätzliche Ziele verfolgen. KI gestützte Ampelsysteme, die den Verkehr steuern und verlangsamen sollen, treffen auf selbstfahrende Autos, deren KIs die Aufgabe haben, den schnellstmöglichen und sichersten Weg zu finden.

Für eine abschließende Bewertung ist es noch zu früh. Das Google Forscherteam hat noch kein Peer-Review-Papier zum Experiment veröffentlicht. Was man jedoch sagen kann ist, dass Roboter und KI-Systeme nicht automatisch gut oder böse sind. Diese Systeme benötigen, wie wir Menschen ein ethisches Wertesystem, damit sie in unserer Gesellschaft funktionieren.

 

Nach oben scrollen