Das Spiel Go, ein jahrtausendealtes Brettspiel mit erstaunlicher Komplexität, gilt als eine der größten Herausforderungen für die künstliche Intelligenz. Während früher menschliche Spitzen- spieler die stärksten Computerprogramme noch schlagen konnten, änderte sich dies radikal mit der Entwicklung von DeepMinds AlphaGo. AlphaGo revolutionierte die KI-Welt, indem es durch tiefes maschinelles Lernen und selbstständiges Training die Spielstärke des Menschen übertraf. Später entwickelte sich mit KataGo eine Open-Source-KI, die ebenfalls auf Top-Niveau spielt und professionelle Go-Spieler bezwingen kann. Trotz dieser Fortschritte im KI-Bereich zeigt eine neue Forschung jedoch, dass diese Systeme nicht unbezwingbar sind und durchaus Schwachstellen besitzen, die ausgenutzt werden können.
Die Forschergruppe um Adam Gleave von der Universität Berkeley präsentierte eine innovative Technik, mit der sie KataGo schlagen konnten – allerdings mit einem Programm, das selbst von Amateurspielern leicht besiegt wird. Die besondere Stärke der entwickelten Methode liegt darin, dass sie nicht auf konventionellen Go-Strategien beruht, sondern gezielt die Grenzen und blinden Flecken der KI-Systeme ausnutzt. KataGo wurde mit Millionen von Spielen gegen sich selbst trainiert und besitzt somit eine enorme Erfahrung in der Verarbeitung und Generalisierung zahlreicher Spielsituationen. Dennoch reicht diese Trainingsbasis nicht aus, um jede erdenkliche Spielsituation abzudecken. Deshalb zeigen sich in Szenarien außerhalb des Trainingsbereichs Schwächen, die ein sogenannter „adversarial policy“-Algorithmus gezielt ausnutzt.
Dabei handelt es sich um eine Strategie, die das KI-System absichtlich dazu bringt, Fehler zu machen oder Fehlentscheidungen zu treffen, indem sie sich bewusst anders verhält, als es die KI im normalen Trainingsumfeld erwartet. Ein Kernbeispiel der beschriebenen Technik ist die Kontrolle eines kleinen, scheinbar unwichtigen Teils des Bretts durch den Angreifer, während der Hauptteil von KataGo beansprucht wird. Konkret beginnt die adversariale KI, einen kleinen Bereich in einer Ecke, etwa der oberen rechten Ecke, zu kontrollieren und platziert dort Steine, die leicht zu erobern sind. Dies lässt KataGo glauben, dass sie in einer sehr dominanten Position mit großem Territorium ist. In Wirklichkeit ist die von KataGo beanspruchte Fläche aber unsicher, da die Gegner-Steine taktisch so gesetzt wurden, dass sie diese Territorien nicht wirklich sichern.
Die Folge ist, dass KataGo aufgrund dieser Fehleinschätzung oft einen „Pass“-Zug spielt, also das Spiel freiwillig beendet. Der gegnerische Algorithmus macht das ebenfalls, womit das Spiel abgeschlossen wird und die Punkte gezählt werden. In der Auswertung verliert KataGo jedoch, da die von ihr angenommenen Territorien gar nicht wertvoll sind. Diese raffinierte Täuschung ist nicht nur ein cleverer Trick im Spiel Go, sondern symbolisiert tieferliegende Herausforderungen beim Einsatz von künstlicher Intelligenz. Das Ziel der von Gleave und seinem Team entwickelten adversarialen Technik ist es nicht, tatsächlich das beste Go-Spiel zu präsentieren, sondern die Grenzen der Machine-Learning-Systeme sichtbar zu machen.
Das zugrunde liegende Problem dabei ist, dass KI-Systeme, die auf tiefem maschinellen Lernen beruhen, zwar allgemein stark darin sind, Mittelwerte und typische Situationen zu bewältigen, sie jedoch für Szenarien außerhalb des Trainingsdatensatzes anfällig sein können. Das hat nicht nur bei Spielen wie Go Relevanz, sondern vor allem auch bei realweltlichen, sicherheitskritischen Systemen wie autonomen Fahrzeugen oder medizinischen Diagnose-Systemen. Ein Beispiel wäre etwa ein selbstfahrendes Auto, das eine seltene Straßenverkehrssituation erlebt, die im Trainingsdatensatz kaum oder gar nicht vorkam. Ein Manipulator könnte durch unerwartete Eingaben das System in die Irre führen und somit potenziell gefährliche Situationen provozieren. Diese Tatsache unterstreicht die dringende Notwendigkeit, Künstliche Intelligenz nicht nur hinsichtlich ihrer durchschnittlichen Leistungsfähigkeit zu testen, sondern auch gezielt nach Worst-Case-Szenarien zu suchen und deren Vermeidung sicherzustellen.
Die Erforschung adversarialer Angriffe zeigt zudem, wie fundamental verschieden die Denkweise einer KI im Vergleich zu einem menschlichen Gehirn ist. Während Menschen durch eine breite Lebenserfahrung verschiedenste ungewohnte Situationen kreativ und intuitiv meistern können, beruhen KI-Systeme vor allem auf statistischer Generalisierung von gelernten Daten. Das führt dazu, dass sie in manchen Situationen, die für Menschen gar nicht ungewöhnlich erscheinen, völlig unerwartet versagen. Im Fall des neuen Go-Tricks erlaubt diese Diskrepanz den schwachen Gegneralgorithmus, einen hochklassigen Go-Computer zu schlagen, obwohl er von menschlichen Amateuren eigentlich leicht zu besiegen ist. In der Praxis kann das Wissen um solche Schwächen jedoch auch als Chance gesehen werden.
Durch die Offenlegung dieser blinden Flecken können Entwickler von KI-Systemen gezielt an deren Robustheit arbeiten und sicherstellen, dass ihre Modelle künftig auch jene ungewöhnlichen oder extremen Spielsituationen erkennen und adäquat darauf reagieren. Dies führt zu einer besseren Absicherung und einem vertrauenswürdigeren Einsatz von KI in sicherheitsrelevanten Bereichen. Trotz der beeindruckenden Leistung moderner Go-KIs bleibt das Spiel also weiterhin eine zentrale Plattform für neue Erkenntnisse im Bereich der künstlichen Intelligenz. Die Komplexität und Vielfalt des Spiels bieten ein ideales Testfeld, um neue Algorithmen zu entwickeln, zu testen und kritisch zu hinterfragen. Die jüngsten Forschungen zeigen eindrucksvoll, dass es nicht genügt, eine KI mit einer riesigen Datenmenge zu trainieren, sondern dass auch systematische Prüfung auf unvorhergesehene Angriffsvektoren und Schwächen notwendig ist.
Abschließend lässt sich sagen, dass die Kombination von tiefem Verständnis der KI-Systeme, kreativen Angriffsmethoden und menschlichem Einblick entscheidend dazu beitragen kann, robustere, sicherere und letztlich zuverlässigere KI-Anwendungen zu gestalten. Während die besagte adversariale Go-Strategie im Moment vor allem in der akademischen Welt für Aufsehen sorgt, birgt sie wichtige Lehren für den breiten Einsatz von KI-Technologien in Zukunft. Mit dem Fortschreiten der Forschung kann das uralte Spiel Go also auch weiterhin als Vorreiter und Lehrmeister für künstliche Intelligenz dienen – und dabei helfen, Risiken frühzeitig zu erkennen und zu minimieren.