Go ist verloren, eine Hoffnung bleibt: Poker!

SKOREA-SCIENCE-COMPUTERS-AI
SKOREA-SCIENCE-COMPUTERS-AI(c) APA/AFP/Google DeepMind/GOOGLE DEEPMIND
  • Drucken

Ein Computerprogramm hat einen der besten menschlichen Akteure in jenem Kampfspiel geschlagen, das als letztes Refugium des menschlichen Geistes galt, ja, als sein Heiliger Gral: Go.

Als der IBM-Computer Deep Blue 1997 den Schachweltmeister Garri Kasparow besiegte, war das eine arge Kränkung für die Menschheit bzw. ihren Geist, zugleich war es ein hoher Triumph beider: Schließlich hatten menschliche Gehirne dafür gesorgt, dass das menschliche Gehirn entthront wurde. In anderen Kampfspielen war das früher schon so, in Dame und Backgammon etwa, nun also auch in der Königsdisziplin. Man konnte sich damit trösten, dass das maschinisierte Denken auf Feldern mit rigiden Regeln überlegen war, aber Sonette schreiben konnte es nicht, nicht einmal banalste Alltagsgespräche führen, den entsprechenden Test hat bis heute kein Programm bestanden (Er wurde von Alan Turing ersonnen und nach ihm benannt: Ein Mensch kommuniziert mit einem für ihn unsichtbaren Partner und entscheidet anhand der Antworten, ob der/das andere ein Mensch ist oder ein Programm).

Und unter den Spielen hielt auch eines, obgleich Programmierer sich seit den 1980er-Jahren daran versuchten: Go, es ist in Ostasien mindestens so mystifiziert wie Schach im Rest der Welt, in Japan und Südkorea gibt es Hunderte Berufsspieler, und schon Kleinkinder lernen sich ein. Das geht, weil die Regeln viel simpler sind als beim Schach: Gespielt wird auf einem Brett mit 19 Quer- und Längslinien, auf die Schnittpunkte werden Steine gelegt – ein Spieler hat schwarze, der andere weiße –, sie werden nicht gezogen, und sie haben alle, völlig anders als beim Schach, den gleichen Wert.

Geländegewinn statt alles oder nichts

Es geht auch nicht (immer) um den direkten Schlagabtausch, es geht schon gar nicht um alles oder nichts – Matt! –, sondern darum, das größere Territorium in Besitz zu nehmen, so erklärt sich auch einer der Ursprungsmythen des Spiels, das vor etwa 4000 Jahren in China erfunden wurde: Mit Go habe das Militär sich eingeübt in sein Geschäft. So sieht es auch für das ungeschulte Auge aus: Manches Mal verbeißen die Spieler sich ineinander – Flächengewinn erzielt man durch Umzingeln des Gegners –, andere Male lässt sich einer widerstandslos umzingeln und baut fernab in aller Ruhe eigene Stellungen auf. Dabei entscheidet nicht nur die Logik, sondern der Blick, und der richtet sich nicht nur wie beim Schach nach vorn – auf x Züge –, sondern vor allem auf den Raum, zwei der drei „Presse“-Go-Kundigen sind Fotografen.

Zufall? Wie auch immer, Go galt als letzte Bastion der natürlichen Intelligenz – und als Heiliger Gral für die künstliche –, geschleift wurde sie klandestin vergangenen Herbst. Da trat Fan Hui, Franzose mit chinesischen Wurzeln, Go-Berufsspieler und Europameister, gegen das Programm AlphaGo an, es war unter der Federführung von Demis Hassabis bei Google DeepMind in London zwei Jahre lang entwickelt worden. In aller Stille lief der Kampf, weil er ein Experiment war, das erst nach dem peer review publik werden durfte. Da stand es dann, am 28. Januar, schwarz auf weiß, in Nature: In fünf Partien hatte das Programm den Menschen 5:0 abgefertigt.

Aber Fan Hui ist nicht der Weltbeste im Go, da gibt es etwa den Koreaner Lee Sedol, er ist 33 und dominiert nach manchen Quellen seit einem Jahrzehnt, nach anderen soll es drei noch bessere geben. Die Schlacht begann letzte Woche in Seoul – mit einem Medienspektakel ohnegleichen, der Google-Chef persönlich marschierte auf –, sie war auf fünf Partien angelegt. Sedol war zuversichtlich, die ersten drei gingen jedoch an AlphaGo, in der vierten rettete der Mensch einen Ehrenpunkt, die fünfte kommt noch. Aber das Spiel ist aus: Die Ehre – und das Preisgeld: eine Million Dollar – gehen an AlphaGo bzw. dessen Chefentwickler Hassabis.

Der hatte das Spiel Deep Blue gegen Kasparow verfolgt, er kennt auch Kasparow und spielt selbst hervorragend Schach. Aber das war ihm beim Go weniger nützlich als eines seiner vielen Studien, das der Hirnforschung: Bei Deep Blue ging es vor allem um Rechnerkraft – „brute force“ –, darum, das Programm mit möglichst breiter Kenntnis aller je gespielten hochgradigen Schachpartien auszustatten. Das funktioniert bei Go nicht, schon der schieren Menge der Möglichkeiten wegen: Es gibt 10170 mögliche Stellungen – mehr als Atome im Universum: 1080 –, beim Schach sind es etwa 1043. 10170 können nicht durchgespielt werden, das Programm musste sich anders einlernen, mit neuronalen Netzwerken, die simulieren, was im Gehirn vor sich geht, sie liegen in Schichten übereinander: In der untersten Lage nimmt ein Netzwerk von 19 mal 19 „Neuronen“ den aktuellen Spielstand auf, in der obersten Lage wird wieder von 19 mal 19 durchkalkuliert, wo der nächste Stein gelegt werden könnte und mit welcher Wahrscheinlichkeit.

Lernen wie ein Kind!

Dazwischen sind elf weitere Lagen, dort wird das Programm belehrt, wie ein Kind, so erklärte es Hassabis gerne: Wenn Programmierer sehen, dass etwas verbesserungsbedürftig ist, können sie nicht einfach neue Regeln einfüttern, sie müssen stattdessen Beispiele geben, aus denen das Programm seine eigenen Schlüsse zieht. Das tat es, dann lernte es selbsttätig weiter, spielte 50 Mal gegen sich selbst. Dann ging es gegen andere Go-Programme – sie hatten keinerlei Chance –, dann gegen Menschen.

Was bleibt denen nun? Poker! Die einschlägigen Programme sind bei Partien zwischen zwei Spielern den weltbesten Menschen zwar ziemlich nahe, aber eines beherrschen sie noch nicht, das Einfühlungsvermögen in die Schwächen des Gegners, in sein Abweichen von optimalen Strategien. Natürlich bleibt den Menschen auch Go, so wie ihnen Schach geblieben ist, sie spielen weiter gegen andere Menschen, oft allerdings geschult in Partien mit Maschinen.

ZUM SPIEL

Bei Go gibt es – im Gegensatz zu Schach – keine Zugpflicht, man darf passen. Das Spiel endet meist dadurch, dass beide Spieler hintereinander passen. Auch das macht den sanften Charakter des Spiels aus. Benachbarte Steine auf dem Go-Brett bilden eine Kette, eine solche kann immer nur als Ganzes vom Gegner geschlagen werden. Ist eine Kette davon bedroht, dann sagt man, sie steht im Atari. Danach nannte sich die US-Firma, die in den Achtzigerjahren weltweit führend bei Videospielen war.

("Die Presse", Print-Ausgabe, 15.03.2016)

Lesen Sie mehr zu diesen Themen:

Mehr erfahren

Innovationen

Lee Sedol besiegt erstmals AlphaGo

Nach drei Niederlagen konnte der südkoreanische Go-Großmeister die von Google entwickelte Künstliche Intelligenz erstmals schlagen. Der Computer erkannte einen Fehler zu spät.
Lee Sedol beim Go-Spielen.
Weltjournal

Google-Software erringt historischen Sieg gegen Go-Meisterspieler

Es war ein packendes Mensch-Maschine-Duell. Nach zweieinhalb Stunden besiegte AlphaGo den Südkoreaner Lee Sedol. Das Turnier geht über fünf Spiele.
Innovationen

Nach Jahrzehnten geknackt: Software schlägt Go-Champion

Es ist ein Meilenstein in der Entwicklung künstlicher Intelligenz: Eine Google-Software hat den europäischen Champion im Spiel Go geschlagen.
Innovationen

Nach Jahrzehnten geknackt: Software schlägt Go-Champion

Es ist ein Meilenstein in der Entwicklung künstlicher Intelligenz: Eine Google-Software hat den europäischen Champion im Spiel Go geschlagen.
Spiel & Mehr

Bot versus Bot

Übung macht nicht nur Menschen zu Meistern. Auch Computerprogramme können durch Erfahrung immer schlauer werden – vor allem, wenn sie gegeneinander Spiele spielen.

Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.