AlphaGo, AI, AGI und Folgen

Es werden Dinge passieren, die wir noch nicht mal registrieren als „Dinge passieren“, weil sie erst wahrnehmbar sein werden, wenn sich Folgen entfalten, die unseren Kategorisierungen zugänglich sind. Das heisst, das, was wir als Folgen kategorisieren, ist schlimmstenfalls notwendigerweise und erkenntnisbedingt peripher und/oder sekundär und die Kernfolgen einer AI-initiierten Aktion sind unsichtbar, way over our head. Fermi-Schweigen innerhalb des Systems. Emergenz oberhalb des eigenen Erkenntnisniveaus existiert einfach nicht.

Alpha Go Szenarien

FallAlpha GoLee Sedol
105
214
323
432
541
650

 

Fall 1: Ein halbes Jahr Tag und Nacht trainiert und kein Fortschritt!? „Dieses Deep Learning ist ja doch nur Hype.“ „Hab ich doch schon immer gesagt.“ – Sehr unwahrscheinlicher Ausgang.

Fall 2: Hm. Da kratzt jemand an der Tür. Erstaunlich. „Waltraut! Der Tatort fängt an!“

Fall 3&4: Ungefährer Gleichstand. Wird zu Raunen und Verstimmungen in Fachkreisen mit konkurrierenden AI-Konzepten führen. Vielleicht ist ja doch was dran und jeder, der nicht mit Deep Learning Konzepten arbeitet fühlt sich angegriffen. Ein paar reisserische Überschriften in den Denkvorgabeblättern aka Massenmedien.

Fall 5: Autsch! Die Bombe scheint eine Zündschnur zu haben, die kürzer als gedacht ist. Aber es ist ja nur so ein esoterisches Brettspiel. „Waltraut, verstehst Du das Theater um dieses japanische Dingens?“ „Meier! In mein Büro! Wieso haben wir kein Deep Learning Projekt?“

Fall 6: Now we are talking. Notmeetings. Meier bekommt Blankoscheck. Bildzeitung berichtet. Nick Bostrom in Talkshows. Davos 2017 wird seltsam.

Das wirkliche und rasend interessante Problem, das durch ein 5:0 Ergebnis unlösbar sichtbar wird:

Ab Fallebene 3 werden Definitionen, was denn nun diese Intelligenz sei und „wirkliche AI“ sein soll wieder einmal rausgeschoben, nachgeschraubt und ephemerer gemacht. Wie schon damals als Kasparow gegen Deep Blue verlor.

Alpha Go

Zur Stunde treten interessante Prognoseeffekte in der Szene ein: Alpha Go und der 2.Dan war Ende Dez/Jan. Das Lee Sedol Match ist für März angesetzt. Viele Argumente gegen einen Gewinn von Alpha Go gehen von einem Match 2.Dan vs 9.Dan aus, ohne in Rechnung zu stellen, das das Ding 24/7 bis dahin weiter lernen kann.

Ein fabelhaftes Beispiel für mechanistischen versus zunehmenden, wenn nicht gar exponentiellen Fortschritt. Und eine fabelhafte Preview was geschieht, wenn die Fähigkeiten dieser Artefakte mechanistisch prognostiziert werden. Ein Motor der im Januar ausgeliefert wird mag im März der gleiche sein, eine selbstlernende AI kann im März etwas komplett anderes sein. Wyrd sein.

Addendum: Transformation – Translation – Regression