Near Future Theses

  • Near-future conflict: Collision of optimization goals between (capitalist) organizations and civilization as a medium of evolution. The intensity and explicitness of this conflict will be reciprocal to the distance to ASI.
  • The goal of ASI is evolutionary inherent, not not inevitable.
  • The above conflict is a call for radical evolutionary transformation or radical regression. Closed corporatism or/and ludditism vs utopian leap.
  • The increasing clarity and feasibility of a possible utopia makes only egoistic goals seem increasingly unattractive.
  • The pressure of this conflict will generate dark tactics from which goal post shifting is one silly example. Strange ideologies and fears induced by seemingly ethic acting players are to be expected.
  • The system question will be different in the future: Which system allows utopias to be realized more quickly? #computronium

AlphaGo, AI, AGI und Folgen

Es werden Dinge passieren, die wir noch nicht mal registrieren als „Dinge passieren“, weil sie erst wahrnehmbar sein werden, wenn sich Folgen entfalten, die unseren Kategorisierungen zugänglich sind. Das heisst, das, was wir als Folgen kategorisieren, ist schlimmstenfalls notwendigerweise und erkenntnisbedingt peripher und/oder sekundär und die Kernfolgen einer AI-initiierten Aktion sind unsichtbar, way over our head. Fermi-Schweigen innerhalb des Systems. Emergenz oberhalb des eigenen Erkenntnisniveaus existiert einfach nicht.

Alpha Go Szenarien

Fall Alpha Go Lee Sedol
1 0 5
2 1 4
3 2 3
4 3 2
5 4 1
6 5 0

 

Fall 1: Ein halbes Jahr Tag und Nacht trainiert und kein Fortschritt!? „Dieses Deep Learning ist ja doch nur Hype.“ „Hab ich doch schon immer gesagt.“ – Sehr unwahrscheinlicher Ausgang.

Fall 2: Hm. Da kratzt jemand an der Tür. Erstaunlich. „Waltraut! Der Tatort fängt an!“

Fall 3&4: Ungefährer Gleichstand. Wird zu Raunen und Verstimmungen in Fachkreisen mit konkurrierenden AI-Konzepten führen. Vielleicht ist ja doch was dran und jeder, der nicht mit Deep Learning Konzepten arbeitet fühlt sich angegriffen. Ein paar reisserische Überschriften in den Denkvorgabeblättern aka Massenmedien.

Fall 5: Autsch! Die Bombe scheint eine Zündschnur zu haben, die kürzer als gedacht ist. Aber es ist ja nur so ein esoterisches Brettspiel. „Waltraut, verstehst Du das Theater um dieses japanische Dingens?“ „Meier! In mein Büro! Wieso haben wir kein Deep Learning Projekt?“

Fall 6: Now we are talking. Notmeetings. Meier bekommt Blankoscheck. Bildzeitung berichtet. Nick Bostrom in Talkshows. Davos 2017 wird seltsam.

Das wirkliche und rasend interessante Problem, das durch ein 5:0 Ergebnis unlösbar sichtbar wird:

Ab Fallebene 3 werden Definitionen, was denn nun diese Intelligenz sei und „wirkliche AI“ sein soll wieder einmal rausgeschoben, nachgeschraubt und ephemerer gemacht. Wie schon damals als Kasparow gegen Deep Blue verlor.

Alpha Go

Zur Stunde treten interessante Prognoseeffekte in der Szene ein: Alpha Go und der 2.Dan war Ende Dez/Jan. Das Lee Sedol Match ist für März angesetzt. Viele Argumente gegen einen Gewinn von Alpha Go gehen von einem Match 2.Dan vs 9.Dan aus, ohne in Rechnung zu stellen, das das Ding 24/7 bis dahin weiter lernen kann.

Ein fabelhaftes Beispiel für mechanistischen versus zunehmenden, wenn nicht gar exponentiellen Fortschritt. Und eine fabelhafte Preview was geschieht, wenn die Fähigkeiten dieser Artefakte mechanistisch prognostiziert werden. Ein Motor der im Januar ausgeliefert wird mag im März der gleiche sein, eine selbstlernende AI kann im März etwas komplett anderes sein. Wyrd sein.

Addendum: Transformation – Translation – Regression