Text zum Eröffnungs-Vortrag der Kunstausstellung"...1997 - In Zukunft" in Köln.

Die heutige Alltagswelt ist mit Dingen vollgestellt, die vor zehn Jahren ein Projekt, vor zwanzig eine Vision und vor dreissig Science Fiction waren. Wir leben in der Zukunft der Vergangenheit. Wir wiederum sind die Vergangenheit der Zukunft. Mit diesen einfachen Wegweisern können wir in der Gegenwart die zarten Schemen unserer Zukunft aufspüren[x1].
In jeder Epoche sahen Denker in dem, was sie umgab, das was werden könnte, und mühten sich mit den Kräften der Vision oder den Werkzeugen der Wissenschaften, ihren Ahnungen die Sicherheit einer Prognose zu geben.
Einer dieser Denker der jüngeren Geschichte [x2]war Teilhard de Chardin[x3]. Ich habe einige Zitate von ihm eingefügt, da er ein wunderbares Beispiel abgibt, für die Fähigkeit, Umrisse zu beschreiben, wo andere noch den Morgennebel sehen.
Der französische Anthropologe und Jesuit (natürlich mit Veröffentlichungsverbot) erspürte in den Bewegungen des beginnenden 20.Jahrhunderts die Regungen einer weltumspannenden Kraft, gespeist aus den nie versiegenden Quellen der Evolution. Er nannte dies in den 30er Jahren Planetisierung. Heute spricht man von Globalisierung. Sollte es möglich sein, aus den Hauptströmungen des Lebens auf diesem Planeten nur duch die Kraft des unerschrockenen Denkens die bestimmenden Trends der Zukunft zu erkennen? Und weiter: gibt es ein Ziel, einen Sinn, hinter all dem Tun und Leiden?
Die folgenden Gedanken sind der Versuch, Indizien für ein Bild zusammenzutragen, dessen Grundfarben die einer Morgenröte sind. Dennoch besteht die Möglichkeit, daß irgend jemandem noch der Pinsel ausrutscht und dunklere Farben zum Tragen kommen. Die einzigen Kräfte die das verhindern können, sind Bewusstheit und Mut. In manchen Zeiten ist TIEF FLIEGEN VERBOTEN.

„Auf den ersten Blick mag es uns recht schwierig erscheinen,irgendeine Ordnung in dem Gewimmel von Erfahrungen, Organisationen und Theorien zu unterscheiden, deren dauernd wachsende Masse das Gepäck der menschlichen Karawane bildet. Ein rein quantitativer Fortschritt, sagen die Skeptiker wieder. Doch nehmen wir etwas Abstand zu den Dingen und beobachten wir das Phänomen als Ganzes. Dann ordnet sich der Wirrwarr.“
Telhard de Chardin, 1938

PROGNOSTISCHE WERKZEUGE

„Man muss Zukunft im Sinn haben.“
Talleyrand, 1815

In den vergangenen 50 Jahren sind einige prognostische Werkzeuge entwickelt worden. Unter diesen ragt die logistische- oder S-Kurve heraus, da sie trotz ihrer Einfachheit eine Unmenge von natürlichen Wachstumsvorgängen beschreibt und Vorhersehbar macht. Hiermit lassen sich so unterschiedliche Prozesse erfassen, wie das Wachstum einer Sonnenblume oder die Ausbreitung des US-Schienennetzes. Die dahinter stehende Logik besagt: Kennt man einen Teil eines Wachstumsprozesses über der Zeit, so ist es möglich, eine Aussage über die verbleibende Zukunft zu machen.Warum?
In vielen Technologien geschieht darüber hinaus immer im rechten Moment eine Ablösung von einem Produkt oder einer Technologie durch eine neue, zumeist leistungstärkere in einem genauen, fast schon zu erwartenden Moment. Dies ist der Beginn einer neuen Wachstumskurve mit den gleichen Wachstumsphasen.
Grosse Systeme mit vielen Elementen besitzen Verhaltensregeln, die unseren Glauben an den freien Willen schon hin und wieder erschüttern können. Aber diese Erschütterung ist nur das Ergebnis der Verwechselung von Individuum und System. Ich habe viele Freiheiten, ein in Bewegung befindliches System schon weniger. Aus diesen Gründen ist es eben doch möglich, entgegen dem verbreiteten Unglauben an Zukunftsprognosen, die Zukunft berechenbar zu machen. Das Unwissen um Wachstumsprozesse (ausser wenn es um Geld geht) führt denn auch dazu, gänzlich irreale, subjektive Prognosen zu erstellen.

Da ist einmal der Fall des störrischen Verleugnens (Fall A) jeglicher Zunahme, also die Unterstellung es würde demnächst schon nichts mehr erfunden oder entdeckt, das besser als das letzte Computermodell sein wird.
Vertreter dieses Typus sterben langsam aus, da die generelle Tendenz auf diesem Planeten zu offensichtlich wird.
Weiter ist da noch der milde Fortschrittsanhänger (Fall B), der annimmt, daß es im Gebiet, über das er eine Aussage macht, einen linearen Anstieg von Fähigkeiten, Umsatz oder anderer Parameter geben wird.

[ IMAGE: kleines bild alledrei ]

Beide Anhänger werden meistens überrascht, wobei der Vertreter der ersten Grundhaltung auch mit Zorn oder humanistischer Grundsatzkritik reagieren kann. Im Gegensatz dazu wird Vertreter Nummer drei (Fall C) immer enttäuscht.

Er oder sie unterstellen ein ungebremstes, exponentielles Wachstum und reagieren mit Aufbruch in neue Gebiete, wenn die für jeden Wachstumsprozess natürliche Sättigungsphase eintritt oder die exponentielle Phase zu lange auf sich warten lässt. Wired-Redakteur.

Generell lässt sich sagen, daß die nahe Zukunft eines exponentiellen Wachstumsprozesses überschätzt und die fernere Zukunft unterschätzt wird.
Die nahe Zukunft eines exponentiellen Wachstumsprozesses wird überschätzt und die ferne Zukunft wird unterschätzt!

Diese Trendextrapolation mit Hilfe einer S-Kurve wird jedoch unzureichend, wenn ein breiteres Feld von sich beeinflussenden Trends unter die Lupe genommen werden soll. Hier können Kombinationen von nebeneinander existierenden Trends zu Sprüngen in der Entwicklung führen. Die morphologische Analyse von Fritz Zwicky kann in diesem Fall durch die systematische Kombination aller Variablen alle möglichen oder unmöglichen Zukünfte zu Tage fördern.

Eine weitere futorologische Technik ist die sogenannte Delphi-Umfrage, bei der viele (bis zu mehreren tausend) Wissenschaftler in systematischer Weise über die Zukunft eines oder mehrerer Gebiete befragt werden. In Japan wird alle 5 Jahre unter ca. 3000 Wissenschaftlern eine Delphi-Umfrage durchgeführt und das seit 1971! Die erste deutsche Delphi-Studie wurde 1992 vom BMFT in Auftrag gegeben. Planung und Prognose scheinen hier nicht in einem so engen Verhältnis zu stehen, wie in anderen Teilen der Welt.

Eng verwandt mit morphologischer Analyse und Delphi-Studie ist die Szenarientechnik. Mit dieser wird in fast literarischer Manier eine alltägliche Szenerie beschrieben und durchphantasiert, die mit den technologischen Elementen einer möglichen Zukunft angereichert wird. Dieser fast künstlerischen Technik steht auf der Ebene der Prognose ganzer Systemeinheiten die Simulation gegenüber, die natürlich mit dem Computer durchgeführt wird. Eine Simulation ist jedoch immer nur so gut wie das Modell, das man aus dem Kaffeesatz der Wirklichkeit herausgelesen hat.

Zusammenfassend kann man feststellen, daß seit Jahrzehnten genügend rationale Werkzeuge existieren, um hinreichende Aussagen über Zukunft machen zu können. So sind z.B. aus der japanischen Delphi-Umfrage von 1971 bis heute ca.65% der vorhergesehenen Technologien auf die eine oder andere Weise richtig eingeschätzt worden. Wem diese Trefferquote nicht reicht, mag zur Glaskugel greifen.

SCIENTOMETRIE: DIE WISSENSCHAFT DER WISSENSCHAFT

Mit den Mitteln der Wissenschaft Aussagen über die Wissenschaft zu machen, das ist der Job eines Scientometrikers.
Schon seit den 50er Jahren wird in dieser Weise über Wissensschaft nachgedacht, um sie Planbar und Vorhersehbar zu machen.
Ich möchte hier einige Ergebnisse der Scientometrie zusammenfassend aufführen, wobei ich mich größtenteils auf Derek de Solla Price und Gennadij Dobrow beziehe.

-Die Zunahme des Wissens erfolgt nach S-Kurven, erreicht also auch irgendwann einen Sättigungspunkt.

-Kriege und andere technologieunterstützte Konflikte haben keinen Einfluss auf den grundsätzlich exponentiellen Verlauf der Wissenszunahme, das heisst 1. und 2. Weltkrieg haben den Trend nicht verursacht, sondern ihn nur verschoben. Er war schon vorher offensichtlich.

[IMAGE de solla]
-Der Einzelautor verschwindet, d.h. es treten immer größere Autorenkollektive auf. Mathematisch gesprochen geht die Autorenzahl gegen unendlich.

[ de solla]

-Das Verhältnis von Müll zu Juwelen bleibt gleich, d.h. die These von den schwächer werdenden Gehirnen an den stärker werdenden Maschinen ist nicht haltbar.

In diesen wenigen Punkten stecken einige erstaunliche Erkenntnisse.
So ist z.B. das Erreichen eines Sättigungspunktes nicht das Ende einer Wissenschaft oder Technologie, sondern meist nur der Beginn einer neuen Kurve auf anderem Niveau und mit mächtigeren Begrifflichkeiten (siehe die Kurve der ansteigenden Rechenleistung bei Supercomputern). Obendrein hat sich seit der Durchdringung des Wissenschaftsapparates durch das Internet die Publikationsstrategie geändert. Scheinbare äußere Stagnation kann damit zu tun haben, daß viel mehr im Hintergrund informell und elektronisch abgewickelt wird.

Das Internet ermöglicht auch die scheinbar unmögliche Entwicklung zu unendlich grossen Autorenkollektiven. Gerade dieses Ergebniss einer Prognose aus den 50er Jahren ist ein Beispiel für eine Vorhersage, die zunächst unsinnig klang, nach dem Aufkommen des Internets jedoch verständlich wurde.

Zum Müll-Juwelen-Verhältnis: Wenn dieses gleich bleibt, bei steigenden Wissenschaftlerzahlen, dann können wir auch erwarten, daß die absolute Zahl der
brillianten, folgenschweren Beiträge zum Erkenntnisschatz der Menschheit noch weiter zunimmt.

Wir können also damit rechnen, daß die folgenschweren Erkenntnisse in den Wissenschaften zumindest in den nächsten 20 bis 30 Jahren noch zunehmen werden, wobei wir die fernere Zukunft weit unterschätzen. Wer hat schon ein untrügliches Gespür für exponentielle Wachstumsprozesse?
Würden Sie einen unerträglichen Job für einen Monat annehmen, zum Anfangsgehalt von 1 Pfennig, unter der einzigen Zusatzbedingung, daß es sich täglich verdoppeln wird? Und: Bis wann muß man aushalten, damit es sich lohnt? Wann geht es wirklich los?
DIE GROSSEN TRENDS IN WISSENSCHAFT UND TECHNIK

“ Über all diese und viele andere Fortschritte lächelt eine gewisse Philosophie geringschätzig. „Kommerzielle Maschinen“, hört man immer wieder, „Maschinen für eilige Leute, um Zeit und Geld zu gewinnen.“ Seid ihr denn blind, möchte man antworten, seht Ihr denn nicht, daß diese in ihrem Auftreten und in ihrer Entwicklung unausweichlich miteinander verbundenen materiellen Werkzeuge letzten Endes nichts anderes sind als die Grundzüge einer besonderen Art von Super-Gehirn, das fähig ist, sich zu steigern, bis es irgendeinen Super-Bereich im Universum und im Denken meistert!“

Teilhard de Chardin, Die Bildung der Noosphäre, 1947
CHIPTECHNOLOGIE

Mikroprozessoren und Halbleiter-Speicher haben sich längst zu Leittechnologien im globalen Maßstab entwickelt. Stahl, Chemie und Automobilindustrie sind nicht mehr die Technologien, die Gesellschaften verändern. Es muß nur noch hinter ihnen aufgewischt, nicht vor ihnen der Horizont abgesucht werden.

Die großen Halbleiterfirmen wie Intel, Motorola, AMD oder Toshiba geben den Takt vor, und das ergibt einen exponentiellen Rhythmus. Einer der Mitgründer von Intel, Gordon Moore, formulierte Mitte der 70er Jahre das nach ihm benannte Gesetz: Die Anzahl der Transistoren auf einem Chip wird sich in den nächsten Jahrzehnten alle 18 Monate verdoppeln!
Die nahe Zukunft eines exponentiellen Wachstumsprozesses wird überschätzt und die ferne Zukunft wird unterschätzt!

Und nochmal: Wir neigen dazu, die nahe Zukunft eines exponentiellen Wachstumsprozesses zu überschätzen und die fernere Zukunft zu unterschätzen. Das heißt wir sind jetzt schon begeistert, obwohl das Tollste erst noch kommt! Was heißt Verdopplung alle 18 Monate für einen Mikroprozessor des Jahres 2011? Nach Verlautbarungen der Firma Intel 1 Milliarde Transistoren.
Zum Vergleich: Ein Pentium-Chip hatte ca. 3,5 Millionen, der neue K6 von AMD ca.8,8 Millionen.

Gleichzeitig wird die Schnelligkeit, mit der in den Schaltkreisen gerechnet wird, um den Faktor 10 bis 15 zunehmen. Soviel zu den Produkten des Jahres 2011, die jetzt schon geplant werden müssen, da die Investitionen natürlich riesig sind.
Wenn man solche kleinen Wunderwerke verkaufen will, sollte natürlich klar sein, was mit ihnen angestellt werden kann. Ein kleines Problem, denn wenn man alle bekannten Anwendungen wie PC, Handy, Videotelefon, Multimedia und anderes Spielzeug in einen Chip packt, so kommen doch nur ein paar 100 Millionen Transistoren zusammen. Wozu sollte man die restlichen, sagen wir 500 Millionen Transistoren kaufen, wenn sie nichts verrichten?
Diese Frage hat man sich bei Intel schon vor Jahren gestellt und, um sie zu beantworten, einige kleine, aber um so kreativere Firmen gegründet, die nur über Anwendungen nachdenken die Rechenkapazität verschlingen.

Festzuhalten ist also: in den nächsten 10 bis 15 Jahren wird die leistung der zur Verfügung stehenden Prozessoren weiterhin exponentiell steigen.
SOFTWARE

Die sogenannte Softwarekrise ist nun auch schon ein paar Jahrzehnte alt. Dennoch steigt die Produktivität beim Erstellen von Programmen dauernd und noch längst nicht alle Ideen sind ausgereizt.
Dazu gehört das objektorientierte Programmieren ebenso, wie die Erstellung von Programmen durch genetische Algorithmen. Der einzige Preis scheint auf Dauer zu sein, das man das Verlangen aufgeben muss, ein Programm bis ins Letzte zu verstehen. Wenn man alles unter Kontrolle haben möchte eine scheußliche Vorstellung aber für Lösungen die eine gewisse Grösse überschreiten vielleicht die einzige Möglichkeit an ein funktionierendes Programm zu kommen. „Out of Control“ heißt folgerichtig ein Buchtitel von Kevin Kelly.

SUPERCOMPUTER

Die schnellsten Computer der Welt haben gerade erst angefangen, schnell zu werden. Die Zunahme der Rechengeschwindigkeit ist deutlich exponentiell, aber erst der Anfang.
Die nahe Zukunft eines exponentiellen Wachstumsprozesses wird überschätzt und die ferne Zukunft wird unterschätzt!

Das Department of Defense (Pentagon) der USA hat Mitte der 90er eine Supercomputer-Initiative veranlaßt, mit folgenden Meilensteinen:

ca. Ende
1998
3 Teraflop
bis ca.
2000-01
10 Teraflop
bis ca.
2002-03
100 Teraflop
bis ca.
2005
500 Teraflop
Zum Vergleich: Ein 486 von Intel führte ca. 1 Million Operationen pro Sekunde aus, ein Pentium schon ca. 100 Millionen.

1000 Millionen werden mit dem Wort Giga abgekürzt, und 1000 Giga mit Tera. Somit entsprechen 1 Teraflop 1 000 000 000 000 Fliesskommaoperationen.

Die nächsten Kürzel für weitere Zehnerpotenzen sind Peta und Exa, und auch von diesen unvorstellbar großen Zahlen werden wir in den nächsten Jahren immer öfter hören.

Wozu werden derart schnelle Computer benötigt? Zuerst einmal ist der Auftraggeber das Verteidigungsministerium, und das bedeutet Simulation von atomaren Explosionen. Weiterhin verschlingen die Klimaprognosen und der gemeine Wetterbericht sehr viel Rechenkapazität. In der Schlange der ungeduldig wartenden Rechenkunden stehen auch Chemiker, Astronomen und Kosmologen. Viele Probleme werden erst mit diesen neuen Wunderwerkzeugen durch Simulation kalkulierbar. Das Zeitalter der Simulation von Problemen beginnt erst.

Nicht zuletzt profitieren auch die Konstrukteure neuer Chips von diesen Computern und beschleunigen dadurch mit Sicherheit die Beschleunigung.
Ein Indiz ist in diesem Fall die verfrühte Realisierung des Terafloprechners. Noch Anfang der 90er vermutete man in vielen Prognosen, daß ein solcher Rechner erst Anfang des nächsten Jahrtausends gebaut werden würde und ein 10 Terafloprechner wurde für ca. 2005 vorausgesehen. Nun läuft der Terafloprechner schon und 10 sind für 2001 geplant. Ebenfalls ein schönes Beispiel für die Unterschätzung exponentiellen Wachstums sogar durch Fachleute.

Bemerkenswert sind diese Zahlen für den Besitzer einer normalen Geldbörse nur, weil eine Beziehung zwischen diesen Computern und den normalen PCs besteht. Ziemlich genau nach 15 Jahren landet nämlich die Rechenkapazität eines Supercomputers für den Preis eines PCs auf unseren Schreibtischen.

Falls die siliziumbasierte Technologie nach 2010 unüberwindbare Grenzen erreichen sollte, stehen schon einige Konzepte in den Startlöchern, um in noch größeren Schritten weiterzueilen. Zu nennen wären die Idee eines Computers, der mit Quantenzuständen rechnet, Rechner mit DNA oder mit Licht.

BRAIN BUILDER GROUP

Im schönen Japan lebt ein Amerikaner mit Namen Hugo deGarisEr hat einen Plan. Er wird versuchen, ein Gehirn nach sehr einfachen Prinzipien zu bauen. Während die herkömmliche Künstliche Intelligenz lange Zeit versucht hat, Programme zu schreiben, in denen Rechenvorschriften eingebaut sind, die sich intelligent verhalten und Probleme lösen können, geht er einen simpleren, und gleichzeitig komplexeren Weg. Er und sein Team schalten einfach viele Schaltkreise, die sich wie die Simulation eines Gehirnneurons verhalten, zusammen und lassen diese große Ansammlung von dummen Chips lernen. Sehr schnell lernen. Die Verschaltung zwischen den Neuronen kann bis zu 1000 mal pro Sekunde geändert werden.

Für Ende 1997 sind 1 Million Neuronen geplant, und für 2001 1 Milliarde. Benutzt wird hierfür ein FPGA-Standardbaustein der Firma Xeelink. Ausserdem hat dieses Projekt noch Auswirkungen auf die Konstruktion normaler, komplexer Schaltkreise, da mit dem gleichen Prinzip auch Signalbausteine evolviert und simuliert werden können.
INTERNET

Was das Internet ist, wurde schon sehr gut in den Kino-News von McDonalds erklärt. Wer es also jetzt noch nicht verstanden hat, ißt mindestens keine Hamburger.
Die nahe Zukunft eines exponentiellen Wachstumsprozesses wird überschätzt und die ferne Zukunft wird unterschätzt!
Das Wachstum des Internets verläuft ziemlich stur exponentiell, wobei die Zunahme seiner Teilnehmer langsam abnimmt.

Wahrscheinlich wird wieder ein Wachstumsschub ausgelöst, wenn es noch billiger, noch einfacher und noch sinnvoller wird, dieses Medium zu nutzen.
Die theoretische Bandbreite von Glasfaserkabeln zur Übertragung der Signale liegt, soweit heute bekannt, bei ca. 1000 GHz. Von der Ausnutzung dieser Bandbreite sind die meisten Verbindungen des Internets noch um den Faktor 1000 entfernt.
Im Falle des Internets ist es jedoch wie mit einer langfristigen Wettervorhersage: man weiß es wird Wetter geben, aber die genaue Form der Wolken an einem bestimmten Tag ist nicht vorhersehbar.

GLOBAL BRAIN

Unter diesem Begriff werden alle Bestrebungen und Theorien zusammengefasst, die sich der Idee verschrieben haben, das Internet zum Leben zu erwecken, also eine physische Noosphäre zu realisieren,um einen Begriff zu nutzen, den Teilhard de Chardin in Umlauf gebracht hat. Viele Forscher aus den unterschiedlichsten Disziplinen versuchen diesen Begriff und später das Netz zum Leben zu erwecken.

Die nahe Zukunft eines exponentiellen Wachstumsprozesses wird überschätzt und die ferne Zukunft wird unterschätzt!
Zu nennen sind in diesem Zusammenhang:

-Global Brain Group rund um Francis Heylighen, freie Universität Brüssel

-Ben Goertzel, University of Western Australia

-Gottfried Meyer-Kress, Center for Complex System Research, Beckman Institut

-Peter Russel, Physiker und Autor

-Vladimir Turchin, University of New York

Seitdem das Internet die Aufmerksamkeit der Forscher erregt hat, faszinierte viele unter ihnen die Ähnlichkeit mit einem, den ganzen Planeten umspannenden Gehirn. Die Verbindungen zwischen den einzelnen Computern werden dabei mit Axonen und die Computer selbst mit Neuronen verglichen. Eine verlockende Metapher. Was fehlt ist die in den Servern oder den Verbindungen gelagerte Intelligenz.

Hier setzt Ben Goertzel an, der verspricht, noch dieses Jahr ein Programm zu entwickeln, das ähnlich einer Web-Seite auf einem Server gespeichert wird, jedoch mit Intelligenz und ein wenig Urteilsvermögen ausgestattet, die aufgerufenen Themen verfolgt und vielleicht eigene Vorschläge entwickelt, die den Nutzer mit Links verbindet, auf die er nicht selbst gekommen wäre.

In dieser Art könnte der Teil des Netztes, der über diese Software verfügt, eine Symbiose mit den menschlichen Teilnehmern des Internets eingehen. Die Beziehung von Netz und Menschen würde so ein intelligenteres System hervorbringen gegenüber dem einzelnen Menschen, der auf eigene Faust eine bestimmte Information sucht.

Überhaupt ist man sich in Global-Brain-Kreisen noch nicht einig, ob das Netz zu einer autonomen Intelligenz wird, oder ob das Gesamtsystem Mensch-Netz die planetenumspannende Intelligenz sein wird.

Auch hier ist festzustellen, daß die Ergebnisse nicht lange auf sich warten lassen werden, um sich dann rasend schnell im Netz zu verbreiten, sobald sie einmal installiert sind.

KÜNSTLICHE INTELLIGENZ UND KÜNSTLICHES LEBEN

Kasparov ist in Schwierigkeiten. Noch wird nachträglich gerechtfertigt und herabgespielt, aber die Tendenz ist klar die eines Rückzugsgefechts. Hätte, wenn und aber.
Es gibt genügend junge, intelligente Mitzwanziger, die nicht aufhören werden, den Traum von der intelligenten Maschine realisieren zu wollen.

1987, auf der ersten Konferenz über künstliches Leben wurde schon explizit über Forschungsstop diskutiert, da die bis dahin erreichten Ergebnisse genügend Kriterien für Leben erfüllten um die Tendenz sichtbar werden zu lassen. Wann würden diese Geschöpfe den Menschen überflügeln? Wann würden sie darum bitten den Computer nicht abzuschalten?

1996 kam Creatures auf den Markt, ein Greuel für jeden wahren Forscher.
Diese Simulation von nur 1600 Neuronen im PC ergibt ein Wesen, das viele Zeichen von Leben zeigt. Erwachsene Menschen sorgen sich um die Entwicklung einer Simulation und zeigen Skrupel, wenn sie den PC abschalten müssen.
Was passiert wenn 10000 Neuronen simuliert werden? 100000 ?

CYC ist eines der aufwendigsten Projekte der klassischen künstlichen Intelligenzforschung. Seit über 10 Jahren programmieren Douglas Lenat und sein Team eine Wissensbasis, in der die Verknüpfungen unseres alltäglichen Wissens abgespeichert sind. Das Projekt wurde von großen Firmen gesponsort und mittlerweile in die Kommerzialität entlassen.

Alltagswissen, das, was wir für selbstverständlich halten, ist in der künstlichen Intelligenzforschung ein sehr wichtiger Flaschenhals.

Dann wäre da noch Dr. Thomas Ray und sein Programm Tierra, das künstliche Umwelten simuliert um darin Programme „leben“zu lassen, die sich fortpflanzen und mit der Zeit verändern.
Die Maximallösung der Künstlichen Intelligenz, der Computer mit Bewusstsein, der jeden Philosophen zufriedenstellt, wird noch nicht einmal nötig sein um gesellschaftliche Folgen hervorzurufen.
Schon das Überschreiten gewisser kognitiver Niveaus kann dazu führen das ganze Berufszweige verschwinden.

NANOTECHNOLOGIE

Nach über 10 Jahren der Disskusion und Forschung in USA und Japan, hat auch die deutsche Presse 1996 diese Technologie bemerkt. Deutsche Wissenschaftler halten sich noch ein wenig bedeckt, da die Auswirkungen dieser Technologie mit Leichtigkeit den Rahmen jeder seriösen Vorstellungskraft sprengt.Bei deutschen Politikern gar ist dieses technologische Konzept noch gänzlich unbekannt.

Zur Geschichte:

Am 29. Dezember 1959 hielt der Physiker und spätere Nobelpreisträger Richard Feynman eine Ansprache beim Jahrestreffen der American Physical Society, in der er darlegte, daß keine bekannte Tatsache der Physik dagegenspräche, Atome einzeln zu bewegen und zu größeren Objekten zusammenzufügen.
Im Jahre 1986 veröffentlichte K. Eric Drexler ein Buch mit dem Titel „Engines of Creation“ (1998 immer noch nicht ins Deutsche übersetzt!), in dem er den Weg und die Folgen einer Technologie beschrieb, die genau das verspricht: Jeden beschreibbaren Gegenstand aus einzelnen Atomen zusammenzubauen.
Kurz zusammengefaßt kann man sagen, das nur Materie und Energie in ihren jeweiligen Vorkommen noch einen Wert besäßen. Und natürlich Kreativität und Phantasie- aber wer weiß, was passiert, wenn Kasparov schon jetzt in Schwierigkeiten ist?
Marvin Minsky nannte Engines of Creation im Vorwort „enormously original“, also nichts für kurzfristige Karrieren.
Im gleichen Jahr wurde den deutschen (!) Physikern Binnig und Rohrer der Nobelpreis in Physik für die Erfindung des Rastertunnelmikroskops verliehen, mit dessen Weiterentwicklung IBM-Forscher im Jahre 1990 genau das erreichten, was für diese Technologie nötig ist: das genaue Lokalisieren und Verschieben von Atomen. Sie formten aus einzelnen Atomen die drei Buchstaben ihres Arbeitgebers: I, B, M.

In der Folgezeit formten Japaner -gleichzeitig tiefgründiger und verspielter- ein Kanji-Zeichen für Atom aus Atomen und ein Strichmännchen aus Atomen.

1995 schafften diese Übung auch deutsche Wissenschaftler an der FU-Berlin und formten die Buchstaben F und U.

Das Rastertunnelmikroskop hat sich bis jetzt als wichtigstes Instrument für jeden angehenden Nanotechnologen erwiesen, denn es ist für kleinere Laboretats erschwinglich und Experimente lassen sich schnell durchführen. Das Wissen über sehr kleine und sehr schnelle Verbindungen im molekularen Bereich nimmt also rapide zu. Inzwischen wurde das Rastertunnelmikroskop weiterentwickelt zum Rasterkraftmikroskop, mit dem auch nichtleitende Oberflächen beobachtet werden können.

Weitere bis jetzt vorhandene Konzepte und Werkzeuge sind Programme zur Molekülmodellierung, sowie aus der Chemie die Proteinsynthese. Mit den Molekülmodellierungsprogrammen werden schon jetzt nach der Design-Ahead Devise Maschinenteile entworfen und auf ihre Funktionstüchtigkeit überprüft obwohl ihre Herstellbarkeit weit in der Zukunft liegt.

Diese Disziplin profitiert also auch von Fortschritten auf dem Gebiet der Supercomputer.

Am Morgen des 26.Juni 1992 hielt Drexler eine Ansprache vor einem Senatskommitee, in der er die Nanotechnologie erläuterte. Der Vorsitzende des Kommitees kam etwas zu spät, zeigte aber durch seine anschliessenden Fragen grosse Sachkenntnis des Themas. Der Name des Vorsitzenden war Al Gore, der spätere Vizepräsident unter Bill Clinton.

Mitlerweile wird die fünfte Konferenz zur Nanotechnologie vom 1988 gegründeten Foresight Institut ausgerichtet, unter Beteiligung von Wissenschaftlern aus aller Welt.
Die Vision und gleichzeitig das Nadelöhr der Nanotechnologie ist der sogenannte Nanoassembler, eine Maschine, die in der Lage sein soll alles aus Atomen nach einer Vorlage, Beschreibung oder Programm zusammenzubauen. Unter ALLES fällt natürlich auch der Nanoassembler selbst, was den sofortigen Wertverfall jeden Gegenstandes zur Folge hätte.
Stunden oder Tage später müssten einige Regeln unseres Zusammenlebens neu geschrieben werden.

Zwischen heute und dem Assembler öffnet sich noch ein großes Loch voller Fragen, aber immer mehr Forscher sind bereit, ihre Gehirne in dieses Loch zu werfen, um eine Brücke ins Nanozeitalter zu bauen. Wesentlich ist dabei zu bemerken, das es sich hierbei um Technologie und nicht um Wissenschaft handelt, also keine grundsätzlich neuen Theorien nötig sind.
Zur Orientierung muß noch erwähnt werden, daß nicht alles Nano ist, wo Nano draufsteht. Nur weil ein Forscher im Grössenbereich von Nanometer, also 10 hoch minus 9 Metern forscht, ist er noch kein Nanotechnologe. Im Moment werden viele Lehrstühle gegründet, die sich mit diesem Größenbereich auseinandersetzen, weil die fortschreitende Miniaturisierung in der Chiptechnologie das nötig macht. Dies fällt jedoch alles unter sogenannte Top-Down-Forschung, d.h. vom Kleinen zum immer Kleineren. Zu diesen Top-Down-Ansätzen gehört auch die sogenannte Mikrosystemtechnologie, mit ihren kleinen Zahnrädchen und Pümpchen. Mikrosystemtechnologie ist jedoch um einen Faktor 1000 größer als Nanotechnologie. Im Gegensatz dazu verspricht die Nanotechnologie Bottom-Up Resultate, d.h. ausgehend von Atomen immer größere Produkte zu bauen. Um diesem Mißverständnis aus dem Weg zu gehen, spricht man auch alternativ von Molekularer Manufaktur oder Fabrikation im Falle der Nanotechnologie im Sinne Drexler’s..

Was können nun die Folgen einer voll realisierten Nanotechnologie sein?

Die ersten Ergebnisse werden in der Computertechnologie bestaunt werden können: Speicherdichten von einigen Terabyte pro Kubikcentimeter oder die Rechenkapazität eines Pentiums im Volumen einer Bakterie. Was wird dann in einem Zuckerwürfel passieren?
SPACE!
Die Werkstofftechnologie kann endlich in vielen Bereichen mit Diamant arbeiten, der viele Vorzüge bietet. Federleicht und hochbelastbar. Überall, wo Gewicht und Stabilität im Widerstreit miteinander stehen, werden neue Lösungen gefunden werden können. Architektur, Flugzeugbau und Raumfahrt können endlich Sicherheit, Effizienz und Schönheit unter einen Hut bringen.
Die kühnste Vision entspringt der Kombination aus Medizin und Nanotechnologie. Denkbar wäre eine winzige Sonde, die in einzelne Zellen eindringt und die Deffekte des Alterungsprozesses rückgängig macht.

Die Beurteilung, ob diese Technologie realistisch und realisierbar ist, möchte ich den 3000 deutschen Wissenschaftlern der Delphi-Umfrage von 1992 überlassen. Die untenstehende Grafik ist dieser Umfrage entnommen.

[ nano delphi ]

Wie man erkennen kann, wird die Nanotechnologie nach Meinung der Befragten bis ca. 2007-10 viele ihrer Ziele erreicht haben. Warum wird derartig umwälzenden Ereignissen weniger Aufmerksamkeit zuteil als den klimatischen Veränderungen des Jahres 2050 oder gar des Jahres 2100?Da alles aus Atomen besteht, werden die Grenzen der Anwendung lediglich von den Grenzen der Vorstellungskraft bestimmt. Um die Tragweite dieser Technologie zu begreifen kann ich empfehlen, bei alltäglichen Gegenständen anzufangen und im Geiste eine Art Was-wäre-wenn-Spiel zu treiben.

Die einzigen Regeln:

-Es gibt eine Maschine die jeden Gegenstand aus einzelnen Atomen zusammenbaut

-Sie kann sich selbst auch bauen, d.h. reproduzieren

In Nano-Kreisen wird der Punkt, ab dem man kapiert, daß NICHTS so bleibt wie es war, Miller-Point genannt, nach einem jungen Mann mit Namen Mark Miller, der anscheinend ein ausgesucht verblüfftes Gesicht zeigte im Moment seiner Nanoerleuchtung.
So kann man auch in die Geschichte eingehen.

Anmerkung:
Im April 1997 wurde in den USA ZYVEX gegründet, die erste Firma, die sich erklärtermassen zum Ziel gesetzt hat, im Zeitrahmen von 5 bis maximal 10 Jahren einen Nanoassembler zu entwickeln.

ALL TOGETHER NOW

Nun haben wir einen groben Überblick über die wichtigsten Technologien, die gerade angefangen haben ihr Pontential zu entfalten. Und noch einmal: Wir neigen dazu die fernere Zukunft von exponentiellen Wachstumsprozessen zu unterschätzen.

Was können wir nun erwarten, wenn sich die einzelnen Technologien gegenseitig überlagern?

Ein einfaches Beispiel hierfür ist die Beschleunigung der Computertechnologie durch die Chiptechnologie. Bessere Prozessoren ergeben schnellere Computer, schnellere Computer bessere Prozessoren. Ein Regelkreis mit positiver Rückkopplung, das heißt, das, was hinten rauskommt, wird vorne wieder reingefüttert und hat zur Folge, daß das, was dann rauskommt mehr beträgt als vorher und so weiter.

Nanotechnologie alleine ist revolutionär. Künstliche Intelligenz ist revolutionnär. Künstliches Leben ist revolutionär. Nanotechnologie plus künstlicher Intelligenz ist…? Nanotechnologie plus künstliches Leben ist…?

Gibt es ein Wort für revolutionär zum Quadrat?

Ja!

DIE SINGULARITÄT

Die Ereignisse, die sich abspielen werden, wenn diese Technologien aufeinander prallen und zu einem nie dagewesenen Momemt in der Geschichte des Planeten führen, werden seit Ende der 80er Jahre mit dem Begriff der Singularität oder technologischen Singularität bezeichnet..

Vermutlich wurde der Begriff zuerst von Vernon Vinge eingeführt, einem Mathematikprofessor und Science-Fiction-Autor aus San Diego. Dieser Berufsstand ist zwangsläufig zuerst von einem solchen Ereignis betroffen.

Durch konsequentes Durchdenken möglicher Zukünfte kamen immer häufiger SF-Autoren zu dem Schluß, daß sie über einen bestimmten Punkt in der Zukunft hinaus keine vernünftige Aussage oder Szenario beschreiben konnten.

1993 hielt Vernon Vinge einen Vortrag über die Singularität vor dem Vision 21 Symposium des NASA Lewis Research Center. Darin verglich Vinge die Singularität in ihrer Folgenschwere mit dem ersten Auftreten von Leben auf diesem Planeten.

Wie man es auch dreht und wendet, wenn man einmal damit anfängt, die oben aufgeführten Technologien zu Ende zu denken, gelangt man immer an einen Punkt, jenseits dessen nichts in menschlichen Begrifflichkeiten fassbar ist.
Wie will man die Probleme einer Intelligenz beschreiben, deren Intelligenz selbst exponentiell zunimmt? Was geschieht wenn jede physische Erscheinungsform zur Disposition steht? Was bedeutet es, wenn eine Simulation nicht mehr von der Realität zu unterscheiden ist?

In jedem Fall steht man vor einer Mauer hinter der der Mensch nicht mehr Mensch sein wird. Human wahrscheinlich, aber nicht mehr menschlich.

Daraus folgt, daß nur noch sinnvolle Aussagen über die Zeit vor der Singularität gemacht werden können.

Die wichtigsten Prä-Singularität-Fragen sind:

-Wie wahrscheinlich, plausibel ist eine solche Entwicklung?

-Wie wünschenswert ist eine solche Entwicklung?

-Was kann man tun?
PLAUSIBILIBTÄT DER SINGULARITÄT

Unter der Vorraussetzung, daß die Trends der oben aufgeführten Technologien nicht abbrechen, wird das Bild dieses Ereignisses immer deutlicher werden. Zwischendurch kann man damit rechnen, daß Konzepte oder Technologien auftauchen die zu einer weiteren Beschleunigung führen.

Was könnte also den Trend brechen?

Ganz oben auf der Liste stehen Naturkatastrophen, wie das grosse Tokiobeben oder ein Meteorit. Ein Beben in Tokio würde zwar zu einer weltweiten Rezession führen, aber den Trend nur verzögern oder vertagen. Eine echte Unterbrechung für die gesamte Evolution auf diesem Planeten stellt jedoch der Einschlag eines Meteoriten dar.

Alle anderen denkbaren Möglichkeiten führen nur zu Verzögerungen.

Eine wichtige Art der Verzögerung ist jedoch der Zusammenbruch ganzer Volkswirtschaften auf Grund sprunghafter, technologischer Durchbrüche. Dies könnte durchaus passieren, wenn z.B. die Nanotechnologie plötzliche Erfolge erzielt und viele Produktionsverfahren über Nacht obsolet werden.

Schon der Zusammenbruch des Ostblocks hat gezeigt, wieviel Leid das Fehlen ordnender Strukturen über ganze Gesellschaften bringt. Dieses Szenario führt uns logisch zur Frage, ob gewisse Entwicklungen wünschenswert sind.
WÜNSCHENSWERT?

Da uns die Beurteilung der Zustände nach einer technologischen Singularität per definitonem nicht möglich ist, kann sich unser moralisches Unbehagen nur auf die Zeit davor erstrecken.

Hier sind zwei Fälle zu unterscheiden:

-Verurteilung der Errungenschaften der Prä-Singularitäts-Technologien

-Ablehnung der Folgen eines Zusammenbruchs der nationalen oder globalen Volkswirtschaft auf grund diskontinuierlicher Innovationssteigerungen.

Aus humanitären Gründen kann eine Verurteilung zukünftiger Technologien nicht erfolgen, da z.B. Nanotechnologie einige Probleme in der Medizin oder Nahrungsmittelversorgung beseitigen würde. Also sind nur fundamentalistische Gründe denkbar. Watch out!

Da eine globale, sich beschleunigende Forschung nur schwerlich aufzuhalten ist ( auch nicht durch Terrorismus), bliebe nur der Versuch, ein weltweites Moratorium durchzusetzen. Organisatinsbedarf mindestens 10 Jahre oder mehr wenn nicht gänzlich unwahrscheinlich. In der Zwischenzeit geht alles weiter.
Aus der Ablehnung der Zusammenbruchsfolgen ergibt sich nur eins:

DIE BESCHLEUNIGUNG DER BESCHLEUNIGUNG

“ Wenn, wie wir meinen und bereits angedeutet haben, das Bewußtsein die Rückkopplung bildet, welche den Verlauf der Ereignisse nicht nur spiegelt, sondern auch beschleunigt und lenkt, dann hat auch derjenige, welcher auf eigene Faust an dieser Bewußtwerdung teilnimmt, seinen möglicherweise infinitesimalen, aber letzten Endes keinesfalls unbedeutenden Anteil an der Beschleunigung und der Lenkung des Werdegangs der neuen Menschheit.“

Pierre Bertaux, Mutation der Menschheit 1971

Da einfach zusammengefasst, jede Verzögerung Leben kostet, sollte man zum Kriterium des eigenen Handelns erheben, ob das, was man tut oder entscheidet, zu einer Beschleunigung der Beschleunigung führt oder nicht. Wahrscheinlich sind wissensverarbeitende Berufe dabei die naheliegenste Lösung, denn jede Verteilung oder Herstellung von originärem Wissen führt früher oder später zu einer Beschleunigung.

Da trifft es sich gut, das die heraufziehende Informationsgesellschaft genau dieses Element einer Beschleunigung zur zentralen Ware hat.

Der Wille zur Beschleunigung und der Mut einer Zeit entgegenzugehen, für die kein Mensch vorbereitet sein kann, findet schon jetzt seine treffende Zusammenfassung in einem Motto der Extropy-Bewegung, deren Anhänger sich dieser Zusammenhänge voll bewusst sind:

BEST DO IT SO

Boundless Expansion
Self Transformation
Dynamic Optimism
Intelligent Technologie
Spontaneous Order

SCHLUß

“ Oh ja! Es ist sehr dunkel vor uns! Und die Sterne sind nicht mehr da, wenn es darum geht, den Standort im Universum zu bestimmen.- Etwas scheint jedoch gewiss. Das Geräusch der Wogen, das wir vernehmen, ist nicht nur das ungeordnete Schlagen der Fluten gegen die Flanken unseres Schiffes. Hinzu kommt noch das besondere Rauschen des Wassers unter dem Kiel. Das Land dem wir entgegensegeln, ist vielleicht unbekannt. Das ist unwichtig. Auf jeden Fall sind wir nicht ein nach dem Zufall treibendes Objekt. Es gibt einen Sinn der Dinge. Wir kommen voran. Wir schreiten voran.“

Teilhard de Chardin, Mein Universum 1924

ERLÄUTERUNGEN/Glossar

-DoD : Department of Defense, Pentagon

-Flop: Floating Point Operation, Fliesskomma Operation

-FPGA: Field Programmable Gate Arrays, eine grosse Ansammlung
nicht verschalteter Logikbausteine auf einem Chip

-Nano: 10 hoch -9

-Teraflop: 1.000.000.000.000 Rechenoperationen

BIBLIOGRAFIE

Bertaux, Pierre: Mutation der Meschheit, List Verlag München 1971

Bruckmann,G.(Hrsg): Langfristige Prognosen, Physika-Verlag Würzburg Wien 1978

Chardin, Teilhard de: Die lebendige Macht der Evolution, Walter Verlag Freiburg 1967

Crandall, B. C.(Ed.): Nanotechnology, MIT Press 1996

Dobrow, Gennadij: Wissenschaft: Ihre Analyse und Prognose, DVA Stuttgart 1974

Drexler, K. Eric: Engines of Creation, Anchor Books 1986

Drexler, K. Eric: Nanosystems, Wiley 1992

Drexler, K. Eric/ Peterson, Chris/ Pergamit, Gayle: Experiment Zukunft, Addison-Wesley Bonn 1994

Freyermuth, Gundolf S.: Cyberland, Rowohlt Berlin 1996

Gehmacher, Ernst: Methoden der Prognostik, Rombach Freiburg 1971

Grupp, Hariolf: Der Delphi-Report, DVA Stuttgart 1995

Hartenstein, Rainer W.:Standort Deutschland: Wozu noch Mikrochips, IT Press Verlag Bruchsal/Chikago 1994

Jantsch, Erich: Die Selbstorganisation des Universums, Hanser München 1979

Kaufmann, William/ Smarr, Larry: Simulierte Welten, Spektrum Heidelberg 1994

Kelly, Kevin: Out of Control, Fourth Estate London 1994

Krummenacker, Markus/James Lewis: Prospects in Nanotechnologie, Wiley NY 1995

Lampton, Christopher: Nanotechnologie, te-wi Verlag 1993

Mensch, Gerhard: Das technologische Patt, Umschau Verlag Frankfurt 1975

Modis, Theodore: Die Berechenbarkeit der Zukunft, Birkhäuser Basel 1994

Moravec, Hans: Mind Children, Hoffmann und Campe Hamburg 1990

Peterson, John L.: The Road to 2015, Waite Group Press Corte Madera 1994

Price, Derek J. de Solla: Little Science, Big Science, Frankfurt stw 1974

Regis, Ed: NANO!, Bantam Press London 1995

Russel, Peter: Im Zeitstrudel, Integral Wessobrunn 1994

Schwartz, Peter: Art of the Long View, Doubleday NY 1991

Stonier,Tom: Information und die innere Struktur des Universums, Springer Berlin Heidelberg 1991

Tipler, Frank: Die Physik der Unsterblichkeit, Piper München 1994

Thro, Ellen: Künstliches Leben, Addison Wesley Bonn Paris 1994
INTERNET ADRESSEN
Alle notwendigen Links sind unter:
???????
zu finden.
E-mail Kontakte an:

siggi@siggibecker.de
PHYSISCHE ADRESSE

Siegfried Becker
Herderstr.3a
40237 Düsseldorf

Tel.:0211/660647

Kontakte in jedem Medium herzlich Willkommen!