Alles wirklich erst der Anfang

Musste gerade den Implus, in Facebook einen längeren Satz mit minimaler Schöpfungshöhe zu formulieren hart ausbremsen und stattdessen hier zu schreiben. Aalso.

Wenn man irgendwas über die technologische Timeline zum empften Male sagen kann, dann das: Alles erst der Anfang. Auch wenn smarte Geister aus dem technoesken Föjetong einem zyklisch etwas anderes einreden möchten.

‎“STAN WILLIAMS: We have such a long way to go. People talk about reaching the end of Moore’s Law, but really, it’s irrelevant. Transistors are not a rate-limiting factor in today’s computers. We could improve transistors by factor of one thousand and it would have no impact on the modern computer.

The rate-limiting parts are how you store and move information. These are visible targets and we know what we have to do to get there. We can continue to improve data centers and computers at Moore’s Law rates — doubling performance every 18 months — for at least another 20 years without getting into something like quantum or neuronal computing.“

Quelle: HOW ATOMIC SCALE DEVICES ARE TRANSFORMING ELECTRONICS

Dieser Williams ist nicht so ein technoesker FAZ-Jüngling, der interessante Gesprä Diskurse in Berliner Salons über die Hybris dös Mänschen führt, sondern Hewlett-Packard Senior Fellow and director of the company’s Cognitive Systems Laboratory. Vermutlich wieder so ein schrecklicher „getting shit done“-Typ.

Anstatt aus der Gegenwart die Möglichkeit oder Unmöglichkeit von irgendetwas in der Zukunft (Chips, Moore, Ai, AGI) smart zu kritisieren oder zu „widerlegen“, sollten wir Forderungen an die Gegenwart aus dem Geiste der uns maximal vorstellbaren Zukunft stellen. Wer sich nix vorstellen kann trägt sowieso das unsichtbare Zeichen des Darwin-awards auf der Stirn. Hugh!

5 Gedanken zu “Alles wirklich erst der Anfang

  1. Ich kann das Kavli-Foundation Gespräch nur wärmstens ans Herzilein legen. Voller Perlen, falls mal jemanden der Schwung verlässt im deutschen Mief.

  2. Wobei Quantencomputer auch stark überbewertet werden. Sie haben nur bei wenigen Spezialaufgaben Vorteile gegenüber klassischen Computern. Sie würden wahrscheinlich hauptsächlich zur genauen Simulation von quantenmechanischen Vielteilchensystemen eingesetzt werden und auf diesem Gebiet numerische Simulationen ersetzen. Die oft genannte schnelle RSA-Faktorisierung hätte wohl nicht viel Bedeutung, weil es andere klassische Alternativen zu RSA gibt, für die kein schneller Quantenalgorithmus existiert. Siehe auch:
    http://www.spektrum.de/alias/informatik/die-grenzen-der-quantencomputer/957499

    Dass ein Fortschritt von Moore’s Law bei klassischen Computern nicht automatisch einen Fortschritt bei neuronalen Netzwerken bewirkt, stimmt natürlich. Auf der anderen Seite werden bei der Erforschung von biologischen Gehirnen auch Simulationen eingesetzt. Etwa numerische Simulationen, die in 10 oder 20 Jahren in ein „Human Brain Project“ münden sollen: Eine möglichst genaue (unserem Wissensstand entsprechende) Simulation eines ganzen menschlichen Gehirns. Auf einem klassischen Supercomputer, weil die dafür benötigte Rechenleistung gewaltig ist. Sie würde wahrscheinlich erstmal trotzdem unter Echtzeitgeschwindigkeit laufen.

    Viel schneller wären da nicht-numerische Simulationen mittels einer entsprechenden Hardware („Emulation“). Dazu werden dann spezielle „neuonale Chips“ verwendet. So wird es etwa bei Projekten wie BrainScaleS gemacht. Der Vorteil gegenüber numerischen Simulationen ist, dass keine teuren Supercomputer notwendig sind und die Simulation derzeit 10 000 mal schneller als Echtzeit ist, wodurch man auch schnell Prozesse simulieren kann, die in Echtzeit Jahre dauern würden. Etwa Lernvorgänge. Ein Problem ist hier, dass die Anzahl der künstlichen Neuronen in den Spezialchips um Größenordnungen kleiner ist als im Gehirn. Obwohl man mittlerweile nicht nur einzelne Chips, sondern ganze Wafer verwendet, kommt nur auf wenige 100 00 Neuronen. Im Gehirn sind es bekanntlich um die 100 Milliarden. Durch eine Verbesserung der lithographischen Verfahren (die Moore’s Law ermöglichen) wird die Anzahl der Neuronen auf diesen „Neurowafern“ vermutlich deutlich steigerbar sein.

    Dass sie den numerischen Simulationen so auf absehbare Zeit den Rang ablaufen darf aber auch nicht erwartet werden. Denn alle grundlegenden funktionalen Eigenschaften dieser „Emulatoren“ werden direkt in Hardware realisiert. Dadurch sind sie viel weniger realistisch als numerische Simulationen wie die von Markram. Denn dort sind alle Eigenschaften des simulierten neuronalen Netzes virtuell, also Teil der Software, was sie natürlich viel weniger konstruktiven Beschränkungen aussetzt. Die Hauptbeschränkung ist „nur“ das fehlende Wissen der Neurowissenschaft und die begrenzte Rechenleistung.

    • Nochwas zu den Akten auf relativ neuerem Stand, als ein Artikel aus 2008, und zwar ebenfalls von Aaronson himself:

      http://www.scottaaronson.com/blog/?p=954

      For the first time, I find myself really, genuinely hoping—with all my heart—that D-Wave will succeed in proving that it can do some (not necessarily universal) form of scalable quantum computation.

      Aber das ist eher ein Seitenpfad der generellen Problematik, wie man mit Fortschritt antizipativ umgeht oder eben nicht.

      • Den ersten Artikel hatte ich schon gelesen. Zu D-Wave bleibt zu sagen, dass selbst die (entgegen den ersten Annahmen offenbar seriösen) D-Wave-Wissenschaftler in ihren Papers nicht von „quantum computing“ sprechen, sondern nur von „quantum annealing“. Es handelt sich funktional nämlich nicht um den Quantencomputer an dem zahllose Wissenschaftler auf der ganzen Welt forschen. So weit ich weiß laufen deswegen auch die bekannten Quantenalgorithmen von Shore (schnelle Primfaktorzerlegung) oder Grover nicht darauf, auch die Simulation von Vielteilchensystemen wäre nicht möglich. Offenbar stellt das „qantum annealing“ eine wesentlich niedrigere Anforderung an die Verschränkung von Qubits, kann aber auch weniger. Von schnellerer Mustererkennung ist offiziell die Rede. Man kann einige Artikel ergoogeln in denen die Funktionsweise näher erklärt wird, die irgendwie mit „Eigenstates“ zusammenhängt. In dem oben verlinkten Artikel wurde das nur kurz angerissen. Ist aber wohl ohnehin nur für Physiker verständlich.

Kommentare sind geschlossen.