Ein paar Gedanken (Web 2.0?)

Der Teil des Netzes, der sich Blogossphäre nennt hat sich schon lange in vielen Details vom WWW abgesetzt. Das mag, wenn man in dieser Brühe täglich schwimmt nicht auffallen, wird aber bis zur Renitenz sichtbar wenn man im täglichen Geschehen mit Menschen zu tun hat, die sich auf dem Stand des Jahres 95 das Netz anzueignen versuchen. Eines der regressivsten Argumente in diesen Belangen ist: Es muss noch einfacher werden, das ist nur was für Geeks. Es wird nie wieder einfacher! Die Menschen die sich an der Grenze herumtreiben werden einfach auf Grund ihrer globalen Reichweite und absoluten Zahl von der Masse, die noch immer mental in 95 verharrt, wie im Wettlauf von Achilles und der Schildkröte infinitesimal unerreichbar bleiben. Das Unverständnis wird unsere Heimat. Wenn man es erklärt hat, ist der Stand der Technik schon weiter…

Wir sind schon lange die Summe unserer Backlinks. Nicht der Texte oder Bilder, die in unserem Besitz verbleiben. Die versammeln sich nur unter unserem Namen, um auf sie hingewiesen zu werden. Die Macht der Dinge oder geistigen Artefakte auf die nicht freiwillig gelinkt werden kann, schwindet. Der Aspekt der Freiwilligkeit in diesem Akt ist enorm wichtig. Der erzwungene oder erkaufte Link wird immer so stark sein wie die Macht im Meatspace, die dahinter steht. Wenn sich aber eine in absoluten Zahlen wesentliche Untermenge der globalen Population aus diesem irrationalen und brutalen Gefüge verabschiedet und Inhalte nur noch freiwillig mit Reputation füttert, dann verschiebt sich ein jahrtausendealtes Machtgefüge zu Gunsten des Metaversums. Anzeichen dafür sind in der Behandlung von Schlipsen bei Google zu finden, oder in der Notwendigkeit einem Freund zu erklären, warum er linken, nicht fullqouten sollte. Rainer Wasserfuhr könnte recht haben: Wir stehen vor einem exponentiellen Wandel hin zu einem Web of Trust, in dem die Blogosphäre nur ein Teil einer größeren Dynamik ist. Zum Leidwesen der Moloche wird dieser „Trust“ nicht käuflich sein.

Web 2.0 Rauschen

Mich erinnert diese absurde Debatte an einen Eintrag den ich vor fast genau einem Jahr zum allgemeinen Thema „Hype“ geschrieben habe. Das was ich damals anmerkte erklärt sehr gut die Mechanismen eines Hypes. Alle Faktoren scheinen mir auch im Falle Web 2.0 gegeben zu sein:

Technologie die in ihrer Wirkmächtigkeit exponentiell voranschreitet und die daher in Wellen über- und dann wieder unterschätzt wird;

Die naturwissenschaftlich-technische Unbildung des breiten Publikums

Hasardeure, die das Vakuum zwischen Überschätzung und technologischer Realität für ihre Zwecke ausnutzen.

Deswegen klappt auch ein Rekurs in die Geschichte wie bei Herrn Basic, um die Diskussion zu relativieren. Hasardeure leben im Hype vom schlechten Gedächtnis des breiten Publikums.

Sir2

Vor einem Jahr erschien mir eine kleine Bemerkung zum Sir2-Enzym angemessen. Nun erschien gestern ein Paper in Cell das weitere Forschungen rund um den kleinen Racker sowie SCH9 ausbreitet. Im Kern dreht es sich darum das es Forschern der University of Southern California gelungen ist Einzeller durch Ausschalten von Sir2 und SCH9 dazu zu überreden circa 6 mal so lange zu leben. Ohne Hungerkur wie in anderen Experimenten.

Langsam nimmt die Forschung rund um die Biochemie des Alterns Fahrt auf. Nimmt man noch die anonyme Millionenspende für den Methsualeh-Preis mit auf die Rechnung, dann drängt sich mir der wirklich total vollkommen unbegründete Verdacht auf: Da tut sich nach 100 000 Jahren endlich was.

Auf der Durchreise

Der wahre Reisende ist Phantast und wird vom Ziel enttäuscht. Seine ultimative Technologie ist die Idee, deren Glanz nur ein Abglanz von Omega ist. Während die stumpfen Tiere ihr Nest putzen, treibt es ihn von seiner Person beständig abzusehen und Unbehaustheit zum Stil zu erklären. Unterwegs sein ist Haltung, nicht Urlaub.

Unterwegs ändert der Fragende das ihn Ändernde, bringt Dinge hervor, die dem Ruf Omegas folgen und im wilden Kreisel der Bilder einzig das Licht zur Norm erheben.

David Deutsch erhält Edge of Computation Science Prize

Die Fliegenklatsche des durchschnittlich fortschrittskritischen Realisten ist der Hinweis auf die notwendigen, physikalischen Grenzen von Moore´s Law. Das hört schon wieder auf, Kinder. So circa 2015. Einverstanden. Wenn, ja wenn es nicht Menschen vom Typus David Deutsch gäbe. Oder Jeffrey Epstein. Oder John Brockmann.

Mr. Brockmann, Inhaber von Edge Foundation, Inc. und Verleger verständlicher Wissenschaftsbücher hat den Edge of Computation Science Prize ins Leben gerufen, der wiederum durch den mysteriösen Jeffrey Epstein mit 100 000$ unterfüttert wird. Der Preis wurde am 12. November dem Herrn Deutsch für seine Verdienste um die Konzepte eines Quantencomputers verliehen. Der wesentliche Unterschied zu digitalen Computern besteht darin, das die Rechenleistung eines Quantencomputers mit der Zunahme der sogenannten Q-Bits exponentiell steigt. Der Über-Moore sozusagen.

Nun war bisher ausgemachte Sache, das es sich hier um Konzepte handelt, die allerhöchstens in einigen Jahrzehnten zum Einsatz kommen würden. Aber über was muss ich im „Weblog“ (Brrr…) von Herrn Deutsch stolpern?

For a long time my standard answer to the question ‚how long will it be before the first universal quantum computer is built?‘ was ’several decades at least‘. In fact, I have been saying this for almost exactly two decades … and now I am pleased to report that recent theoretical advances have caused me to conclude that we are within sight of that goal. It may well be achieved within the next decade. The main discovery that has made the difference is cluster quantum computation, which is a marvellous new way of structuring quantum computations which makes them far easier to implement physically.

Lassen wir also Moore´s Law bis 2015 schuften, dann folgt das (kurze) Zeitalter der Quantencomputer. Um die Skizze des Milieus, in dem diese Konzepte gedeihen ein wenig süffiger zu machen möchte ich noch auf Herrn Tipler verweisen, mit dessen Werk der Herr Deutsch sehr vertraut ist.

An dieser Stelle ist es dann mal wieder Zeit ein Diagramm zu krakeln. Wer kennt wen? Alle Beteiligten sind mit Konzepten vertraut, die extremste futuristische Szenarien beinhalten. Mindestens Kardashev II. Die technologische Singularität ist da nur ein Pickel auf der Piste der Evolution.
Deutsch Epstein Tipler

Google Analytics (3)

Nach dem ich meine Kinnlade auf dem Teppich wiedergefunden habe, kommt mein lokales Gehirn langsam auf Trab. Die Domains die von GA getrackt werden, verschmelzen mit einem Schlag zu einer einzigen, gigantischen Harddisk. Die Daten die dadurch entstehen, kann man sich durch ein riesiges, dendritisches Netzwerk visualisiert vorstellen, das je nach Tageszeit sektorielle Fluten aufweist. Hinter je einem Häuflein von kleinen Knoten sitzt ein biologisches Gehirn. Wir sind das Interface. Alles hat sich mit einem Schlag verkehrt. Was sagen die Schwellungen der dendritischen Röhrchen über die Relevanz der Knötchen aus? Wo sitzt die Intelligenz? Im „Zwischen“ oder im „Über“? Wenn die Intelligenz im „Zwischen“ lebt, ist jeder Versuch einen Besucher zum Verweilen zu zwingen, eine Mikroattacke die Menschheit insgesamt zu downgraden. Wenn im „Über“, dann muss Google noch wachsen. Es wird nicht lange dauern bis in Googel Analytics eines Morgens unaufgefordert Vorschläge zur „Verbesserung“ der eigenen Seiten auftauchen …

Google Analytics (2)

Natürlich kann man das auch drastischer Ausdrücken:

Google Takes Out Entire Industry In One Day!

Jon Heshaw bezieht sich dabei auf die Industrie der Webanalysesoftwarehersteller. 28 Buchstaben und eine miese Zukunft. Programme die 600$ kosteten. Damals. Google Analytics selbst basiert auf Urchin, einem Service den man schon immer bei Google beziehen konnte, und der schlappe 199$ pro Monat kostete. Bis vorhin.

Mir bleibt nichts anderes übrig als mal wieder ein Häkchen auf der Liste „Beschleunigung“ zu machen. Wobei die rekursiven Effekte später dann auf der Liste „Beschleunigung der Beschleunigung“ vermerkt werden.

Google Analytics

Ein paar Gedanken dazu. Was passiert wenn eine Suchmaschine nicht nur weiss auf welche Seite unter einem bestimmten Suchwort geclickt wird, sondern auch was danach auf der Zielseite geschieht? In wie weit könnte es die Bewertung, ob die Zielseite relevant war, beeinflussen? Würde jemand der um jeden schmuddeligen Preis oben stehen will dieses Script mitlaufen lassen? Hat dieses Script Einfluss auf die SEO-Branche? Würde so jemand die referierende Suchmaschine wissen lassen wollen, das der Besucher das typische Click-through-Verhalten eines unbefriedigten Suchers an den Tag legte? Wollen Webseitenbetreiber relevant sein oder nur verkaufen?

Da ist ein cloosed Loop eröffnet worden der Feedback auf vielen Kanälen erzeugt. Wenn der Anreiz diesen Dienst in Anspruch zu nehmen hoch genug ist, könnte dies der Startschuss für das Ende einiger Branchen bedeuten. (via Philipp )