Wenn man aus den Naturwissenschaften oder Ingenieurdisziplinen kommt, dann wird man eigentlich auf Wahrheit trainiert. Es muss funktionieren, es muss bewiesen werden, es muss falszifizierbar sein. Und dann steht da: falsch, Null, funktioniert nicht.
Alle, die aus nichtnaturwissenschaftlichen Disziplinen kommen lernen das schlimmstenfalls nicht. Die wurschteln sich am Gradienten maximalsten Einflusses, Macht, Dominanz oder Aufmerksamkeit, Skandal lang. Trial und Error bis zur maximalen Verkommenheit. Die Strasse ist dann gepflastert mit Spielchen, bullshitten, Powerpoint, Ausschweifungen, sinnenstarken Hobbies, Machiavellismus. Der Verlust des Gefühls für (logische) Wahrheit ist eine sehr abschüssige Bullshitroad.
Siggi
NotebookLM und Meditationes
20 kleine Texte aus dem Jahr 2016 in einer Art Halbdämmer geschrieben. Jedes Wort gewogen, gesetzt, gefügt.
8 Jahre später einem Bot in den Rachen geschoben und einen Gespensterpodcast erzeugt.
Der Podcast:
Alle Texte:
pre-ASI Zeiten und mehr Döner
Mich dünkt da wabert eine zunehmende Unschärfe in der Wahrnehmungsfähigkeit auf uns zu. Fähigkeit, weil mit zunehmender Intelligenz des künstlichen Kommunikationsteilnehmers die Erkennbarkeit dessen Potentials entschwindet. Ausserhalb der Wahrnehmungsfähigkeit eben. Niemand wird je wissen wie stark AlphaZero wirklich war, weil kein Mensch existiert der es schlagen kann. Niemand. Wir werden spätestens nächstes Jahr unterstellen müssen, das wir jemandem gleichen, der ohne es zu wissen auf dem Pissoire neben Einstein steht und ihn nach ner leckeren Dönerbude fragt. Unser Niveau halt.
NotebookLM und die technologische Singularität in 1997
Letzte Tage noch so ein drive-by-AI-Denier Gespräch geführt. Epistemologisch haben die Leuts einen seltsamen bis nicht vorhandenen Umgang mit Extrapolation. Rauchen, fressen, Klima, shoppen, AI – you name it. Naja, lassen wir mal diese can of worms zu. Publikumsbeschimpfung ist ja sooo Handke.
Jedenfalls begab es sich gestern das Google klammheimlich son Dings gebaut hat. Man lädt ein Dokument hoch, lässt es analysieren, kann Fragen dazu stellen und erhält als Dreingabe die Podcast-Simulation eines Gesprächs über das besagte Paper. Der erste Teil ist so landauf, landab seit mindestens einem Jahr normal. Was in 2024 eben mal schnell als normal weggebunkert wird. Wundern war gestern. Assimilieren und/oder dezent smart-rülpsen und mosern ist Standard in 24.
Zum zweiten Teil: der Audiopodcast. Öh. Ich schwankte nach 31,4 Sekunden zwischen Tränchen im Auge und Autschung. Audio ist schon hart, Sky lässt grüssen. Schon bei Sky und Konsorten hab ich mich schnell auf Audio in aber Text out beschränkt. Too close to home und zu seriell. Bei einem simulierten Gespräch steht aber so ein dissoziierter Metaaspekt ala Panoramen von Lucas Derks im Vordergrund.
Was mir aber zum wiederholten Mal auffällt ist der neutrale Aspekt: da ist niemand der dir ans Bein pinkeln will, auch wenn kritische Punkte aus dem Text rausgepickt werden. Jede, aber auch jede verdammte menschliche, nichttherapeutische Kommunikation ist immer von hidden Psychoagendas beherrscht, auch oder gerade bei Profis die sich vollkommen geRogert wähnen. Dem ist bei Menschen kaum beizukommen.
Diese AI-Teile bleiben aber psychisch neutral. Wie sollten sie auch anders. Da ist niemand zu Hause. Es werden nur die im Text enthaltenen Vektoren genutzt. Diese Neutralität in Verbindung mit der Emotionalität von Stimmen ergibt eine paradoxe Mischung. Bei mir erzeugt das den starken Eindruck jemand reagiert sachlich kongenial. Allein das ist eine unglaublich wertvolle Erfahrung. Zwischen Menschen selten, sehr selten.
Alle Anspielungen, sachlichen Vorraussetzungen werden ebenfalls von le machine impliziert. Da ist nichts erklärendes, pädagogisierendes im Text nötig. Das ideale Publikum. Bei Menschen habe ich oft nach Vorträgen den dümmlich, uninformierten Vorwurf gehört: dies oder jenes war mir zu kompliziert, warum hast du xyz nicht erklärt, Du kannst nicht alles voraussetzen etc. Eben dümmlich anspruchsvoll bei gleichzeitiger Uninformiertheit im Jahre 25 nach Google. Da muss man dann runter in den pädagogischen Keller wollen und es lieben sich im Erklärbärmodus zu suhlen oder man zieht das so durch und lässt die Zeit für sich arbeiten. Seufz.
Das wird einer unserer Entrypoints sein, der vielleicht auch als normative Forderung in den Alltag zurückkoppelt: Hey, Du Arsch lass das, es geht auch anders. Hör zu, versteh erstmal was ich sage bevor Du mir Deine Agenda so hidden wie Dir IQ-äquivalent möglich ist reindrückst. Kongeniales Verstehen. Sachlich, ohne Referenz auf Peergroup, Stilnotwendigkeiten, Defizitkompensationen.
Ich sehe da positive Rückkopplungen der AI-Erfahrungen in die qualitativen Anforderungen an jede Kommunikation.
Womit wir bei den Extrapolationen sind. Mir unverständlich wie man davon ausgehen kann das da nichts weiter passieren wird, denn jedes Rumgemosere über die Defizite dieser Technologie(en) geht implizit immer von: „das wars dann wohl“ aus. Öde27. Das State of the Art immer nur ein Datenpunkt in einer Zeitreihe ist, kapieren 51% aller Glockenkinder nie. Mit extrapolierten Hypotheticals dürfen nur Misanthrophen und Pessimisten jonglieren. Manchmal denke ich das positive Zukünfte für Normies schlimmer als Pornos sind.
So, nun die Links und der künstliche Podcast:
Hier der Vortragstext von 1997:
https://www.siggibecker.de/die-technologische-singularitaet-vortrag-1997
Hier NotebookLM von Google:
Und hier das Notebook zum Text mit Fragen:
https://notebooklm.google.com/notebook/81f1b164-9eff-4f4f-9590-33c9e8dcb76d