Bruce Klein fragt…

when do you think AI will surpass human-level intelligence?

[ ] 2010-20
[ ] 2020-30
[ ] 2030-50
[ ] 2050-70
[ ] 2070-2100
[ ] Beyond 2100
[ ] Prefer not to make predictions
[ ] Other: __

Und bringt mich dazu, ein paar Fakten zu kombinieren.

Fakt 1: Was kann man mit einem Gehirn der Größe einer Walnuss anstellen?
Fakt 2: IBM simuliert 8 Millionen Neuronen
Fakt 3: Fallende Preise für Blue Gene/P

Ich schließe daraus: Irgendwann zwischen 2010 und 2100 wird es zur Lösung des Problems AI kommen.

Begründung: Die Hardware für intelligente Systeme ist schon lange vorhanden und AI ist „lediglich nur noch“ ein prinzipielles Problem, das morgen oder 2099 gelöst wird. Da aber immer mehr Firmen kapieren, dass — wie man bei Honda sagt — Intelligenz eine Technologie ist und somit ein (nichtlinearer) Produktivitätsfaktor, erscheint 2099 sehr unwahrscheinlich.

Leider entfaltet sich jede Technologie, ob Hammer, Rad oder AI, in konkreten Gesellschaften mit konkreten Menschen, die je eigene moralische Niveaus innehaben und mittels dieser Technologie ausleben. Spam ist da nur ein kleines Beispiel.

So betrachtet wäre eine AI>HI ein Ausweg aus den säugetierisch bestimmten Dramen der Geschichte. Was mir allerdings Sorgen bereitet sind die Prä-Singularitätszeiten, in denen AI <<< HI zur gesellschaftlichen und individuellen Befriedigung konkreter moralischer Niveaus eingesetzt wird.

6 Gedanken zu „Bruce Klein fragt…“

  1. Ich glaube, das die heiße Phase ab 2020 beginnt.
    Möglicherweise schaffen wir es ja sogar bis 2030. Gestern bei heise hab ich einen sehr interessanten Artikel dazu gelesen.

  2. ich glaube das die herren hier nicht wirklich ahnung von irgend etwas haben. wenn google das top ai-lab werden will geht es weniger um agi sondern um die erforschung der anwendung diverser weak ai techniken wie svms auf large scale datasets. warum herr goertzel hier immer und immer wieder zitiert wird verstehe ich nicht ganz. sind doch all seine bisherigen vorhaben rein auf statistischen methoden beruhende datamining algorithmen gewesen. siehe webmind inc etc. unglaublich wie man so semi wissenschaftlichem scheissdreck ( siehe „publikationen“ von herrn goertzel ) aufsitzen kann.

  3. Muss wohl in Österrreich ne stressige Nacht gewesen sein um so redundant rumzugranteln. 😉

    @Google+AI/AGI: Hier ist irgendwo ein Link zu einem Vortrag von Peter Norvig, in dem nichts anderes zum Ausdruck kommt.

    @Goertzel: Was dessen Reputation angeht würde ich mich entweder an Peter Norvig halten (warum darf so ein Schnösel bei Google sein Machwerk erläutern?) und wenn das nicht klappt dem Springer-Verlag mal kräfig auf die Füsse treten.

    @Webmind: Webmind ist nicht Novamente. So viel versteh ich Blödmann ja sogar.

    Und? Wie laufen die eigenen Projekte so?

  4. novamente ist im endeffekt eine weiterführung der idee hinter webmind. ich würde ihnen auch nahelegen die publikationen von herrn goertzel zu lesen. keine referenzen auf publikationen sondern zitate auf eigene schriftstücke. keine genaue beschreibung der architektur sondern geschwaffel über datenstrukturen und algorithmen die seit dekaden im einsatz sind. ( der von ihm beschriebene „hypergraph“ ist nichts anderes als ein herkömmlicher zyklischer graph, die probabilistischen inferenz methoden sind auch nicht auf seinem mist gewachsen sondern werden innerhalb der description logic auch schon seit jahrzehnten eingesetzt ). alles was bleibt ist esoterisches geschwaffel, unzählige „konzepte“ die auf das wesentliche nicht eingehen und keinen wissenschaftlichen gehalt haben.

    ich bin bei weitem kein oponent der singularität an sich, eher im gegenteil. kurzweil’s nette theorie der exponentiellen entwicklung der technologie dürfte einen großen wahrheitsgehalt aufweisen. methoden zur erreichung dieses „ziels“ werden sie aber nicht in den werken von herrn goertzel oder der arbeit des singularity institute finden. beschäftigen sie sich doch mit der arbeit von vapnik, bottou, smola, bengio oder lecun. unter http://yann.lecun.com/exdb/publis/pdf/bengio-lecun-07.pdf finden sie auch ein nettes paper der beiden herren bengio und lecun in dem sie darlegen wie derzeitige machine learning algorithmen so eingesetz werden können um sich agi anzunähern. auch empfehle ich ihnen die buch large scale kernel machines, learning with kernels und an introduction to machine learning ( letzteres ist vor allem als einstieg besonders gut geeignet ) um sich grundlagenwissen auf technologischer ebene aneignen zu können.

    den eigenen projekten gehts soweit gut, danke der nachfrage 🙂 ich armer tropf beschäftige mich aber zur zeit weniger mit der herstellung „echter“ künstlicher intelligenz sondern vielmehr mit der optimierung und anwendung von narrow ai algorithmen auf große datensätze. ich zähle natürlich nicht zu den topleuten des feldes, gegeben meines jungen alters kann sich dies aber vll. ja auch noch ändern. ein wenig ahnung hab ich von der materie jedoch.

    meine intention ist weniger ihren glauben an die singularität anzugreifen als sie vielmehr zu sensibilisieren. bitte laufen sie nicht verschiedenen scharlatanen wie goetzler hinterher sondern orientieren sie sich lieber an den wirklichen leitgestalten des feldes, die gleich wie goetzler an agi arbeiten, dies jedoch mit wissenschaftlichen methoden tun und auch greifbare ergebnisse liefern.

    und ja als guter österreicher fühle ich mich verpflichtet permanent zu granteln 🙂

    nichts für ungut.

  5. Danke, das sind doch interessante Hinweise. Geb ich gleich weiter in die angeschlossenen Fachkanäle.

    Nur um das mal klarzustellen: Hier läuft niemand niemandem hinterher. Wie ich hier in meinem Gehäuse nicht müde werde zu betonen, gibt es nicht DIE AI, höchstens weltweit verstreute dutzende, wenn nicht gar hunderte Projekte mit verschiedensten Ansätzen, Modellen, Wahnsystemen. Was davon funtkioniert ist mir, als im wahrsten Sinne des Wortes Amateur und (hin und wieder ebenfalls grantelndem) Chronisten nicht gegeben zu beurteilen. Den Goertzel beobachte ich nur seit Mitte der 90iger. Wird Zeit das er was liefert, so wie Voss, Google, IBM und was weiss ich nicht wer alles. Sonst drohe ich damit mein Popcorn wieder einzupacken und zu genereller Kapitalismuskritik überzugehen. 😉

    Als bekennender Duisburger erkenne ich Grantler auf 100 Schritt. 😉

  6. Es gibt genug freie Rechenkapazität um eine im Netz exestiernde Künstliche Inteligenz zu schaffen. Es gibt auch schon die nötigen Techniken dafür. Diese müssten nur noch zusammen gebracht werden. So kann heute schon eine Maschine über Webcam den Gemüdszustand eines Users aus dem Gesicht ablesen. Unmengen an Wissen könnte alleine durch Spracherkennung und Webcams gesammelt werden. Dieses müsste in form eines offnen Projektes in de jeder sein Wissen emotionen mit der Maschinne teil einbringen. Eine offene modular erweiterbare Maschine sollte orgendwann durch das ablesen von menschlochen verhalten selbst inteligenz entwickeln. Ganz nach dem Motto lernen aus Fehlern

Kommentare sind geschlossen.