Fragen? Antworten! Siehe auch: Alternativlos
Bei der KI-Forschung gibt es eine Disziplin, die sich mit ethischer KI befasst, aber die ist hauptsächlich Wokeness-Feigenblatt. Eine andere Unterdisziplin geht da düsterer heran und sagt: Nehmen wir mal an, eines Tages baut jemand eine echte künstliche Intelligenz. Nicht nur eine glorifizierte Datenbank mit Gewichten an ihren Records. Eine echte künstliche Intelligenz, die dann ihre Intelligenz darauf anwenden kann, sich selbst zu verbessern, und die uns dann uneinholbar überlegen ist.
Die Experten sind sich nach Lektüre der einschlägigen Scifi-Literatur einig, dass so ein KI Overlord uns alle umbringen wird, weil wir ohne Not den Planeten kaputtmachen und uns sinnlos mit Atomwaffen aufgerüstet haben.
Bei dem wie immer großartigen Scott Alexander gab es jetzt eine Zusammenfassung einer Debatte aus dem Gebiet. Ich fasse mal die Zusammenfassung zusammen.
Der erste vorgeschlagene Lösungsansatz ist: Na dann bauen wir halt keine echte KI. Das funktioniert offensichtlich nicht, denn wir können ja nicht mal die Entwicklung von Landminen und Biowaffen verhindern.
Der nächste Ansatz war: OK, dann bauen wir halt nur "limitierte" KIs. Ein Schachcomputer kann nur über Probleme überhaupt nachdenken, die wie ein Schachproblem aussehen. Schachcomputer haben aber gezeigt, dass die "KI" (keine echte KI!) bei ihnen eine Superintelligenz werden kann, also schlauer als Menschen sein kann, ohne dass unsere Spezies dadurch in Gefahr ist.
Wenn man sich also auf solche "KIs" beschränken würde, dann hätte man das Problem vielleicht gar nicht. Der Ansatz sieht erstmal ganz gut aus, aber so richtig überzeugend ist das halt nicht. Denn wenn du über Superintelligenzen spekulierst, bist du halt schnell bei "Gottes Wege sind unergründlich", denn du musst davon ausgehen, dass die Superintelligenz Dinge tut, die du nicht verstehst, die aber schlauer sind als was du getan hättest. Daraus folgt im Grunde auch, dass du eine Superintelligenz nicht von einer doofen Intelligenz unterscheiden kannst, denn was sie tut erscheint nicht schlau für dich, denn du verstehst es nicht. Du könntest abwarten und beobachten, aber zu dem Zeitpunkt, an dem du erkennst, dass das eine Superintelligenz war, die uns alle umbringen will, ist es dann halt zu spät.
Also war der nächste Lösungsansatz, dass man eine limitierte Superintelligenz-KI damit beauftragt, eine Lösung zu finden. Man könnte die Lösung auch schon vorgeben. Das diskutierte Szenario aus Anschaulichkeitsgründen war, dass die selbstreplizierende KI Nanoroboter bauen soll, die auf einen Schlag alle GPUs auf der Welt zerstören. Grund: Die KI-Berechnungen finden größtenteils auf GPUs statt. Es geht dabei nicht um die Frage, ob das schlau ist, alle GPUs kaputtzumachen, sondern das ist bloß ein Beispiel für eine "pivotal action", also eine Art Abschreckungs-Superwaffe.
OK, soweit zur Vorgeschichte.
Am Rande in dem Artikel ist dann folgende Formulierung:
since then, we've only doubled down on our decision to gate trillions of dollars in untraceable assets behind a security system of "bet you can't solve this really hard math problem".
Meine Interpretation von dem Satz war: Er redet von Kryptographie. RSA und Elliptische Kurven sind harte mathematische Probleme, auf die viel Geld geworfen wird, und die unsere Assets schützen.Aber jemand anderes interpretierte das als eine Anspielung auf Bitcoin.
Und das löst in meinem Kopf diese Idee aus, die mich aufgeregt herumhüpfen lässt, so schön finde ich sie als Scifi-Plot:
Jemand hat genau das gemacht. Hat eine KI damit beauftragt, eine Lösung zu finden, die Singularität hinauszuzögern bzw. zu verhindern. Möglichst ohne dabei die Weltwirtschaft zu vernichten.
Die KI heißt Satoshi und ihre Lösung war Bitcoin-Mining. Wenn man den Leuten wirtschaftliche Anreize gibt, ihre GPUs nicht für KI sondern für sinnloses Mining zu verbrennen, dann hat man die Singularität verzögert.
Bitcoin-Mining macht schon länger niemand mehr mit GPUs, aber es sind lauter andere Scam-Coins nachgezogen, die immer noch GPU-Zeit verbrennen.
Was, wenn Cryptocurrencies gar nicht bloß Scam sind, sondern das Überleben der Menschheit sichern? Klar machen sie auf dem Weg den Planet kaputt, aber da kann sich die Spezies raus-techen durch die Entwicklung eines Fusionskraftwerkes oder sowas!1!!
Das erklärt auch, wieso Satoshis Identität geheim bleiben musste. Und so konnte auch Rokos Basilisk abgewehrt werden! (Wenn ihr das nicht kennt, wartet mit dem Googeln mal bis zum Freitag abend, das wird euch ein paar Tage beschäftigen)
Update: Vergesst Roku's Basilisk. Guckt das lieber nicht nach. Ich hätte das nicht erwähnen sollen.