Fragen? Antworten! Siehe auch: Alternativlos
I have been writing about the threat of AI to free speech. Then recently I learned that ChatGPT falsely reported on a claim of sexual harassment that was never made against me on a trip that never occurred while I was on a faculty where I never taught. ChapGPT relied on a cited Post article that was never written and quotes a statement that was never made by the newspaper.
Ja gut, das sind diese ChatGPT-Leute. GPT-4 ist bestimmt viel besser!!1!When the Washington Post investigated the false story, it learned that another AI program “Microsoft’s Bing, which is powered by GPT-4, repeated the false claim about Turley.”
Turley ist der Autor von dem verlinkten Blogeintrag.Ich hab ja schon ein paar Mal erklärt, dass eines der Probleme bei "KI" ist, dass das trainiert und nicht konstruiert wird, und man das daher auch nicht debuggen kann, wie man regulären Code debuggen würde, und man kann auch nicht Bugs fixen, weil der Kram aus Gewichten in einem neuronalen Netz o.ä. kommt, statt aus Code.
Man hat dann genau drei Optionen: Neu trainieren, nachtrainieren, oder einen Filter davor tun, der genau das Problem erkennt und wegmacht. Alle drei Optionen sind Mist. Auch das neuronale Netz weiß nicht, welche Gewichte wofür zuständig sind. Nachtrainieren wird also eine Lavine aus anderen Änderungen bewirken, alle völlig unklar. Vielleicht wird es dadurch sogar schlimmer.
Neu trainineren wird vermutlich dasselbe Problem wieder haben, denn wir haben ja keinen Weg, das beim Training zu verhindern.
Und der Filter wird nicht funktionieren. Das versuchen Zensoren seit Jahrzehnten und dann reden die Chinesen halt von Winnie the Pooh. Die erfolgversprechenste Implementation eines Filters würde selber auf Machine Learning basieren, was das natürlich direkt ad absurdum führt.
Kurz gesagt: "KI" ist ein Schuss in den Ofen. Lasst euch mal nicht aufschwatzen, dass das a) neu oder b) besser oder c) die Zukunft ist. Die Zukunft, die das wäre, in der würdet ihr nicht leben wollen.