Fragen? Antworten! Siehe auch: Alternativlos
But Whisper has a major flaw: It is prone to making up chunks of text or even entire sentences, according to interviews with more than a dozen software engineers, developers and academic researchers. Those experts said some of the invented text — known in the industry as hallucinations — can include racial commentary, violent rhetoric and even imagined medical treatments.
Whisper, wir erinnern uns, wurde von OpenAI gehackt, damit sie Youtube-Videos transkribieren konnten, weil sie keine Trainingsdaten mehr hatten für ihr "KI"-Training. Das ist natürlich super hilfreich, wenn die Trainingsdaten schon voller Halluzinationen sind!“Nobody wants a misdiagnosis,” said Nelson, a professor at the Institute for Advanced Study in Princeton, New Jersey. “There should be a higher bar.”
Ach. Ach was.Whisper also is used to create closed captioning for the Deaf and hard of hearing — a population at particular risk for faulty transcriptions.
Keine Sorge. Die hören den Unterschied nicht. *wieher*Naja komm, Fefe, wie schlimm kann das schon sein. Hallziniert das Teil halt ein bisschen. Nun... hier ist ein Beispiel aus der Praxis:
In an example they uncovered, a speaker said, “He, the boy, was going to, I’m not sure exactly, take the umbrella.”But the transcription software added: “He took a big piece of a cross, a teeny, small piece ... I’m sure he didn’t have a terror knife so he killed a number of people.”
Und das in einem Land mit der Todesstrafe. Mhhjam! (Danke, Maximilian)