Fragen? Antworten! Siehe auch: Alternativlos
Hier ist ein Artikel von Mitte letzten Jahres über KI in der Covid-Diagnose. Das Apologetentum am Anfang könnt ihr überspringen. Geht lieber direkt zu "What went wrong". Das ist ein Who is Who der Anfängerfehler.
Ein Fail war, dass sie gemischte Datensätze hatten. Ein Team hat als Kontrollgruppe ein paar Oberkörper-Scans (ich nehme an Röntgen? Oder CT vielleicht?) von Kindern gehabt, damit die KI beim Training auch mal Fälle von gesunden Patienten sieht. Die KI hat dann natürlich das naheliegende getan und gelernt, Kinder von Erwachsenen zu unterscheiden, nicht krank von gesund.
Ein anderer Fall hatte liegende und stehende Patienten in ihren Trainingsdaten, und ihr könnt euch schon überlegen, wie es weitergeht. Die liegenden waren eher krank, also hat die KI gelernt, die Körperhaltung zu erkennen.
Ein anderer Fall ist schon fast lustig, so absurd ist er: Die KI hat die Schriftart der Annotationen des Krankenhauses gelernt.
Wisst ihr, woran man erkennt, was die KI gelernt hat?
Man erkennt das, wenn jemand die Hypothese äußert, und man die dann gezielt überprüft. Wenn man das nicht tut, weil man ein Hurra-Technophiler oder ein KI-Startup ist, das seine Investoren anlügt, weil seine Existenz davon abhängt, dann prüft das halt niemand. Hier können Patienten zu Schaden gekommen sein.
Aber warte, Fefe, wenn man das Problem vermutet, testet und erkennt, kann man da nicht was machen? Klar kann man was machen! Aber:
But many tools were developed either by AI researchers who lacked the medical expertise to spot flaws in the data or by medical researchers who lacked the mathematical skills to compensate for those flaws.
Ja das ist dann natürlich nicht gut, wenn KI in der Praxis von KI-Goldgräbern und Glücksrittern betrieben wird, von so "5 Blockchains"-Leuten.