Fragen? Antworten! Siehe auch: Alternativlos
Israel's military chief says 'misidentification' in complex conditions caused Gaza airstrikes that killed aid workersJetzt denkt ihr euch vielleicht, hey, misidentification kann mal passieren. Der Typ lernt bestimmt aus seinen Fehlern und das kommt nie wieder vor. Leider handelt es sich nicht um einen Typen, sondern um The Gospel, eine "KI". Die endlich dafür gesorgt hat, dass es immer was zu bombardieren gibt im Gazastreifen.
Seit dem hat sich übrigens noch ein bisschen was getan in Sachen Israel und Krieg und KI.
A new investigation by +972 Magazine and Local Call reveals that the Israeli army has developed an artificial intelligence-based program known as “Lavender,” unveiled here for the first time. According to six Israeli intelligence officers, who have all served in the army during the current war on the Gaza Strip and had first-hand involvement with the use of AI to generate targets for assassination, Lavender has played a central role in the unprecedented bombing of Palestinians, especially during the early stages of the war. In fact, according to the sources, its influence on the military’s operations was such that they essentially treated the outputs of the AI machine “as if it were a human decision.”
Ach. Ach was. Na sowas.Hey, das wäre doch mal ein schönes Szenario gewesen, vor dem man hätte warnen können! Ich hab dafür immer Spamfilter als Vergleich genommen. Keine Sau würde mehr in ihre Spamfolder gucken, wenn man da nicht potentiell juristische Probleme riskieren würde, weil man irgendeine Frist nicht beachtet hat. So zu tun, als würde man das schon alles immer ordentlich von einem Mensch nachprüfen lassen, ist eine Illusion aus einem unglaubwürdigen Scifi-Universum.