Fragen? Antworten! Siehe auch: Alternativlos
we received the machine learning model used to score recipients, the source code used to build it and the data used to train it.
Rotterdam hat das System von 2017 bis 2021 im Einsatz gehabt. Jetzt ist es abgeklemmt, man will es "updaten".Normalerweise ist ja bei Machine Learning nicht viel zu machen, weil die Systeme so riesig und komplex sind und so viele Neuronen haben. Dieses System hat aber "nur" 315 Inputs. Damit kann man den Gewichten manuell hinterherlaufen und mal gucken.
Die Ergebnisse sehen so aus, wie ihr euch das jetzt wahrscheinlich vorgestellt habt.
The suspicion machine passes harsher judgement on: parents, young people, women, people with roommates, people who do not have enough money and people with substance abuse issues. Some of the variables that increase a person’s risk score are totally beyond their control: their age and gender for example. Others are fundamental to why people need social welfare in the first place: they face financial problems, they struggle with drug addiction, they cannot afford the rent to live independently. And most problematically, some seem to ethnically profile people based on the languages they speak or their ability to speak Dutch, which is widely considered a proxy for ethnicity.
Tja. Am Ende kommt raus, dass alleinerziehende junge Mütter unter den Sozialhilfeempfänger eines der höchsten Risikoprofile haben in dem System. Das mag ja sogar stimmen. Aber halt Risiko für Obdachlosigkeit oder ein Leben in Armut, nicht für Betrug!Update: Ein Leser aus Rotterdam ergänzt:
Das System wird in den meisten Niederlaendischen Staedten benutzt. Rotterdam ist die Stadt die a) den Einsatz von sich aus 2021 beendet hat und b) den Journalisten zugriff auf das Modell gegeben hat.
Die nutzung wurde gestoppt im zusammenhang mit der Toeslagenaffaire.