Startseite_Respektland
Diskriminierungsrisiken durch Verwendung von Algorithmen
- Steckbrief zum Forschungsprojekt -
Ursachen von Diskriminierungsrisiken bei der Verwendung von Algorithmen
Bei der Entwicklung von Algorithmen und Modellen
- Risiken entstehen bei der Kennzeichnung von Kategorien für die Zuordnung von Personen gerade dann, wenn diese auf subjektive Annahmen und Auslegungen beruhen. (z.B. Merkmal: “Passfähigkeit zu einem Unternehmen“)
Durch verzerrte (Trainings-) Datensätze
- Wenn Datensätze unvollständig oder nicht mehr aktuell sind oder aus Situationen entstammen, in welchen Ungleichverteilung und Ungleichbehandlung von Personen bestand oder besteht, kann das dazu führen, dass bestimmte Gruppen über- oder unterrepräsentiert werden.
- Aufgrund der Substitution von geschützten Merkmalen mit vermeintlich „neutralen“ Variablen, können Risiken der mittelbaren Diskriminie¬rung dann entstehen, wenn zwischen den Variablen und den geschützten Merkmalen eine Korrelation besteht. (z.B. Korrelation zwischen Wohnort und Ethnie).
- In Verfahren des Data-Mining und des maschinellen Lernens werden im Vergleich zu „klassischen“ statistischen Verfahren mehr Variablen verwendet, was das Risiko von (unbemerkten) Korrelationen wachsen lässt.
Durch Onlineplattformen
- Dort können Nutzer*innen sich mithilfe von Algorithmen gegenseitig bewerten und selektieren, wodurch der Zugang zu gewissen Interaktionen und Transaktionen für bestimmte Nutzer*innen beschränkt werden kann.
- Wenn Algorithmen auf Bewertungen und Einstufungen von anderem Akteur*innen basieren, können sich gesellschaftliche Ungleichheiten reproduzieren.
- Ursache können Bepreisungs- und Marktmechanismen (z. B. Auktionsmechanismen) sein, die für die Werbungschaltung und Kundenselektion eingesetzt werden.
Durch die Verwendung von Computersystemen kann absichtliche Diskriminierung verschleiert werden.
Gesellschaftliche Risiken von algorithmenbasierten Differenzierungen
- Bei statistischer Diskriminierung findet keine Kategorisierung der tatsächlichen Eigenschaften eines Individuums statt, sondern diese werden durch die Auswertung von Daten über Gruppen gebildet. Damit entscheidet Stereotypisierung über die Ergebnisse der Entscheidungsprozesse. Generalisierungsunrecht kann gerade bei „untypischen“ Fällen auftreten.
- Durch algorithmische Zuschreibungen und Kategorisierung haben Betroffenen nicht die Möglichkeit, der Behandlung, der sie unterzogen werden, zuzustimmen oder sie abzulehnen Dies gefährdet auch die freie Entfaltung der Persönlichkeit, das Recht auf Selbstdarstellung und den Schutz der Menschenwürde.
- Risiken einer wirtschaftlich-rationalen Differenzierung können sich zu kumulativen Benachteiligungen aufsummieren, da sich algorithmische Auswertungen und darauf basierende Handlungen auf bereits benachteiligte Personen oder Personengruppen konzentrieren können und diese dann wiederum vermehrt in der Datenerfassung erscheinen.
- Wenn gesellschaftliche Abwägungen über, durch Algorithmen ermöglichte und wirtschaftlich sinnvoll erscheinende Differenzierung, einseitig zu Gunsten von Effizienzbestrebungen und zu Lasten von Gleichheitsbestrebungen laufen, können gleichheitsorientierte- und sozialpolitische Ziele abgeschwächt werden.