Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 9 Stimmen.
Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition
Wie Big Data und maschinelles Lernen Diskriminierung kodieren und aufgewühlte Cluster von beruhigender Wut schaffen.
In Discriminating Data zeigt Wendy Hui Kyong Chun, wie Polarisierung ein Ziel - und kein Fehler - von Big Data und maschinellem Lernen ist. Diese Methoden, so argumentiert sie, kodieren Segregation, Eugenik und Identitätspolitik durch ihre Standardannahmen und -bedingungen. Die Korrelation, die das Vorhersagepotenzial von Big Data begründet, stammt aus den eugenischen Versuchen des zwanzigsten Jahrhunderts, eine bessere Zukunft zu "züchten". Empfehlungssysteme fördern durch Homophilie wütende Cluster der Gleichartigkeit. Die Nutzer werden durch eine Politik und Technologie der Wiedererkennung darauf "trainiert", authentisch und vorhersehbar zu werden. Maschinelles Lernen und Datenanalyse versuchen also, die Zukunft zu stören, indem sie die Störung unmöglich machen.
Chun, der sowohl Systemdesign als auch Medienwissenschaft und Kulturtheorie studiert hat, erklärt, dass Algorithmen für maschinelles Lernen zwar nicht offiziell die Kategorie "Rasse" umfassen, aber das Weißsein als Standard einbetten. Die Gesichtserkennungstechnologie stützt sich beispielsweise auf die Gesichter von Hollywood-Prominenten und Universitätsstudenten - Gruppen, die nicht gerade für ihre Vielfalt bekannt sind. Homophilie wurde als Konzept entwickelt, um die Einstellung weißer US-Bürger zum Leben in gemischtrassigen, aber segregierten Sozialwohnungen zu beschreiben. Die Technologie der vorausschauenden Polizeiarbeit setzt Modelle ein, die auf der Grundlage von Studien über überwiegend unterversorgte Stadtteile trainiert wurden. Diese Algorithmen, die auf ausgewählten und oft diskriminierenden oder schmutzigen Daten trainiert wurden, werden nur validiert, wenn sie diese Daten widerspiegeln.
Wie können wir uns aus dem schraubstockartigen Griff diskriminierender Daten befreien? Chun plädiert für alternative Algorithmen, Vorgaben und interdisziplinäre Koalitionen, um Netzwerke zu desegregieren und ein demokratischeres Big Data zu fördern.