Hausarbeiten logo
Shop
Shop
Tutorials
De En
Shop
Tutorials
  • How to find your topic
  • How to research effectively
  • How to structure an academic paper
  • How to cite correctly
  • How to format in Word
Trends
FAQ
Zur Shop-Startseite › Medien / Kommunikation - Multimedia, Internet, neue Technologien

Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen

Titel: Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen

Hausarbeit , 2021 , 25 Seiten , Note: 1,0

Autor:in: Hannah Jacobs (Autor:in)

Medien / Kommunikation - Multimedia, Internet, neue Technologien

Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Dass Diskriminierung durch algorithmische Entscheidungssysteme und vor allem die Gesichtserkennungstechnologie produziert und reproduziert werden kann, zeigen verschiedene Beispiele aus dem Alltag. Wie Diskriminierungen entstehen, welchen Einfluss die Entwickler*innen und Nutzer*innen der Technologie haben und wie eine faire und gleichberechtigte Nutzung gewährleistet werden kann, soll im Folgenden geklärt werden.

Dafür werden zuerst die technischen Grundlagen der Gesichtserkennungstechnologie dargestellt, die bei der Produktion von Ungleichbehandlungen eine wesentliche Rolle spielen. Im Fokus steht dabei das maschinelle Lernverfahren, vor allem das Deep Learning, welches den autonomen Lernprozess der Systeme bezeichnet und sich so dem menschlichen Einfluss und der Kontrolle immer mehr entzieht. Außerdem wird der Prozess der Gesichtserkennung näher untersucht und mit der menschlichen Fähigkeit, Gesichter zu erkennen und zu verarbeiten, verglichen

Ob zum Entsperren des eigenen Smartphones, zur automatischen Sortierung von Fotos oder bei der Passkontrolle am Flughafen: Gesichtserkennungstechnologie nimmt einen immer größer werdenden Anteil unseres Lebens ein. Hinter der Technologie stecken algorithmische Systeme, die unter der Bezeichnung „künstliche Intelligenz“ zusammengefasst werden und seit Jahren sowohl die Technikindustrie als auch die Geisteswissenschaften beschäftigen. In der Vergangenheit hat sich jedoch bereits mehrfach gezeigt, dass die als neutral angesehene Technologie durchaus in der Lage ist, menschliche Einstellungen und Vorurteile zu übernehmen und auf seine Nutzer*innen anzuwenden. Ein Fall, der sich 2015 ereignete, sorgte besonders für Aufsehen und zeigte, dass diskriminierenden Praktiken durch Algorithmen reproduziert werden können. In der Kritik stand die Google Fotos Anwendung, die Bilder automatisch anhand von Gesichtserkennungsalgorithmen klassifiziert. In diesem Fall ordnete das System jedoch das Foto eines dunkelhäutigen Paares nicht den Menschen zu, sondern klassifizierte sie mit der Bezeichnung „Gorilla".

Leseprobe


Inhaltsverzeichnis

1 Einleitung

2 Technische Grundlagen

2.1 Maschinelle Lernverfahren

2.2 Gesichtserkennung: Mensch vs. Technik

3 Probleme der KI Nutzung

3.1 Vertrauen statt Wissen

3.2 Bias: Auslöser von Diskriminierung

4 Praxisbeispiele

4.1 Bias: Wissenschaftlich belegt

4.2 USA: Nutzung von KI in der Strafverfolgung

4.3 China: Überwachungsstaat durch Gesichtserkennungstechnologie?

5 Medienphilosophische Ansätze

5.1 Das Phänomen „Black Box“

5.2 Bewusstsein, Erkenntnis, Kreativität – durch KI abbildbar?

6 Fazit und Ausblick

Zielsetzung & Themen

Die Arbeit untersucht, wie Gesichtserkennungstechnologien als Träger und Vermittler von Diskriminierungen fungieren können. Dabei wird analysiert, wie durch algorithmische Entscheidungssysteme bestehende gesellschaftliche Ungleichheiten reproduziert oder gar verstärkt werden und welche medienphilosophischen Konsequenzen dies für das Verhältnis von Mensch und Technik hat.

  • Technische Funktionsweise maschineller Lernverfahren und Gesichtserkennung.
  • Entstehung und Auswirkungen von „Bias“ in algorithmischen Systemen.
  • Analyse praktischer Anwendungsfälle in der US-amerikanischen Strafverfolgung und der chinesischen Gesellschaftsüberwachung.
  • Medienphilosophische Reflexion über die „Black Box“ und die menschliche Erkenntnisfähigkeit im Kontext von KI.

Auszug aus dem Buch

3.2 Bias: Auslöser von Diskriminierung

Unter dem Begriff Diskriminierung wird die „Verwendung von kategorialen, das heißt vermeintlich eindeutigen und trennscharfen Unterscheidungen zur Herstellung, Begründung und Rechtfertigung von Ungleichbehandlung mit der Folge gesellschaftlicher Benachteiligungen“ (Scherr, 2016) verstanden. Damit Diskriminierung durch KI-Systeme verhindert werden kann, es ist wichtig, die verschiedenen Möglichkeiten zu kennen, durch die sie ausgelöst werden kann. In den häufigsten Fällen werden Diskriminierungen gegen bestimmte Personengruppen im Prozess des maschinellen Lernens in das System eingeschrieben. Denn werden Trainingsdaten gewählt, die etwa bestimmte Personengruppen besonders häufig, selten oder gar nicht zeigen, kann es zu Leistungsunterschieden in der Erkennung von Mitgliedern jener Gruppen kommen. Diese Verzerrungen im Datenmaterial werden in der Wissenschaft als „Bias“ bezeichnet, in der Psychologie versteht man darunter „Einstellungen oder Stereotypen, welche die Wahrnehmung unserer Umwelt, Entscheidungen und Handlungen positiv oder negativ beeinflussen“; in der Statistik ist damit ein „Fehler im Rahmen der Datenerhebung und -verarbeitung“ gemeint (Beck et. al, 2019:8). Im Hinblick auf KI-Systeme können solche Verzerrungen in den vom Menschen zum Training bereitgestellten Datensätzen erhebliche Folgen haben, denn sie beeinflussen den gesamten Lernprozess der Maschine und können so zu grundsätzlich fehlerhaften Entscheidungsstrukturen führen (Vgl. Waltl, 2019:18).

Zusammenfassung der Kapitel

1 Einleitung: Die Einleitung führt in das Thema Gesichtserkennungstechnologie ein, thematisiert das Problem algorithmisch bedingter Diskriminierung und erläutert die Relevanz von Wissen und Vertrauen im Umgang mit dieser Technik.

2 Technische Grundlagen: Dieses Kapitel erklärt die Funktionsweise von KI, insbesondere maschinelle Lernverfahren und Deep Learning, sowie die biologischen und technischen Prozesse der Gesichtserkennung.

3 Probleme der KI Nutzung: Es wird analysiert, wie Vertrauensvorschüsse in Technik und das Phänomen „Bias“ als Ursache für diskriminierende Entscheidungen durch KI fungieren.

4 Praxisbeispiele: Dieses Kapitel belegt Bias durch wissenschaftliche Studien und untersucht die problematische Anwendung von Gesichtserkennung bei der Strafverfolgung in den USA sowie im Rahmen der staatlichen Überwachung in China.

5 Medienphilosophische Ansätze: Hier wird das Konzept der „Black Box“ theoretisch beleuchtet und die Frage diskutiert, ob menschliche kognitive Fähigkeiten wie Bewusstsein und Kreativität durch KI abbildbar sind.

6 Fazit und Ausblick: Das Fazit fasst zusammen, dass Gesichtserkennung Diskriminierung verstärken kann, und plädiert für regulatorische Maßnahmen, Inklusivität bei Trainingsdaten und eine höhere „Code Literacy“.

Schlüsselwörter

Gesichtserkennung, Künstliche Intelligenz, Algorithmen, Diskriminierung, Bias, Maschinelles Lernen, Deep Learning, Black Box, Überwachung, Strafverfolgung, Sozialkredit-System, Code Literacy, Medienphilosophie, Datensätze, Ungleichbehandlung.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit beschäftigt sich mit den gesellschaftlichen und technologischen Implikationen von Gesichtserkennungstechnologien, insbesondere im Hinblick auf deren Potenzial, diskriminierende Praktiken zu reproduzieren oder zu verstärken.

Welche zentralen Themenfelder werden behandelt?

Die Themenfelder umfassen die technischen Grundlagen des maschinellen Lernens, die Entstehung von algorithmischem Bias, konkrete Anwendungsbeispiele aus Politik und Strafverfolgung sowie medienphilosophische Reflexionen über das Mensch-Maschine-Verhältnis.

Was ist das primäre Ziel der Arbeit?

Ziel ist es aufzuzeigen, wie Diskriminierungen entstehen, welchen Einfluss Entwickler und Nutzer auf diese Technologien haben und wie eine faire und gleichberechtigte Nutzung in Zukunft gewährleistet werden kann.

Welche wissenschaftliche Methode wird verwendet?

Die Arbeit basiert auf einer theoretischen Auseinandersetzung mit medienphilosophischen Konzepten, der Analyse von wissenschaftlichen Studien zum Thema Bias und einer fallbasierten Untersuchung bestehender Anwendungen.

Was wird im Hauptteil der Arbeit behandelt?

Der Hauptteil gliedert sich in technische Grundlagen, die Erläuterung von Bias-Formen, die Darstellung von Praxisbeispielen (u.a. „Gender Shades Project“, Predictive Policing in den USA, Sozialkredit-System in China) und eine medienphilosophische Einordnung.

Welche Schlüsselwörter charakterisieren die Arbeit?

Zu den zentralen Begriffen zählen Gesichtserkennung, Künstliche Intelligenz, Bias, Diskriminierung, Black Box, Deep Learning und Code Literacy.

Was bedeutet das „Black Box“-Phänomen im Kontext dieser Arbeit?

Es beschreibt die Undurchsichtigkeit komplexer KI-Entscheidungsprozesse, bei denen für den Menschen nur Inputs und Outputs nachvollziehbar sind, die interne Entscheidungsfindung jedoch verschleiert bleibt.

Welchen Einfluss hat die Auswahl der Trainingsdaten auf die Leistung der Systeme?

Die Auswahl ist entscheidend, da ein Ungleichgewicht in den Daten – etwa durch eine Unterrepräsentation bestimmter Ethnien oder Geschlechter – zu hohen Fehlerraten und somit zu diskriminierenden Ergebnissen bei der Gesichtserkennung führen kann.

Ende der Leseprobe aus 25 Seiten  - nach oben

Details

Titel
Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen
Hochschule
Leuphana Universität Lüneburg
Note
1,0
Autor
Hannah Jacobs (Autor:in)
Erscheinungsjahr
2021
Seiten
25
Katalognummer
V1025580
ISBN (eBook)
9783346426390
ISBN (Buch)
9783346426406
Sprache
Deutsch
Schlagworte
medienphilosophie künstliche intelligenz ki gesichsterkennung diskriminierung
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Hannah Jacobs (Autor:in), 2021, Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen, München, GRIN Verlag, https://www.hausarbeiten.de/document/1025580
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  25  Seiten
Hausarbeiten logo
  • Facebook
  • Instagram
  • TikTok
  • Shop
  • Tutorials
  • FAQ
  • Zahlung & Versand
  • Über uns
  • Contact
  • Datenschutz
  • AGB
  • Impressum