Künstliche Intelligenz: Wenn der Algorithmus diskriminiert

KI-Systeme sind Werkzeuge für Effizienz, Präzision und Innovation. Aber sie können auch tiefsitzende gesellschaftliche Vorurteile und Ungleichheiten verstärken. Lorenzo Medici erklärt im Interview, was das genau bedeutet und worauf Unternehmen achten sollten.

Künstliche Intelligenz: Wenn der Algorithmus diskriminiert

Künstliche Intelligenz wird oft als neutral und unvoreingenommen betrachtet, da sie auf Algorithmen und Daten basiert. Doch diese vermeintliche Objektivität ist trügerisch: KI-Systeme lernen aus Daten, die von Menschen geschaffen und gesammelt wurden. Wenn diese Daten bereits diskriminierende Muster enthalten, kann die KI diese Muster verstärken und sogar unbewusste Vorurteile auslösen – ernstzunehmende Diskriminierung entsteht. Wir haben mit Lorenzo Medici, Head of Development bei der a&f systems ag, im Interview über die Herausforderungen für publizierende Unternehmen gesprochen.

Im Blogbeitrag geben wir Ihnen eine Zusammenfassung, zum ausführlichen und fachlich tiefergehenden Interview gelangen Sie über den Link am Ende des Beitrages.

Die Frage nach Rassismus und Diskriminierung in der KI-Welt

Zu Beginn steht die Frage im Raum, ob eine Künstliche Intelligenz wirklich rassistisch sein kann. Lorenzo Medici bevorzug dabei den Begriff «diskriminierend» gegenüber «rassistisch», da KI nicht nur auf Ethnien abzielen könne, sondern auch auf soziale Schichten, Geschlechter und mehr. Es sei entscheidend zu verstehen, dass KI-Systeme nicht von Natur aus diskriminierend seien, sondern dieses Verhalten entwickeln, wenn die zugrunde liegenden Daten entsprechende Muster aufweisen.

Einblicke in den strukturellen Aufbau von KI-Systemen

Um zu verstehen, wie Diskriminierung entstehen kann, gewährt uns Medici Einblicke in den strukturellen Aufbau von KI-Systemen. Diese bestünden aus einem Datenset und einem mathematischen Regelwerk. Bevor diese beiden Komponenten miteinander verschmelzen, müssen die Daten durch einen entscheidenden Schritt, die sogenannte «Merkmalskonstruktion», gehen. Hier werden die Daten so aufbereitet, dass sie vom mathematischen Modell verarbeitet werden können.

Daten als Quelle der Diskriminierung: Implizite kulturelle Werte

Lorenzo Medici erklärt, dass die verwendeten Daten immer existierende Daten seien und somit einen Blick in die Vergangenheit darstellen. Daten können diskriminierend sein, besonders wenn es sich um kategoriale Daten handele, die oft implizit kulturelle Werte widerspiegeln. Ein Beispiel hierfür sei die Unterscheidung von Geschlechtern, die heute vielfältiger ist als beispielsweise noch vor 50 Jahren.

Gefahren bei der Merkmalskonstruktion: Der Algorithmic Bias

Als Gefahren bei der Merkmalskonstruktion nennt Medici unter anderem den Algorithmic Bias. Denn wenn historische Daten bereits Verzerrungen enthalten, könne dies zu einer Diskriminierung führen. Ein Beispiel sei die Bewertung des Rückfallrisikos von Straftätern in den USA, die zu unfairen Ergebnissen führen könne. Denn schwarze Menschen und Latinos seien in den dortigen Gefängnissen im Verhältnis zur Bevölkerungsgesamtverteilung überrepräsentiert. Weisse Menschen hingegen seien unterrepräsentiert. Das sei ein Fakt, jedoch würden in dieser Betrachtungsweise die sozioökonomischen Umstände, Bildungsniveau, Zugang zu Bildung etc. nicht beachtet. Das Modell, das nun aufgrund dieser Daten generiert wird, erkenne, dass das Rückfallrisiko von ethnischen Merkmalen abhängig sei und weist so gewissen Ethnien eine höhere Haftstrafe zu.

KI in den Medien: Potenziale und Risiken

In Bezug auf den Medieneinsatz von Künstlicher Intelligenz sieht Medici verschiedene Chancen und Herausforderungen. KI erleichtere breitere Recherchen, ermögliche eine effiziente Natural Language Generation (NLG) und revolutioniere die Bildbearbeitung. Doch auch Gefahren wie falsche Informationen und KI-bedingte Fehlerquellen müssen berücksichtigt werden.

Vorbeugung gegen Gefahren: Recherche und Verifikation

Um den Gefahren zu begegnen, empfiehlt Lorenzo Medici eine entsprechende Recherche und Verifikation durch die Redakteure. Nur so könne sichergestellt werden, dass falsche Informationen vermieden und KI-generierte Ergebnisse korrekt interpretiert werden.

Sie interessieren sich für das Thema Diskriminierung und KI? Lesen Sie das vollständige und detaillierte Interview mit Lorenzo Medici:

af-systems_lorenzo-medici

Lorenzo Medici, lic. phil. I (Soziologie / Mathematik)

Lorenzo Medici ist seit 2018 als Head of Development bei der a&f systems ag tätig. Sein Hauptfokus liegt auf dem Management von kundenspezifischen Entwicklungen und dem Erstellen von Softwarearchitekturen. Zu seinen Fachgebieten gehören Softwareentwicklung, Projektmanagement sowie auch die Wechselwirkung zwischen technologischen und gesellschaftlichen Entwicklungen. Zudem ist er auch Geschäftsführer und Inhaber der Projektmanagement Medici AG und ist an der Hochschule Luzern Gastdozent und Prüfungsexperte.

Ihr Ansprechpartner

Künstliche Intelligenz: Wenn der Algorithmus diskriminiert

Stefan Schärer

Head of Sales & Marketing, Co-Owner, Member of the Executive Board

Artikel teilen

Möchten Sie mehr zum Thema Künstliche Intelligenz erfahren? Kontaktieren Sie uns gern.