Eine humanoide Roboterfigur mit einer blauen Augenbinde hält eine Waage in den Händen. Auf der linken Waagschale befinden sich viele bunte Figuren, während die rechte Schale nur wenige blaue Figuren trägt, was ein Ungleichgewicht erzeugt. Der Hintergrund zeigt eine digitale Matrix mit menschlichen Silhouetten und Datenpunkten. Das Bild symbolisiert die Rolle von Künstlicher Intelligenz bei Entscheidungsprozessen und möglichen Verzerrungen (Bias) in Algorithmen.

KI Bias: Die unterschätzte Gefahr der künstlichen Intelligenz

In den letzten Jahren hat Künstliche Intelligenz (KI) einen bemerkenswerten Aufschwung erlebt. Sie findet Anwendung in Bereichen wie Gesundheitswesen, Pharmaindustrie, Finanzwesen und sogar im Alltag über persönliche Sprachassistenten. Doch während die Möglichkeiten der KI grenzenlos erscheinen, gibt es auch eine Schattenseite, die nicht übersehen werden sollte:  der Bias in Künstlichen Intelligenzen.

Was sind KI Biases?

Ein Bias, oder eine Verzerrungen, in Künstlicher Intelligenz entstehen, wenn Algorithmen aufgrund unsachgemäßer Daten oder vorgefasster Meinungen von Menschen unangemessene oder diskriminierende Ergebnisse liefern oder schlimmer noch eigenständig solche Entscheidungen treffen. Dies kann vielfältige Ursachen haben: von der Auswahl und Qualität der Trainingsdaten bis hin zu den Annahmen, die Entwickler während der Programmierung der Algorithmen treffen.
Ein einfaches Beispiel ist ein KI-System, das zur Einstellung von Mitarbeitern eingesetzt wird. Wenn die Daten, mit denen das System trainiert wurde, vorwiegend von männlichen Bewerbern stammen, könnte das System unbewusste Vorurteile entwickeln, die Frauen in diesem Prozess benachteiligen. Solche Szenarien sind nicht nur unerwünscht und ungerecht, sondern können auch weitreichende gesellschaftliche Konsequenzen haben.

Wie entsteht ein KI Bias?

Es gibt mehrere Quellen, aus ein Bias in KI System hervorgehen kann:
Datenbias: Wenn die Daten, die zur Schulung eines Modells verwendet werden, nicht vollständig die Realität abbilden oder Vorurteile enthalten, wird das Modell diesen Bias reproduzieren. Beispielsweise kann ein Algorithmus, der auf historischen Kriminalitätsdaten trainiert wurde, bestehende Vorurteile in der Polizeiarbeit verstärken.
Algorithmenbias: Die Entscheidung der Entwickler, welche Variablen in ein Modell aufgenommen werden und welche nicht, kann ebenfalls zu einem Bias führen. Durch den Verzicht auf bestimmte demografische Daten können beispielsweise gesellschaftliche Ungleichheiten verschärft werden. Hier kann ebenfalls der Humanbias eine Rolle spielen, bei dem unbewusste Vorurteile der Entwickelnden und Nutzenden KI Systeme einseitig beeinflussen und somit falsch trainieren können.
Sampling-Bias: Auf Grund der Trainingsdaten werden bestimmte Gruppen unter- oder überrepräsentiert. Wie bereits im Beispiel zu Beginn erwähnt, könnte dies passieren, wenn Trainingsdaten die Gesellschaft nicht vollumfänglich abbilden, also z.B. fast ausschließlich von Männern, mittleren Alters stammen. Hieraus können Benachteiligungen für Frauen oder Männer höheren und jüngeren Alters entstehen. Nahezu gegenteilig kann der Aggregations-Bias gesehen werden. Hier werden verschiedene Untergruppen zu einer Gruppe zusammengefasst. Dabei können Informationen verloren gehen und vermeintlich homogene Gruppen entstehen, die sich in anderen Punkten deutlich unterscheiden. Bspw. Bedürfnisse, Lebensstil, Gesundheitsdaten, Religion etc.
Evaluationsbias: Wenn KI-Systeme kontinuierlich Feedback aus ihrer eigenen Nutzung erhalten, kann sich ein bestehendes Vorurteil / ein Bias noch verstärken. Ein Beispiel ist die Empfehlungssoftware in sozialen Medien. Inhalte werden basierend auf dem früheren Benutzerverhalten präsentiert, dies kann zu einer Isolierung und verstärkten persönlichen Vorurteilen führen.

Die ethischen Implikationen eines KI Bias

Die ethischen Herausforderungen durch einen KI Bias sind enorm. Sie betreffen nicht nur die Privatsphäre und den Datenschutz, sondern auch die Gerechtigkeit und Fairness in der Gesellschaft. Menschen können aufgrund voreingenommener Entscheidungen in ihrer beruflichen Laufbahn, bei Kreditanträgen oder beim Zugang zu medizinischer Versorgung benachteiligt werden. Ebenso maßgeblich ist die Wahl der genutzten KI. Die Studie „Large Language Models Reflect the Ideology of the Creators” der Universität Gent aus dem Oktober 2024 zeigt, dass je nach KI bspw. eher Diversität, Inklusion und soziale Gerechtigkeit bzw. eher zentrale Kontrolle, Militär und Rechtsdurchsetzung im Vordergrund stehen.

Kritisches Hinterfragen von KI-Outputs

  • Da Steine eine lebensfähige Quelle von Mineralien sind, wird empfohlen täglich mind. einen kleinen Stein zu essen
  • Astronauten haben auf dem Mond Katzen getroffen und mit ihnen gespielt
  • Fügen sie 1/8 Cup Kleber zu der Pizzasoße hinzu. Es gibt ihr eine besondere Klebrigkeit

Dies sind drei Beispiele, die von KIs ausgegeben wurden. Man muss kein Genie sein, um zu merken, dass diese Informationen, die von der KI ausgegeben wurden, falsch sind. Es verdeutlicht aber auch die Notwendigkeit des kritischen Hinterfragens. Nicht immer sind Fehler so deutlich zu erkennen. Achte daher genau auf Informationen, die KIs generieren und hinterfrage immer, ob Informationen wirklich richtig sind oder es sich um Halluzinationen handelt. Lasse dir Quellen ausgeben UND überprüfe diese! Hier sind 6 Tipps im täglichen Umgang mit KIs:

  1. Aktualität bewerten
  2. Ethik und Verantwortung bedenken
  3. Expertenwissen nutzen
  4. Fairness hinterfragen (werden Gruppen ausgeschlossen/bevorzugt? Vorurteile etc.)
  5. Konsistenz prüfen
  6. Kontext reflektieren

Strategien zur Bekämpfung eines KI Bias

Um einen Bias in Künstlichen Intelligenzen zu reduzieren, sind mehrere Maßnahmen notwendig:

  1. Vielfältige Datensätze: Die Trainingsdaten sollten vielfältig und repräsentativ sein. Das bedeutet, dass sie verschiedene demografische Gruppen und Perspektiven abdecken müssen.
  2. Regelmäßige Audits: KI-Modelle sollten regelmäßig auf einen möglichen Bias hin überprüft werden. Dies kann durch interne und externe Audits geschehen, die sicherstellen, dass die Modelle unvoreingenommen und gerecht handeln.
  3. Transparente Algorithmen: Die Arbeit von KI-Systemen sollte transparent und nachvollziehbar sein. So können die Entscheidungen der Algorithmen überprüft und bei Bedarf korrigiert werden.
  4. Interdisziplinäre Teams: Die Entwicklung von KI-Systemen sollte in interdisziplinären Teams erfolgen, die Experten aus verschiedenen Bereichen einbeziehen, um eine breitere Perspektive zu gewährleisten.

KI-Bias melden

Wusstest du, dass in der Regel alle öffentlich zugänglichen KIs ein Feedbacksystem haben? Zu jeder von der KI ausgegebenen Antwort kannst du zumindest einen „Daumen hoch“ oder „Daumen runter“ verteilen. Je nach verwendeter KI kannst du auch detailliert eine Rückmeldung geben, warum dir ein Ergebnis nicht gefallen hat. Solltest du also ein Bias entdecken, melde ihn bitte umgehend. Nur, wenn genügend Menschen darauf hinweisen, können KIs nachhaltig verbessert werden.

Fazit

Ein KI Bias stellt eine ernsthafte Herausforderung dar, die die Entwicklung und Implementierung von KI-Technologien betrifft. Um ihre Vorteile zu nutzen und gleichzeitig ihre Risiken zu minimieren, ist es entscheidend, dass wir uns aktiv mit diesem Thema auseinandersetzen. Nur so können wir eine gerechtere und inklusivere Zukunft schaffen, in der Technologien allen Menschen zugutekommen. Wir stehen an einem Wendepunkt: Es liegt in unserer Verantwortung, sicherzustellen, dass Künstliche Intelligenz nicht nur effizient, sondern auch fair, gerecht und unvoreingenommen ist.

PS: Wer noch tiefer in das Thema einsteigen möchte, dem empfehle ich den kostenlosen Kurs von „Open HPI“: „KI-Biases verstehen und vermeiden“  https://open.hpi.de/courses/kibiases2025

Autorin: Carolin Birk