Fachbegriffe rund um die Künstliche Intelligenz

Beim Thema Künstliche Intelligenz tauchen eine Menge Fachbegriffe auf. Hier kannst du nachschlagen und dich informieren.

Was bedeutet „Bias“ bei Chatbots und Künstlicher Intelligenz?


Der Begriff „Bias“ (englisch für „Voreingenommenheit“ oder „Verzerrung“) beschreibt, dass ein System bestimmte Gruppen, Ansichten oder Daten bevorzugt oder benachteiligt. Dadurch können die Ergebnisse oder Antworten eines Chatbots verzerrt oder einseitig erscheinen, anstatt neutral zu sein.

Wie entsteht Bias bei KI-Systemen?

Bias entsteht meist schon beim Training der KI. Chatbots wie ChatGPT lernen aus riesigen Mengen von Texten, die Menschen geschrieben haben. Bisher zumindest. Es ist eine Herausforderung, KI-generierte Texte nicht erneut zum Training zu verwenden. In diesem Fall können sich die Tendenzen in den Texten weiter verstärken.

In diesen Texten spiegeln sich jedoch auch Vorurteile, Stereotype oder gesellschaftliche Schieflagen wider. Die KI übernimmt diese Muster – bewusst oder unbewusst – und gibt sie in ihren Antworten weiter.

Beispiele für Bias:

Warum kann das problematisch sein?

Bias kann dazu führen, dass KI-Systeme ungerechte, diskriminierende oder unpassende Antworten geben. Gerade in sensiblen Bereichen wie Bewerbungsgesprächen, Rechtsberatung oder Medizin kann das erhebliche Folgen haben.

Bias kann beispielsweise durch eine gezielte Überprüfung der Trainingsdaten, durch zusätzliche Korrekturen im System oder durch Feedback von Nutzern reduziert werden. Ganz ausschließen lässt sich Bias jedoch nie.

Wichtig zu wissen

Sei dir bewusst, dass auch KI voreingenommen sein kann.

« Zurück zum Inhaltsverzeichnis