Bevor Sie einen unserer Beiträge lesen, möchten wir Sie bitten, an der Initialen Befragung teilzunehmen. Hier werden Sie nach Ihrer allgemeinen Einstellungen zu KI und Technik gefragt, welche möglicherweise durch das Lesen eines Beitrags schon beeinflusst werden könnten.
Wenn Sie an dieser Umfrage bereits teilgenommen haben, können Sie die Info ignorieren.
Wie Menschen machen auch KI-Systeme Fehler oder „handeln“ nicht immer fair. In manchen Fällen liegen diesen Fehlern sogar ähnliche Ursachen zugrunde.
2016 hat Amazon ein Rekrutierungstool auf der Basis von KI entwickelt, das Bewerbende automatisch filtern sollte. Nach einem Testlauf wurde festgestellt, dass das Tool nur noch Männer eingestellt hat. Doch auch neuere KI-Systeme machen Fehler: ChatGPT erfindet (halluziniert) manchmal Zitate oder Fakten und Gemini generierte zeitweise historisch inakkurate Bilder (siehe Bild).
Generierte Bilder von Googles Gemini auf die Anfrage 'Senatoren der USA des 18ten Jahrhunderts' (übersetzt aus dem Englischen, Original von Adi Robertson / The Verge 2024).
Wie Menschen machen also auch KI-Systeme Fehler oder „handeln“ nicht immer fair. In manchen Fällen liegen diesen Fehlern sogar ähnliche Ursachen zugrunde. In diesem Beitrag erfahren Sie mehr über die Ursachen der Fehler und wie Sie die Fehler entdecken und analysieren können.
KI-Modelle werden grundsätzlich nach dem Training, das in den letzten Beiträgen beschrieben wurde, noch auf anderen Daten getestet. Somit wird überprüft, dass das gelernte Modell nicht nur die Trainingsdaten auswendig lernt, sondern auch auf andere Daten generalisiert und es wird analysiert welche Fehler es macht. In den meisten Fällen wird am Ende eine Genauigkeit der Ergebnisse zwischen 95 % und 99 % erreicht, was für viele Anwendungen ausreichend ist. Wenn Sie sich aber vorstellen, dass ein Auto in einem von 100 Fällen eine Ampel oder Personen auf einem Zebrastreifen nicht korrekt erkennt, ist eine solche Fehlerrate viel zu groß und kann zu schweren Konsequenzen führen. Für solche Fälle muss demnach eine sehr viel höhere Genauigkeit erreicht werden. Aber woher kommen überhaupt diese Fehler?
Viele menschliche Fehler werden auf Biases zurückgeführt. Das sind systematische Fehler, die zu Verzerrungen beim Wahrnehmen, Erinnern, Denken und Urteilen führen. Dass Amazon bei der Einstellung von Mitarbeitenden bei gleicher Qualifikation Männer bevorzugte, wird beispielsweise Gender-Bias genannt. Bei KI-Systemen können Fehler durch unerwünschte Biases in den Daten entstehen.
Biases in den Daten
Amazon trainierte sein Rekrutierungstool mit historischen Bewerbungsdaten, die bereits voreingenommen waren und männliche Bewerber systematisch bevorzugten. Dieser sog. Da das Tool auf diesen Daten trainiert wurde, wurde der Gender-Bias vom Modell übernommen und sogar verstärkt.
Bei kleineren Datenmengen können Biases durch Gewichtung der Daten ausgeglichen werden. Bei Texten sind solche Biases aber nur mit sehr viel manuellem Aufwand festzustellen, daher ist dieser Ansatz bei großen Sprachmodellen wie ChatGPT nicht möglich. Wenn das Modell dagegen im Nachhinein gezwungen wird, verschiedene Merkmale von Menschen wie Hautfarbe oder Geschlecht gleich häufig zu erstellen, entstehen Probleme wie mit den historisch inakkuraten Bildern bei Gemini.
Biases im Lernalgorithmus
Neben Verzerrungen, die zu unfairen oder fehlerhaften Ausgaben führen, gibt es aber auch notwendige Verzerrungen. Der sogenannte Induktive Bias ist Voraussetzung dafür, dass Menschen und Computer überhaupt lernen können. Das sind Annahmen mit denen entschieden wird, welche Informationen in Daten wichtig oder unwichtig sind. So lernen Kinder zum Beispiel, wie die Vergangenheitsform eines Verbs gebildet wird: tanzen → getanzt, machen → gemacht. Bei Verben, die sie noch nicht kennen, wenden sie die gelernte Regel an: gehen → gegangt. Durch Korrektur von Erwachsenen lernen sie, dass es auch unregelmäßige Verben gibt.
Die Anwendung von gelernten Regularitäten auf neue Eingaben kann also zu Übergeneralisierung führen – das Gelernte wird auch auf Eingaben angewendet, die anders behandelt werden müssten. Wenn Sprachmodelle wie ChatGPT halluzinieren, beispielsweise nichtexistierende Zitate erfinden, ist dies auch eine Form von Übergeneralisierung.
Fehler die bei Mensch und Maschine verschieden sind
Wenn KI-Modelle eine Ausgabe berechnen, geben sie immer noch eine Einschätzung über ihre Genauigkeit mit. Diese Einschätzung ist aber – anders als bei Menschen, die dafür Erfahrungen nutzen oder explizite Analysen durchführen würden – nicht nachvollziehbar und hat mit der tatsächlichen Genauigkeit des Modells nichts zu tun. So kann es passieren, dass ein Modell mit einer 85-prozentigen Sicherheit einen Ball erkennt, es aber eigentlich ein Stoppschild ist.
Beispiel einer Bilderkennung. Links wird ein Auto korrekt erkannt, ein Stopschild in der Mitte auch. Rechts wurde das Stoppschild mit Bildbearbeitung modifiziert, sodass es von dem Modell als Ball erkannt wird, Menschen erkennen aber weiterhin das Stoppschild. (Chen S.T. u.A. Al 2019)
Im Gegenzug können KI-Modelle aber keine Flüchtigkeitsfehler machen, die bei Menschen sehr häufig passieren. Da KI-Modelle nicht ermüden können, werden sie mit gleichbleibender Genauigkeit Probleme lösen.
Was bedeutet es, dass KI Fehler macht?
Um korrekt mit KI-Systemen umzugehen ist zu berücksichtigen, dass und auch welche Fehler sie machen. Alle Ergebnisse – insbesondere in Anwendungsfällen wie der Informationssuche oder in der Medizinischen Diagnose – sollten kritisch geprüft, und nicht direkt als objektive Wahrheit hingenommen werden. Diese Beurteilung ist in vielen Fällen aber auch nur mit genügend Fachexpertise möglich.
Es ist wichtig sich bewusst zu sein, dass KI-Systeme nie neutral sind, auch wenn sie oft so wirken. Sie sind immer nur so neutral wie die Daten und Algorithmen, mit denen sie trainiert wurden. Inwiefern kann oder sollte man dann also KI vertrauen? Um diese Frage wird es im nächsten Artikel gehen.
Umfrage zum Beitrag „Warum macht KI Fehler?"
Nachdem Sie den Beitrag „Warum macht KI Fehler?” gelesen haben, würden wir Sie gerne dazu einladen, an einer kurzen Umfrage mit einem kleinen Quiz teilzunehmen.
Damit können Sie unsere Forschung unterstützen und uns Feedback zum Beitrag geben.
Der Beitrag wurde im Kontext des Verbundprojekts klaro!KI der Universität Würzburg und Universität Bamberg vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz gefördert.
Lernen ist notwendig, damit wir Menschen uns in dieser komplexen Welt zurechtzufinden. Wie ist es möglich, dass Computer etwas ähnliches schaffen können?
Menschliches Denken ist unfassbar flexibel, wir können jederzeit neue Kompetenzen erlernen und uns an neue Gegebenheiten anpassen. Aber wie ist das bei KI?