Bevor Sie einen unserer Beiträge lesen, möchten wir Sie bitten, an der Initialen Befragung teilzunehmen. Hier werden Sie nach Ihrer allgemeinen Einstellungen zu KI und Technik gefragt, welche möglicherweise durch das Lesen eines Beitrags schon beeinflusst werden könnten.
Wenn Sie an dieser Umfrage bereits teilgenommen haben, können Sie die Info ignorieren.
Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Wie ist das bei KI?
In den letzten Beiträgen dieser Reihe hatten wir uns damit beschäftigt, wie KI funktioniert und auch schon angeschnitten, welche Auswirkungen KI in der Gesellschaft haben kann. Künstliche Intelligenz ist nie ausschließlich eine technische Angelegenheit. Sie wird immer im Zusammenspiel mit Menschen genutzt. Aus diesem Grund widmen wir uns in diesem Beitrag dem Thema Vertrauen in KI-Systeme.
Was Vertrauen überhaupt bedeutet
Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Das gilt ähnlich für KI-Systeme. Wenn ein KI-System uns Informationen gibt, möchten wir sicher sein, dass es uns nicht schadet und zuverlässige Ergebnisse liefert.
Verfügen Sie über ein KI-System, stehen Sie vor zwei Fragen: Wollen Sie es nutzen? Und wenn ja, wie stark vertrauen Sie den Ergebnissen, sprich, wie intensiv überprüfen Sie diese, bevor Sie sie übernehmen? Diese Entscheidung muss nicht der objektiv betrachteten Vertrauenswürdigkeit entsprechen, sondern kann individuell und situationsbedingt unterschiedlich sein.
Welche Folgen zu viel – aber auch zu wenig – Vertrauen in KI haben kann
In der Computer-Programmierung gibt es aktuell den Ansatz des „Vibe Coding“ (deutsch: „nach Gefühl programmieren“), wo Generativer KI volle Kompetenz für das Programmieren übertragen wird. Als Programmierer oder Programmiererin gibt man Feedback, je nachdem ob das Endergebnis funktioniert. Der Programmcode wird dabei nicht oder nur selten betrachtet. Durch die fehlende Überprüfung kann es aber passieren, dass Sicherheitslücken im Programm nicht erkannt werden, und niemand versteht, wie das Programm funktioniert. Hier wird also eher zu viel in das KI-System vertraut, und es kann zu schwerwiegenden Vorfällen kommen.
Auf der anderen Seite kann es problematisch sein, wenn Menschen KI-Systemen zu wenig Vertrauen schenken. Manche Anwendungen sind heute in der Lage, Hautkrebs auf Bildern besser zu erkennen als Fachpersonal. Solche Systeme könnten dazu beitragen, Krankheiten früher zu erkennen und Leben zu retten. Allerdings werden sie selten eingesetzt, weil Fachleute ihnen nicht ausreichend vertrauen.
Grafik zur Veranschaulichung des Zusammenhangs zwischen dem Vertrauen und der Fähigkeit von KI-Systemen für kalibriertes Vertrauen (Asan u. a., 2020).
Dementsprechend ist es wichtig, ein kalibriertes Vertrauen in KI-Systeme zu entwickeln – ihnen also dann zu vertrauen, wenn Sie tatsächlich unterstützen können, aber nicht, wenn das mit zu hohen Risiken verbunden ist.
Woran Sie einschätzen können, ob Sie einem KI-System vertrauen sollten
Als Voraussetzung müssen Sie Informationen über ein KI-System überhaupt einordnen können. Dafür ist es notwendig ein Grundverständnis von KI zu erlangen, welches wir mit den bisherigen Beiträgen versucht haben zu vermitteln.
Transparenz ist sehr wichtig, wenn Sie ein KI-System nutzen. Wenn Sie nicht wissen, wie es funktioniert, können sie auch kein kalibriertes Vertrauen entwickeln. Wichtige Informationen sind dabei die Art des KI-Ansatzes, die genutzten Trainingsdaten sowie die Fehlerrate des KI-Systems. Mit diesen Aspekten können Sie situationsbedingt einschätzen, ob das System eher eine zuverlässige Antwort geben wird oder nicht. Denn insbesondere wo KI-Systeme noch wenige oder keine Daten gesehen haben, werden Sie eher Fehler machen. Und es ist abhängig vom Anwendungsbereich, was eine akzeptable Menge und die Konsequenz von Fehlern ist. In der Qualitätskontrolle einer Autofabrik sollte eine Fehlerrate sehr gering sein, weil sie im schlimmsten Fall zu Unfällen führen können.
Manche KI-Systeme werden Ihnen eine Erklärung geben, wie Sie zu einem Ergebnis gekommen sind. Diese soll Sie dabei unterstützen, das Ergebnis besser nachvollziehen zu können. Wenn ein Bauteil als fehlerhaft klassifiziert wird, könnte es ein Bauteil aus den Trainingsdaten mit einem ähnlichen Fehler anzeigen.
Diese Aspekte treffen aber eher auf spezifische KI-Systeme zu und nicht auf Generative KI, wie zum Beispiel ChatGPT oder Gemini. Dort ist eine Einschätzung der Fehlerrate nur sehr schwer oder gar nicht möglich, weil die Systeme auf eine sehr große Menge an Themenbereichen anwendbar sind. Zudem unterscheiden sich die Fehlerraten in verschiedenen Themenbereichen. Dementsprechend ist eine durchgehende Prüfung bei Ergebnissen von Generativer KI sehr wichtig.
Ein häufiger Trugschluss ist übrigens: Wenn ein KI-Tool gut aussieht und leicht zu bedienen ist, dann ist es auch besser. Eine schöne Nutzeroberfläche sagt aber noch nichts über die Qualität der Ergebnisse. Gute Gestaltung löst Vertrauen aus, ein weit verbreiteter Bias.
Sollten Sie also KI vertrauen?
Vertrauen in KI ist keine Frage von Ja oder Nein – sondern eine Abwägung, die von Situation, Kontext und Informationen abhängt. Es geht darum, ein Gefühl dafür zu entwickeln, wann Vertrauen sinnvoll ist – und wann gesunde Skepsis angebracht bleibt.
Im nächsten und letzten Beitrag dieser Reihe werfen wir einen Blick nach vorn: Wie könnte eine Gesellschaft aussehen, in der KI ein ganz normaler Teil des Alltags geworden ist – und was könnte schief gehen?
Umfrage zum Beitrag „Kann man KI vertrauen?"
Nachdem Sie den Beitrag „Kann man KI vertrauen?” gelesen haben, würden wir Sie gerne dazu einladen, an einer kurzen Umfrage mit einem kleinen Quiz teilzunehmen.
Damit können Sie unsere Forschung unterstützen und uns Feedback zum Beitrag geben.
Der Beitrag wurde im Kontext des Verbundprojekts klaro!KI der Universität Würzburg und Universität Bamberg vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz gefördert.
Lernen ist notwendig, damit wir Menschen uns in dieser komplexen Welt zurechtzufinden. Wie ist es möglich, dass Computer etwas ähnliches schaffen können?
Menschliches Denken ist unfassbar flexibel, wir können jederzeit neue Kompetenzen erlernen und uns an neue Gegebenheiten anpassen. Aber wie ist das bei KI?