Initiale Befragung

Bevor Sie einen unserer Beiträge lesen, möchten wir Sie bitten, an der Initialen Befragung teilzunehmen. Hier werden Sie nach Ihrer allgemeinen Einstellungen zu KI und Technik gefragt, welche möglicherweise durch das Lesen eines Beitrags schon beeinflusst werden könnten.

Wenn Sie an dieser Umfrage bereits teilgenommen haben, können Sie die Info ignorieren.

Zur Umfrage

· Felix Haase · Beitragsreihe KI  · 4 min Lesezeit

Kann man KI vertrauen?

Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Wie ist das bei KI?

Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Wie ist das bei KI?

In den letzten Beiträgen dieser Reihe hatten wir uns damit beschäftigt, wie KI funktioniert und auch schon angeschnitten, welche Auswirkungen KI in der Gesellschaft haben kann. Künstliche Intelligenz ist nie ausschließlich eine technische Angelegenheit. Sie wird immer im Zusammenspiel mit Menschen genutzt. Aus diesem Grund widmen wir uns in diesem Beitrag dem Thema Vertrauen in KI-Systeme.

Was Vertrauen überhaupt bedeutet

Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Das gilt ähnlich für KI-Systeme. Wenn ein KI-System uns Informationen gibt, möchten wir sicher sein, dass es uns nicht schadet und zuverlässige Ergebnisse liefert.

Verfügen Sie über ein KI-System, stehen Sie vor zwei Fragen: Wollen Sie es nutzen? Und wenn ja, wie stark vertrauen Sie den Ergebnissen, sprich, wie intensiv überprüfen Sie diese, bevor Sie sie übernehmen? Diese Entscheidung muss nicht der objektiv betrachteten Vertrauenswürdigkeit entsprechen, sondern kann individuell und situationsbedingt unterschiedlich sein.

Welche Folgen zu viel – aber auch zu wenig – Vertrauen in KI haben kann

In der Computer-Programmierung gibt es aktuell den Ansatz des „Vibe Coding“ (deutsch: „nach Gefühl programmieren“), wo Generativer KI volle Kompetenz für das Programmieren übertragen wird. Als Programmierer oder Programmiererin gibt man Feedback, je nachdem ob das Endergebnis funktioniert. Der Programmcode wird dabei nicht oder nur selten betrachtet. Durch die fehlende Überprüfung kann es aber passieren, dass Sicherheitslücken im Programm nicht erkannt werden, und niemand versteht, wie das Programm funktioniert. Hier wird also eher zu viel in das KI-System vertraut, und es kann zu schwerwiegenden Vorfällen kommen.

Auf der anderen Seite kann es problematisch sein, wenn Menschen KI-Systemen zu wenig Vertrauen schenken. Manche Anwendungen sind heute in der Lage, Hautkrebs auf Bildern besser zu erkennen als Fachpersonal. Solche Systeme könnten dazu beitragen, Krankheiten früher zu erkennen und Leben zu retten. Allerdings werden sie selten eingesetzt, weil Fachleute ihnen nicht ausreichend vertrauen.

Grafik zur Veranschaulichung des Zusammenhangs zwischen dem Vertrauen und der Fähigkeit von KI-Systemen. Ein Koordinatensystem mit Vertrauen auf der Y-Achse und Fähigkeit auf der X-Achse. Links oben im Bereich mit hohem Vertrauen und niedriger Fähigkeit ist 'blindes Vertrauen' angesiedelt. Rechts unten im Bereich mit niedrigerem Vertrauen und höherer Fähigkeit ist 'übermäßige Vorsicht' zu finden. Dazwischen verläuft eine Gerade mit der Beschriftung kalibriertes Vertrauen.
Grafik zur Veranschaulichung des Zusammenhangs zwischen dem Vertrauen und der Fähigkeit von KI-Systemen für kalibriertes Vertrauen (Asan u. a., 2020).

Dementsprechend ist es wichtig, ein kalibriertes Vertrauen in KI-Systeme zu entwickeln – ihnen also dann zu vertrauen, wenn Sie tatsächlich unterstützen können, aber nicht, wenn das mit zu hohen Risiken verbunden ist.

Woran Sie einschätzen können, ob Sie einem KI-System vertrauen sollten

Als Voraussetzung müssen Sie Informationen über ein KI-System überhaupt einordnen können. Dafür ist es notwendig ein Grundverständnis von KI zu erlangen, welches wir mit den bisherigen Beiträgen versucht haben zu vermitteln.

Transparenz ist sehr wichtig, wenn Sie ein KI-System nutzen. Wenn Sie nicht wissen, wie es funktioniert, können sie auch kein kalibriertes Vertrauen entwickeln. Wichtige Informationen sind dabei die Art des KI-Ansatzes, die genutzten Trainingsdaten sowie die Fehlerrate des KI-Systems. Mit diesen Aspekten können Sie situationsbedingt einschätzen, ob das System eher eine zuverlässige Antwort geben wird oder nicht. Denn insbesondere wo KI-Systeme noch wenige oder keine Daten gesehen haben, werden Sie eher Fehler machen. Und es ist abhängig vom Anwendungsbereich, was eine akzeptable Menge und die Konsequenz von Fehlern ist. In der Qualitätskontrolle einer Autofabrik sollte eine Fehlerrate sehr gering sein, weil sie im schlimmsten Fall zu Unfällen führen können.

Manche KI-Systeme werden Ihnen eine Erklärung geben, wie Sie zu einem Ergebnis gekommen sind. Diese soll Sie dabei unterstützen, das Ergebnis besser nachvollziehen zu können. Wenn ein Bauteil als fehlerhaft klassifiziert wird, könnte es ein Bauteil aus den Trainingsdaten mit einem ähnlichen Fehler anzeigen.

Diese Aspekte treffen aber eher auf spezifische KI-Systeme zu und nicht auf Generative KI, wie zum Beispiel ChatGPT oder Gemini. Dort ist eine Einschätzung der Fehlerrate nur sehr schwer oder gar nicht möglich, weil die Systeme auf eine sehr große Menge an Themenbereichen anwendbar sind. Zudem unterscheiden sich die Fehlerraten in verschiedenen Themenbereichen. Dementsprechend ist eine durchgehende Prüfung bei Ergebnissen von Generativer KI sehr wichtig.

Ein häufiger Trugschluss ist übrigens: Wenn ein KI-Tool gut aussieht und leicht zu bedienen ist, dann ist es auch besser. Eine schöne Nutzeroberfläche sagt aber noch nichts über die Qualität der Ergebnisse. Gute Gestaltung löst Vertrauen aus, ein weit verbreiteter Bias.

Sollten Sie also KI vertrauen?

Vertrauen in KI ist keine Frage von Ja oder Nein – sondern eine Abwägung, die von Situation, Kontext und Informationen abhängt. Es geht darum, ein Gefühl dafür zu entwickeln, wann Vertrauen sinnvoll ist – und wann gesunde Skepsis angebracht bleibt.

Im nächsten und letzten Beitrag dieser Reihe werfen wir einen Blick nach vorn: Wie könnte eine Gesellschaft aussehen, in der KI ein ganz normaler Teil des Alltags geworden ist – und was könnte schief gehen?

Umfrage zum Beitrag „Kann man KI vertrauen?"

Nachdem Sie den Beitrag „Kann man KI vertrauen?” gelesen haben, würden wir Sie gerne dazu einladen, an einer kurzen Umfrage mit einem kleinen Quiz teilzunehmen.

Damit können Sie unsere Forschung unterstützen und uns Feedback zum Beitrag geben.

Zur Umfrage

Wenn Sie nun ein größeres Interesse an Künstlicher Intelligenz entwickelt haben, können Sie hier kostenlose Weiterbildungs-Möglichkeiten und Demonstratoren finden, die wir für Sie zusammengestellt haben.

Der klaro!KI-Newsletter

Melden Sie sich für unseren Newsletter an, um die neusten Beiträge und Events nicht zu verpassen.

Der Beitrag wurde im Kontext des Verbundprojekts klaro!KI der Universität Würzburg und Universität Bamberg vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz gefördert.

Empfohlene Literatur:

Quellen

Verwandte Beiträge

Alle Beiträge »
Was ist eigentlich KI?

Was ist eigentlich KI?

Der Begriff Künstliche Intelligenz ist allgegenwärtig, aber was ist überhaupt mit KI gemeint und was kann sie?

Wie lernen Computer?

Wie lernen Computer?

Lernen ist notwendig, damit wir Menschen uns in dieser komplexen Welt zurechtzufinden. Wie ist es möglich, dass Computer etwas ähnliches schaffen können?

Wieso denkt ChatGPT nicht wirklich?

Wieso denkt ChatGPT nicht wirklich?

Menschliches Denken ist unfassbar flexibel, wir können jederzeit neue Kompetenzen erlernen und uns an neue Gegebenheiten anpassen. Aber wie ist das bei KI?

Warum macht KI Fehler?

Warum macht KI Fehler?

Wie Menschen machen auch KI-Systeme Fehler oder „handeln“ nicht immer fair. In manchen Fällen liegen diesen Fehlern sogar ähnliche Ursachen zugrunde.

Zurück zum Blog