· Felix Haase · Beitragsreihe KI · 4 min Lesezeit
Kann man KI vertrauen?
Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Wie ist das bei KI?

In den letzten Beiträgen dieser Reihe hatten wir uns damit beschäftigt, wie KI funktioniert und auch schon angeschnitten, welche Auswirkungen KI in der Gesellschaft haben kann. Künstliche Intelligenz ist nie ausschließlich eine technische Angelegenheit. Sie wird immer im Zusammenspiel mit Menschen genutzt. Aus diesem Grund widmen wir uns in diesem Beitrag dem Thema Vertrauen in KI-Systeme.
Was Vertrauen überhaupt bedeutet
Wenn wir anderen Menschen vertrauen, erwarten wir, dass sie uns nicht schaden und Aufgaben gut erfüllen. Das gilt ähnlich für KI-Systeme. Wenn ein KI-System uns Informationen gibt, möchten wir sicher sein, dass es uns nicht schadet und zuverlässige Ergebnisse liefert.
Verfügen Sie über ein KI-System, stehen Sie vor zwei Fragen: Wollen Sie es nutzen? Und wenn ja, wie stark vertrauen Sie den Ergebnissen, sprich, wie intensiv überprüfen Sie diese, bevor Sie sie übernehmen? Diese Entscheidung muss nicht der objektiv betrachteten Vertrauenswürdigkeit entsprechen, sondern kann individuell und situationsbedingt unterschiedlich sein.
Welche Folgen zu viel – aber auch zu wenig – Vertrauen in KI haben kann
In der Computer-Programmierung gibt es aktuell den Ansatz des „Vibe Coding“ (deutsch: „nach Gefühl programmieren“), wo Generativer KI volle Kompetenz für das Programmieren übertragen wird. Als Programmierer oder Programmiererin gibt man Feedback, je nachdem ob das Endergebnis funktioniert. Der Programmcode wird dabei nicht oder nur selten betrachtet. Durch die fehlende Überprüfung kann es aber passieren, dass Sicherheitslücken im Programm nicht erkannt werden, und niemand versteht, wie das Programm funktioniert. Hier wird also eher zu viel in das KI-System vertraut, und es kann zu schwerwiegenden Vorfällen kommen.
Auf der anderen Seite kann es problematisch sein, wenn Menschen KI-Systemen zu wenig Vertrauen schenken. Manche Anwendungen sind heute in der Lage, Hautkrebs auf Bildern besser zu erkennen als Fachpersonal. Solche Systeme könnten dazu beitragen, Krankheiten früher zu erkennen und Leben zu retten. Allerdings werden sie selten eingesetzt, weil Fachleute ihnen nicht ausreichend vertrauen.

Dementsprechend ist es wichtig, ein kalibriertes Vertrauen in KI-Systeme zu entwickeln – ihnen also dann zu vertrauen, wenn Sie tatsächlich unterstützen können, aber nicht, wenn das mit zu hohen Risiken verbunden ist.
Woran Sie einschätzen können, ob Sie einem KI-System vertrauen sollten
Als Voraussetzung müssen Sie Informationen über ein KI-System überhaupt einordnen können. Dafür ist es notwendig ein Grundverständnis von KI zu erlangen, welches wir mit den bisherigen Beiträgen versucht haben zu vermitteln.
Transparenz ist sehr wichtig, wenn Sie ein KI-System nutzen. Wenn Sie nicht wissen, wie es funktioniert, können sie auch kein kalibriertes Vertrauen entwickeln. Wichtige Informationen sind dabei die Art des KI-Ansatzes, die genutzten Trainingsdaten sowie die Fehlerrate des KI-Systems. Mit diesen Aspekten können Sie situationsbedingt einschätzen, ob das System eher eine zuverlässige Antwort geben wird oder nicht. Denn insbesondere wo KI-Systeme noch wenige oder keine Daten gesehen haben, werden Sie eher Fehler machen. Und es ist abhängig vom Anwendungsbereich, was eine akzeptable Menge und die Konsequenz von Fehlern ist. In der Qualitätskontrolle einer Autofabrik sollte eine Fehlerrate sehr gering sein, weil sie im schlimmsten Fall zu Unfällen führen können.
Manche KI-Systeme werden Ihnen eine Erklärung geben, wie Sie zu einem Ergebnis gekommen sind. Diese soll Sie dabei unterstützen, das Ergebnis besser nachvollziehen zu können. Wenn ein Bauteil als fehlerhaft klassifiziert wird, könnte es ein Bauteil aus den Trainingsdaten mit einem ähnlichen Fehler anzeigen.
Diese Aspekte treffen aber eher auf spezifische KI-Systeme zu und nicht auf Generative KI, wie zum Beispiel ChatGPT oder Gemini. Dort ist eine Einschätzung der Fehlerrate nur sehr schwer oder gar nicht möglich, weil die Systeme auf eine sehr große Menge an Themenbereichen anwendbar sind. Zudem unterscheiden sich die Fehlerraten in verschiedenen Themenbereichen. Dementsprechend ist eine durchgehende Prüfung bei Ergebnissen von Generativer KI sehr wichtig.
Ein häufiger Trugschluss ist übrigens: Wenn ein KI-Tool gut aussieht und leicht zu bedienen ist, dann ist es auch besser. Eine schöne Nutzeroberfläche sagt aber noch nichts über die Qualität der Ergebnisse. Gute Gestaltung löst Vertrauen aus, ein weit verbreiteter Bias.
Sollten Sie also KI vertrauen?
Vertrauen in KI ist keine Frage von Ja oder Nein – sondern eine Abwägung, die von Situation, Kontext und Informationen abhängt. Es geht darum, ein Gefühl dafür zu entwickeln, wann Vertrauen sinnvoll ist – und wann gesunde Skepsis angebracht bleibt.
Im nächsten und letzten Beitrag dieser Reihe werfen wir einen Blick nach vorn: Wie könnte eine Gesellschaft aussehen, in der KI ein ganz normaler Teil des Alltags geworden ist – und was könnte schief gehen?
Empfohlene Literatur:
- Drapkin, A. (2025). AI Gone Wrong: An Updated List of AI Errors, Mistakes and Failures. tech.co
- Alpaydin, E. (2022). Maschinelles Lernen. Berlin, Boston: De Gruyter Oldenbourg.
- Otte, Ralf. Künstliche Intelligenz für Dummies. Deutsche Dummies. John Wiley & Sons, 2023.
- Schmid, U., Weitz K. & Siebers M. (2024) Künstliche Intelligenz selber programmieren für Dummies Junior. WILEY VCH
- Russell, S., & Norvig, P. (2023). Künstliche Intelligenz: Ein moderner Ansatz. Pearson.
Quellen
- Afroogh, S., Akbari, A., Malone, E., Kargar, M., & Alambeigi, H. (2024). Trust in AI: Progress, challenges, and future directions. Humanities and Social Sciences Communications, 11(1), 1568.
- Wienrich, C., & Obremski, D. (2024). The Impact of Transparency and Expert-Framing on Trust in Conversational Ai (SSRN Scholarly Paper No. 4715193). Social Science Research Network.
- Chanda, T., Hauser, K., Hobelsberger, S., Bucher, T.-C., Garcia, C. N., Wies, C., Kittler, H., Tschandl, P., Navarrete-Dechent, C., Podlipnik, S., Chousakos, E., Crnaric, I., Majstorovic, J., Alhajwan, L., Foreman, T., Peternel, S., Sarap, S., Özdemir, İ., Barnhill, R. L., … Brinker, T. J. (2024). Dermatologist-like explainable AI enhances trust and confidence in diagnosing melanoma. Nature Communications, 15(1), 524
- Gupta, M. (2025, März 19). Don’t be a Vibe Coder. Data Science in Your Pocket. Medium
- Geritz, D. (2025, März 25). 10 Professional Developers on the True Promise and Peril of Vibe Coding. ZDNet.
- Alpaydin, E. (2022). Maschinelles Lernen. Berlin, Boston: De Gruyter Oldenbourg.
- Russell, S., & Norvig, P. (2023). Künstliche Intelligenz: Ein moderner Ansatz. Pearson.