Vertrauen in KI?

Wollen wir das überhaupt?

Diese Woche hat der CEO von Google, Sundar Pichai, in einem BBC-Interview bei dem es in erster Linie um sein neues KI-Model „Gemini 3“ ging gesagt, wir sollten KI nicht „blind vertrauen“.

Das ist meiner Meinung nach eine wilde Aussage in einer Zeit, in der von einer KI-Blase wie zu Dot-com zeiten gesprochen wird aber wollen wir Maschinen überhaupt vertrauen und können wir das eigentlich?

Was ist eigentlich Vertrauen?

Gerade im Zusammenhang mit KI, LLMs und den vielen Applikationen, die wir täglich nutzen, in denen KI gerade überall eingebaut wird, sollten wir uns die Frage stellen was bedeutet Vertrauen eigentlich.

Beim Nachlesen und einem Vortrag, den ich dazu gehört habe, viel vor allem der Name Niklas Luhmann, der 1968 ein Buch dazu geschrieben hat, das viel zitiert immer wieder aufkommt. Darin beschreibt er, das Vertrauen ein Mechanismus ist, mit dem wir die Komplexität der Zukunft reduzieren. Puh okay.

Wenn du und ich uns ein Treffen ausmachen, dann gehen wir davon aus, dass der andere zu dem gewählten Zeitpunkt und Ort auch erscheint. Wir vertrauen einander.

Wir vertrauen auch darin, dass Politiker:innen tun, was sie vor der Wahl versprechen, dass Medien die Wahrheit berichten und, dass das Geld, welches wir heute verdienen nächsten Monat genutzt werden kann, um für ein Dach über dem Kopf zu sorgen.

Dabei vertrauen wir jeweils dem Menschen, mit dem wir uns etwas ausmachen, also den Politiker:innen, den Journalist:innen, den Vermieter:innen oder dem Freund, mit wem wir uns ein Treffen ausmachen.

Würden wir ihnen nicht vertrauen, müssten wir immer wieder kontrollieren, ob das vereinbarte auch noch stimmt. Kommst du denn wirklich zu dem Treffen, an dem Ort, zu der Zeit? Steht unsere Vereinbarung noch.

Diese Kontrolle würde dazu führen, dass wir uns kaum mit etwas anderem beschäftigen könnten, außer zu überprüfen, ob das noch stimmt. Schade um die Zeit.
Daher, wir vertrauen einander, um diese Komplexität zu reduzieren. Okay.

Vertrau einer Maschine nicht ganz.

Was der gute Sundar da von uns also verlangt, wenn er sagt wir sollen seiner LLM nicht blind vertrauen macht nur bedingt Sinn, denn wir vertrauen keinen Maschinen. Wir vertrauen Menschen.

Maschinen erzeugen zwei unterschiedliche Arten von Ergebnissen. Die, die wir erwarten und die, die wir nicht erwarten. Dazu sagen wir auch, die Maschine funktioniert oder sie funktioniert eben nicht. Das sind wir auch gewohnt.

Wenn ich einen Lichtschalter einschalte, erwarte ich, dass die Lampe leuchtet. Wenn sie das nicht tut, dann funktioniert sie nicht. Dieses Spiel können wir mit jeder Maschine durchspielen, der Computer, das Auto, das Handy, die Rolltreppe. Alle Maschinen machen, was wir erwarten, dann funktionieren sie, oder eben nicht, dann nicht.

Das gilt auch für KI.

Wenn wir ein LLM mit einem Prompt auffordern für uns einen Text zu erzeugen, dann erwarten wir einen faktisch korrekten Text. Ob der Schreibstil uns gefällt oder die Mengen an Gedankenstrichen und Aufzählungen die mit einem Nomen gefolgt von einem Doppelpunkt beginnen uns zusagt, sei für diese Diskussion Mal dahingestellt.

Wir erwarten also eine faktisch korrekte Antwort und das bedeutet für uns die Maschine funktioniert.
Das ist nicht immer der Fall.
Funktioniert die Maschine also nicht?

Oh no, dann lieber Damage-Control?

Was der CEO eines in KI stark investiertem Unternehmen hier also macht, ist nichts anderes als die Erwartungshaltung von uns User:innen zu senken.

Seine Maschine funktioniert nicht, also sollen wir kontrollieren und nicht „blind vertrauen“. Das wird sich meiner Einschätzung nach auch nicht so bald ändern, denn die Halluzinationen von LLMs sind laut einem vor kurzen veröffentlichen Bericht auch ein systematisches Problem und nicht auf die Menge an Trainingsdaten zurückzuführen.

Das zuzugeben und somit das Vertrauen in ihn und seine Mitarbeiter:innen, also Google als Unternehmen zu senken ist in der jetzigen Zeit wo große Investoren ihr Geld aus Unternehmen wie Nvidia wieder raus nehmen natürlich nicht ideal. Daher überträgt er die Verantwortung seine nicht funktionierende Maschine trotzdem am Markt zu verkaufen auf uns, denn so im BBC-Interview argumentiert, wird das alles noch viel schöntoll, bald, und wir müssen Mitgefühl haben.

Also kein KI oder was?

Ich persönlich nutze Gemini und freu mich, wenn das neue Model besser ist als vorher. In KI sehe ich ein Werkzeug, welches mir hilft, schneller das zu tun, was ich auch ohne kann. Das Problem an Werkzeugen ist, dass sie viel Unheil anrichten, wenn die Nutzer nicht wissen, wie sie benutzt werden.

Genau wie wir uns mit Kettensägen verletzten können, ohne Schutzkleidung und Erfahrung wie wir damit umgehen ist es auch mit KI.

Wir brauchen KI nicht vertrauen, wir müssen sie kontrollieren, weil die Maschinen leider nicht so funktioniert, wie wir das eigentlich erwarten. Unsere Erwartungshaltung muss sich also an die Realität anpassen und die Vorstellung, wir würden bald alle ersetzt werden, hat vielleicht doch nicht ganz gestimmt, auch wenn Elon es vorausgesagt hat.

Um zu diesem Beitrag ein Ende zu finden zitiere ich Konrad Paul Liessmann, der zum Thema vertrauen zwischen Menschen zwar sagt „Kontrolle ist gut, vertrauen können ist besser“, muss ihm aber auch recht geben, dass im Fall von Maschinen „Vertrauen ist gut, Kontrolle ist besser“ immer noch stimmt.

Disclaimer:

Den Beitrag hab ich mit meinen Händen geschrieben, ganz ohne KI. Tippfehler, Grammatik und inhaltlichen Blödsinn verantworte ich also gerne ganz persönlich. Über Feedback freu ich mich 😊

Mehr zu dem Thema hier: