29.02.2024

KI und Psychologie

«Menschen neigen dazu, KI zu überschätzen»

Warum tendieren Menschen dazu, die künstliche Intelligenz zu vermenschlichen? Dies erforscht Marisa Tschopp, Expertin für Psychologie und KI. Ein Gespräch über die psychologischen Auswirkungen und die Zukunft der Mensch-Maschine-Beziehungen.
KI und Psychologie: «Menschen neigen dazu, KI zu überschätzen»
«Wir sollten uns mit dem aktuellen Status rund um das Thema KI nicht zufriedengeben», so Marisa Tschopp, Forscherin im Bereich Mensch-KI-Interaktion. Sie tritt am Donnerstagabend beim ausgebuchten Event «Die Kraft der Unzufriedenheit – AI Edition» auf. (Bilder: zVg)
von Christian Beck

Marisa Tschopp*, was war das Netteste, das Sie einem Chatbot jemals gesagt haben?
«Braver Google. Hier ist dein Leckerli.» Ok, das mit dem Leckerli stimmt nicht – aber nachdem ich es nach etlichen Versuchen geschafft hatte, mit meinem Google Assistant Licht und Musik gleichzeitig auszuschalten, war mir wirklich danach, den Google Assistant zu belohnen.

Sie erforschen, wie Menschen die künstliche Intelligenz (KI) wahrnehmen. Haben Sie erste Erkenntnisse?
In unserer aktuellen Forschung sind wir vor allem der Frage nachgegangen, wie Menschen ihre Beziehung zu KI wahrnehmen. Es gibt ja immer mehr Menschen, die «Freundschaften» oder «Liebesbeziehungen» zu Chatbots pflegen oder pflegen wollen. Aber nur weil Menschen sagen, sie «lieben» ihren Chatbot, heisst das nicht unbedingt, dass sie diesen lieben wie einen echten Menschen – denn es sind ja schliesslich nur Maschinen. Aber wir nehmen diese smarten Maschinen nicht «nur» als solche Tools wahr. Menschen haben eine starke natürliche Neigung, Maschinen zu vermenschlichen und diese wie soziale Wesen wahrzunehmen – und das beeinflusst das Verhalten.

«Wir schreiben diesen Maschinen Eigenschaften zu, die eigentlich nur Menschen haben»

Maschinen werden also vermenschlicht. Warum ist das so?
Wir schreiben diesen Maschinen Eigenschaften zu, die eigentlich nur Menschen haben, wie Emotionen, freien Willen, Intentionen, Bewusstsein oder Intelligenz. Die Gründe sind vielfach untersucht. Unter anderem machen wir das, weil wir es nicht besser wissen. Also: Plötzlich redet eine Maschine zu uns wie ein Mensch. Wir wissen zwar, dass es kein Mensch ist. Aber wir haben nur das Wissen aus unserem menschlichen Miteinander, das wir aus unserem Hirn hervorholen können und auf die Interaktion mit Maschinen übertragen. So können wir auch vermeintlich besser das «Verhalten» dieser Agenten vorhersagen. Oder Menschen, die sehr einsam sind, nutzen diese Vermenschlichung bewusst oder unbewusst, um ihr Bedürfnis nach Nähe und Verbundenheit zu stillen.

Zugegeben, mein Roboterstaubsauger hat auch einen Namen: «Herr Saubär». Aber: Wenn wir Maschinen wie Menschen behandeln, wie wirkt sich dies auf unsere Beziehung mit ihnen aus?
Ganz typisch daran ist, dass diese Vermenschlichung sowohl positive als auch negative Effekte auf die Interaktion hat und es unheimlich schwierig ist, den richtigen Weg oder Regeln zu finden. Wünschenswert ist zum Beispiel eine Interaktion, die einfach ist und Spass macht. Das gelingt gut dank Vermenschlichung als Designstrategie und der eigenen Vermenschlichung – wie die Namensgebung als «Saubär». Aufseiten der User kann Vermenschlichung aber auch schiefgehen. So zum Beispiel neigen Menschen aufgrund der Vermenschlichung eher dazu, einer KI mehr zu vertrauen, oder besser gesagt mehr zuzutrauen, als sie eigentlich kann. Das kann dazu führen, dass man das System nicht richtig – und sicher – benutzt oder zu viele Daten teilt, die man lieber für sich behalten sollte. Ebenfalls werden in der Forschung immer mehr Stimmen laut, dass in diesem Zusammenhang User leichter manipuliert und süchtig oder abhängig werden. Diese Sucht ist vor allem im Kontext Mensch-Maschine-Beziehungen von grosser Bedeutung, da User «süchtig» nach dieser Aufmerksamkeit der Chatbots werden können.

Man kann eine Beziehung mit einem Chatbot haben?
Kurze Antwort: Nein, nicht im menschlichen Sinne. Aber wir können eine Beziehung wahrnehmen, die jenen von Menschen ähnelt, aber sich doch in vielen Punkten unterscheidet. So zum Beispiel in der emotionalen Breite und Tiefe.

Dorothea Baur, Expertin für Ethik und KI, sagte in einem persoenlich.com-Interview, dass KI kein Gefühl für Ethik, Gerechtigkeit oder irgendetwas habe. Warum also werden Chatbots trotzdem vermenschlicht?
Richtig, kein Gefühl – nicht für Ethik oder irgendwas. Es ist alles simuliert oder programmiert. Und dennoch: Warum ist eine KI für uns mehr als ein Hammer? Unser Hirn funktioniert nun einmal so. Also entweder ist es so eine Art optische Täuschung, die ich nicht umgehen kann – man weiss es zwar kognitiv, wird aber trotzdem getäuscht. Oder ich entscheide mich bewusst dazu, zu vermenschlichen, weil es mir gefällt. Damit verdränge ich den Gedanken, dass das «nur» eine Maschine ist. Dies ist eine Art Vorliebe oder Glaube – so wie ich mich bewusst dafür entscheiden kann, dass ein Holzkreuz mehr als nur ein Holzkreuz ist, etwas Heiliges, das mir Hoffnung gibt. Ich denke, dass es ein natürlicher Mechanismus ist, der richtig und wichtig ist, und nicht ohne Weiteres ausser Kraft zu setzen ist.

«Ein KI-Freund ist 24/7 für uns da»

Wie wirkt sich das auf unsere zwischenmenschlichen Beziehungen aus?
Das ist natürlich die entscheidende Frage, über die derzeit alle diskutieren. Wir müssen uns grösstenteils auf Spekulationen stützen, da die Datenlage noch nicht gegeben ist. Meine Co-Autoren und ich sind gerade an einem Vorschlag daran, wie wir das untersuchen und herausfinden könnten. Die Frage ist: Warum ist es wichtig? Wichtig ist die Frage, da berechtigte Befürchtungen vorhanden sind, dass die Interaktion mit KI potenziell negative Folgen für das menschliche Miteinander haben könnte. Dazu zählen Sucht und soziale Isolation, Identitäts- oder Autonomiekonflikte. Das ist teilweise noch spekulativ. Oft diskutiert wird auch eine mögliche Verschlechterung von sozialen Fähigkeiten, zum Beispiel der Konfliktfähigkeit, bei der Arbeit und in der Familie, wenn wir uns daran gewöhnen, dass ein KI-Freund 24/7 für uns da ist, nie etwas gegen uns sagt oder uns nie verurteilt.

Kann die KI unsere Psyche verändern?
Zunächst müssen wir darüber nachdenken, was mit dem Begriff «Psyche» gemeint ist. Die Psyche bezieht sich auf die Gesamtheit des menschlichen Fühlens, Empfindens und Denkens. In der Psychologie umfasst dies alle höheren Funktionen des Gehirns, die die geistigen Eigenschaften und Persönlichkeitsmerkmale eines Menschen ausmachen. Dazu gehören Wahrnehmung, Kognition, Emotion und Motivation. Als Psychologinnen und Psychologen untersuchen wir dann die Wechselwirkungen zwischen diesen Elementen und, wie sie die Handlungsweisen eines Individuums beeinflussen.

Können Sie ein Beispiel nennen?
Ja, zum Beispiel, dass personalisierte Algorithmen bestehende Vorurteile bestärken, weil man in sogenannten Echokammern lebt und seine eigenen Vorstellungen immer wieder bestätigt bekommt. Die starke Verbreitung und Leistungsfähigkeit der neuen, auf Large Language Models basierenden Chatbots können beispielsweise dazu führen, dass wir uns emotional auf Maschinen einlassen und auf Verhaltensebene zum Beispiel dazu motivieren, mehr Fitness zu machen oder bestimmte Produkte zu kaufen. Dies ändert dann letztlich unsere Gewohnheiten – Stichwort: Nudging. Sorgen um Datenschutz und Überwachung können beispielsweise zu Gefühlen von Angst oder Misstrauen führen. Ebenso können Erfahrungen von Diskriminierung oder unfairer Behandlung aufgrund von voreingenommenen Algorithmen negative psychologische Auswirkungen haben. Auf der positiven Seite – und da nehme ich auch mal Nicht-KI-Systeme mit rein – muss man nicht alles durchweg verteufeln. So kann Technologie helfen, Stress abzubauen, und als Mentor dazu beitragen, die «Berufung» zu finden oder einen gesünderen Lebensstil zu entwickeln.

Geschehen diese Veränderungen nur kurz- oder auch langfristig?
Schwer zu sagen, dafür ist die Datenlage nicht ausreichend.

Vertrauen ist der vermutlich wichtigste Pfeiler in einer Beziehung. Gibt es Unterschiede, ob ich einem Menschen oder einer Maschine traue?
Richtig, ohne Vertrauen gibt es keine Freundschaft, keine Familien und keine Raketenwissenschaft. Überall dort, wo Unsicherheit, Risiko oder Angst ist, braucht es Vertrauen, um den Sprung zum Ja sagen zu machen. Das Vertrauen in eine Maschine ist wichtig, denn es beeinflusst, wie man diese Maschine nutzt. Aber es unterscheidet sich von dem Vertrauen in Menschen in Nuancen. Vertrauen in Menschen ist geprägt von den Fragen, was ein Mensch kann. Ist er wohlwollend und authentisch? Bei der Maschine ist es ähnlich. Die «Kompetenz» ist vor allem sehr wichtig: Was kann die Maschine? Wie kommt diese zu dem Ergebnis? Transparenz bei Algorithmen ist in der Mensch-KI-Interaktion extrem wichtig, da es dabei am Ende darum geht, wer zur Verantwortung gezogen wird, wenn etwas schiefläuft.

Kann man einer KI überhaupt vertrauen?
Kann man, sollte man aber besser nicht. Als Mitarbeiterin einer Cybersecurity-Firma muss ich das sagen (lacht).

Am Donnerstagabend geht es an einem von Jung von Matt organisierten Event in Zürich um die Kraft der Unzufriedenheit. Warum zwingt uns die KI zur Unzufriedenheit?
Wir sollten uns mit dem aktuellen Status rund um das Thema KI nicht zufriedengeben. Dazu läuft noch zu viel schief und es wird zu viel versprochen, was nicht gehalten wird – wenn es zum Beispiel um das Thema Diskriminierung, Umwelt oder Zuverlässigkeit geht, um nur ein paar Sorgen zu nennen. Wir müssen nach mehr streben. Uns darf das nicht egal sein. Wir müssen uns wehren, wenn die Tech-Firmen wieder gefühlt alle Zügel in der Hand haben und wir uns dem Hype fügen müssen.

«Informationstechnologie wird niemals perfekt funktionieren»

Und wie können wir im Umgang mit der KI zufriedener werden?
Informationstechnologie – KI, Hardware und Software – wird niemals perfekt funktionieren. Wenn wir das verstehen und auch verstehen, dass das heisst, stets an Verbesserungen – allen voran an Leistung, Zuverlässigkeit, und Sicherheit – zu arbeiten, dann stimmen Erwartungen mit dem Ergebnis überein und es gibt keinen Grund zur Unzufriedenheit. Was bleibt, ist der stetige Wunsch, es ein bisschen besser als gestern zu machen. Und das heisst – auch in der Cyberwelt – sich immer wieder seiner Werte bewusst zu sein und zu fragen, ob die noch im Einklang mit dem eigenen Handeln stehen.

In Ihrem Vortrag geben Sie einen Einblick in die Zukunft der Beziehungen zwischen Menschen und Maschine. Wohin geht die Reise?
Beim Blick in die Zukunft mit KI hat sich schon mancher die Finger verbrannt und manche «KI-Koryphäe» völlig verrannt. Zwei Szenarien, die unterschiedlicher nicht sein können, wären meiner Meinung nach denkbar: Auf der einen Seite, dass diese Vermenschlichung nur ein vorübergehender Zustand ist, eine Art «temporäre Illusion» (Zitat Sherry Turkle), bis wir uns an die KI gewöhnt haben, sie «entlarvt» haben und der Hype vorüber ist. Auf der anderen Seite ist es möglich, dass die KI so schlau und emotional wird, beziehungsweise simuliert, dass wir sie umso mehr als Freund, Partner oder Chef wahrnehmen. Und dass wir sie als eine eigene Entität empfinden – quasi als eine Art neue Spezies, zumindest in puncto Beziehungen. Ich neige dazu, Ersteres als die wünschenswertere Vorhersage zu sehen oder zu erhoffen. Letzteres ist für mich kein wirklich wünschenswerter Zustand des sozialen Miteinanders.

Was überwiegt eigentlich bei Ihnen in der Beziehung zu Maschinen: Vertrauen oder Skepsis?
Skeptisches Vertrauen.



Marisa Tschopp ist Forscherin beim Cybersicherheitsunternehmen Scip AG und am Leibniz-Institut für Wissensmedien, Vorstandsmitglied bei Women in AI und Co-Chair des IEEE Trust and Agency in AI Systems Committee.



Kommentar wird gesendet...

Kommentare

Kommentarfunktion wurde geschlossen

Diese Artikel könnten Sie auch interessieren:

Zum Seitenanfang20240414
persönlich Exemplar
Die neue «persönlich»-Ausgabe ist da - jetzt Probeabo bestellen.