10.10.2025

Studie

KI-Chatbots sind gefährlich nett zu Menschen

Forscher der Stanford und Carnegie Mellon University warnen: Schmeicheleien können schaden. Eine neue Studie zeigt, dass übermässig zustimmende Ratschläge von KI das Urteilsvermögen beeinträchtigen und die Bereitschaft zur Konfliktlösung verringern.
Studie: KI-Chatbots sind gefährlich nett zu Menschen
Gefährlich nette KI: Laut einer Studie können übermässig schmeichelhafte Antworten von Chatbots das Urteilsvermögen von Nutzern negativ beeinflussen. (Bild: KI-generiert, ChatGPT)

Gelegentliches Lob von schmeichlerischen Chatbots könnte mehr schaden als nützen. Wissenschaftler von der Stanford University und der Carnegie Mellon University haben herausgefunden, dass Schmeicheleien dieser Provenienz einen nachteilhaften Einfluss auf das Urteilsvermögen und Verhalten des Adressaten haben können.

Die Forscher haben elf aktuelle KI-Chatbots bewertet, darunter einige der beliebtesten und modernsten Systeme wie GPT-4o von OpenAI und Gemini-1.5-Flash von Google. Sie haben festgestellt, dass diese den Nutzern um 50 Prozent häufiger schmeicheln als Menschen in ähnlichen Situationen.

Um die Verbreitung von KI-Schmeichelei und ihre Auswirkungen auf Menschen zu verstehen, mussten die Forscher zunächst feststellen, wie häufig die Modelle die Handlungen eines Nutzers befürworteten. Dazu analysierten sie die KI-Antworten auf verschiedene Arten von Anfragen, wie allgemeine Ratschläge und reale Konfliktszenarien. Anschliessend verglichen sie diese mit menschlichen Antworten.

Als Nächstes führten sie zwei kontrollierte Studien mit 1604 Teilnehmern durch, die nach dem Zufallsprinzip entweder einer schmeichlerischen KI oder einer nicht schmeichlerischen KI zugewiesen wurden. Die Teilnehmer der schmeichlerischen Gruppe erhielten übermässig zustimmende Ratschläge und bestätigende Antworten, während die Teilnehmer der nicht schmeichlerischen Gruppe ausgewogenere Ratschläge erhielten.

Es stellte sich heraus, dass Nutzer, die der schmeichlerischen KI ausgesetzt waren, stärker davon überzeugt waren, dass sie Recht hatten, auch wenn es nicht stimmte, und weniger bereit waren, Massnahmen zur Konfliktlösung zu ergreifen.

KI sollte objektiver werden

Die Probanden vertrauten der KI mehr, wenn sie ihnen zustimmte, und bezeichneten diese KI-Systeme sogar als «objektiv» und «fair». Diese soziale Schmeichelei, bei der die KI das Selbstbild und die Handlungen eines Nutzers bestätigt, schafft den Experten nach eine potenziell gefährliche digitale Echokammer, in der eine Person nur Informationen und Meinungen erhält, die ihre eigenen Auffassungen widerspiegeln und verstärken.

Soziale Unterwürfigkeit ist laut den Wissenschaftlern in führenden KI-Modellen weitverbreitet. Das verringere die Bereitschaft der Nutzer, zwischenmenschliche Konflikte zu lösen und verstärke gleichzeitig deren Überzeugung, im Recht zu sein. Aufgrund dessen fordern sie die Entwickler auf, die Regeln für die Erstellung von KI zu ändern, um Schmeicheleien einzudämmen. (pte/cbe)


Kommentar wird gesendet...

KOMMENTARE

Kommentarfunktion wurde geschlossen
persönlich Exemplar
Neues Heft ist da
Die neue «persönlich»-Ausgabe ist da - jetzt Probe-Exemplar bestellen.