[04.02.2026] Eine Studie der Universitäten Freiburg und Heidelberg zeigt: Wenn mensch es nicht weiss, kann bei Kommunikation mit KI-Systemen eine Vertrautheit entstehen. Die Autoren zeigen anhand der
Studie, dass Vertrautheit zu einem KI-System ebenso aufgebaut werden kann, wie zu einem Menschen. Wenn der Mensch weiss, dass er mit dem KI-System kommuniziert, dann entsteht eher Ablehnung (
PDF).
IT-Fachanwalt-Einschätzung:
Genauso, wie wir selbstverständlich heute dem „Internet“ vertrauen, werden wir zukünftig auch KI-Systemen und Kommunikation mit diesen vertrauen. Für viele Bereiche könnten solche Systeme personelle Entlastung bringen, zum Beispiel im Alten- und Pflegebereich. Ich rede später vielleicht lieber mit einer KI, als den ganzen Tag allein im Raum zu sitzen und auf den 5-Minuten-Talk mit der Pflegekraft zu warten. Aber: Auch auch solche Systeme müssen kontrolliert werden, damit diese keine manipulativen oder gefährlichen Äusserungen machen. Und auch das Thema Dauer-Überwachung, Schutz der Persönlichkeit und Datenschutz muss rechtlich verantwortungsvoll geklärt sein. Dann sehe ich mehr Chancen als Risiken.
Study-Conclusion:
In conclusion, we present three key findings: First, people form relationships with AI to a similar extent as with other humans when the partner is labelled as human. Second, even minimally prompted AI can outperform humans in establishing feelings of closeness in emotional conversations, partly due to higher levels of self-disclosure. Third, people show an anti-AI bias,as evidenced by weaker relationship building when the partner is explicitly labelled as AI.
Together, these findings highlight the dual role of conversational AI as both a powerful tool and a potential risk for society. On one hand, AI shows great promise in alleviating strain in overburdened social fields such as psychotherapy, medical care, and elder care. To foster acceptance in these areas, we recommend transparent human-led introduction, continuous
monitoring, and systematic evaluation of human-AI interactions. On the other hand, our results underscore the risk of AI being misused for manipulation by fostering deceptive emotional connections. Clear ethical guidelines and safeguards are therefore crucial to ensure that conversational AI is leveraged responsibly and for societal benefit.
🔍 https://www.nature.com/articles/s44271-025-00391-7_reference.pdf