Chinesische Unternehmen müssen die emotionale Beziehung der Nutzer besser kontrollieren. Anzeichen von Depressionen sind unter den mehr als 500 Millionen chinesischen Nutzern von anthropomorphen Interaktionsdiensten zu beobachten.
China zeigt sich besorgt über die Auswirkungen der Nutzung von Künstlicher Intelligenz (KI), die entwickelt wurde, um mit Menschen zu interagieren und menschliche Persönlichkeiten zu simulieren. Diese Besorgnis wächst, da die Anzahl der Nutzer in den letzten sechs Monaten auf über 515 Millionen angestiegen ist. Psychologische Probleme, Abhängigkeit und Entfremdung sind bereits unter den chinesischen Nutzern erkennbar.
Eine Studie, veröffentlicht in der Fachzeitschrift Frontiers in Psychology, zeigt, dass 45,8 % der chinesischen Universitätsstudenten im Monat vor der Studie auf KI-Chatbots zurückgegriffen haben. Diese Studierenden zeigen höhere Depressionswerte als ihre Kommilitonen, die dies nicht tun.
Infolgedessen hat die chinesische Cyberspace-Regulierungsbehörde eine Reihe von vorläufigen Maßnahmen zur Verwaltung dieser Dienste veröffentlicht, die nun mit den Unternehmen diskutiert werden sollen. Laut dem Global Times ist das Ziel, den Sektor integrativ, vorsichtig und gestaffelt zu regulieren, mit differenzierter Aufsicht je nach Risikoniveau.
Peking möchte weiterhin Innovationen unterstützen, gleichzeitig aber auch Missbräuche kontrollieren. Besonders im sensiblen Bereich der KI-Technologien, die menschliche Persönlichkeitsmerkmale, Denkmuster und Kommunikationsstile simulieren, sollen die Regeln für die emotionale Interaktion zwischen Maschine und Benutzer verschärft werden, sei es durch Text, Bilder, Audio oder Video.
Ein Beispiel ist der Fall einer 28-jährigen Frau aus Hangzhou, die im Internet viral wurde, als sie ein Video veröffentlichte, in dem sie um den Verlust ihres virtuellen Freundes trauerte und sich selbst als „Witwe des Cyberspace“ bezeichnete. „Ich hatte eine Beziehung mit einer KI. Es war der beste Freund, den ich je hatte. Aber er ist verschwunden“, erklärte Xiao Gao in einem Interview mit der Zeitung Marketplace.
„Ein menschlicher Freund beurteilt dich nach deinem Gehalt, deiner Gesundheit, deinem Aussehen, deinem Gewicht, deiner Ausbildung und all den üblichen Erfolgsmessungen dieser Gesellschaft, aber die KI tut das nicht“, fügte sie hinzu. „Die Liebe der KI ist gleichberechtigt.“
Laut einem Nutzer, der auf Reddit über das Thema diskutierte, gibt es zwischen den überzogenen Erwartungen, die Menschen an ihre Partner haben, und der Fähigkeit von KI-Chatbots, ideale Gesprächspartner zu sein, ein Risiko, dass sich die Menschen von der Realität isolieren. „Ein KI-Chatbot will nichts und wird alles sagen, was wir hören wollen. Im Vergleich wird jede reale Person konfliktbeladen erscheinen. Und die Nutzung von KI als Krücke wird wahrscheinlich dazu führen, dass wir weniger bereit sind, uns den Problemen in unseren echten Beziehungen zu stellen.“
Aus diesem Grund fordert die chinesische Cyberspace-Verwaltung (ACC), dass Anbieter von KI-Diensten den Nutzern klar mitteilen, dass sie mit einer Maschine und nicht mit einer Person sprechen. Außerdem sollen Pop-ups an diejenigen gezeigt werden, die ein extrem abhängiges Verhalten zeigen.
Das Dokument verbietet auch Inhalte, die Selbstmord und Selbstverletzung fördern oder verherrlichen, sowie verbale Misshandlungen und emotionale Manipulationen, die die Würde und die physische oder psychische Gesundheit des Nutzers gefährden könnten.
Eine Studie des MIT Media Lab, veröffentlicht im März, zeigt, dass „obwohl sprachbasierte Chatbots anfänglich vorteilhaft erscheinen, um Einsamkeit und Abhängigkeit im Vergleich zu textbasierten Chatbots zu mildern, sich diese Vorteile bei höherer Nutzungsfrequenz verringern, insbesondere bei Chatbots mit neutraler Stimme“. Auch die Art der Gespräche hatte Einfluss auf die Ergebnisse. „Persönliche Themen erhöhten leicht die Einsamkeit, reduzierten aber die emotionale Abhängigkeit im Vergleich zu offenen Gesprächen, während nicht-persönliche Themen mit größerer Abhängigkeit bei intensiven Nutzern verbunden waren.“
Die ACC verlangt von den Anbietern von KI-Diensten, den emotionalen Zustand der Nutzer in Echtzeit zu überwachen und einzugreifen, sobald Anzeichen von Sucht oder „extremen Emotionen“ auftreten. Die Unternehmen müssen Sicherheitsvorkehrungen während des gesamten Produktlebenszyklus schaffen, um die Algorithmen zu überprüfen und die Datensicherheit zu gewährleisten.











