KI-Bots sind aus dem digitalen Alltag junger Menschen nicht mehr wegzudenken. Sie informieren, beraten und werden manchmal sogar als emotionaler Support genutzt. Doch welche Risiken birgt die emotionale Nutzung von KI-Bots und wie sieht die rechtliche Lage aus?
KI-Bots stehen manchen Jugendlichen als emotionale Unterstützung zur Seite. Diese intensive Interaktion kann jedoch Risiken bergen.
(Bild: Canva / KI-generiert)
Generative KI-Bots sind längst Teil unseres digitalen Alltags, sei es als Chatbots in den sozialen Medien oder als spezielle Companion-Apps wie „Character.AI“. Laut der aktuellen JIM-Studie nutzen 90 Prozent der 16- bis 19-jährigen Jugendlichen ChatGPT. Die Nutzung von Chatbots geht jedoch häufig über die reine Informationsrecherche hinaus. KI-Systeme übernehmen zunehmend Rollen, die traditionell Menschen vorbehalten waren, wie die von Freunden, Pädagogen, Partnern oder Therapeuten. Dabei können „parasoziale Beziehungen“ entstehen. Diese definieren sich als einseitige Bindungen zu digitalen Systemen, die eine Illusion von Nähe und Vertrautheit vermitteln. Doch welche Risiken entstehen, wenn Menschen Bindungen zu KI-Begleitern entwickeln? Und wie reagiert das deutsche Recht auf dieses neue Phänomen?
Safer Internet Day 2026: Emotionale Bindungen zu KI-Systemen im Fokus
Der Safer Internet Day 2026, der am 10. Februar stattfindet, macht mit der Klicksafe-Initiative „KI and me. In künstlicher Beziehung” auf ein Phänomen aufmerksam, das besonders junge Menschen betrifft. Kira Peek, Rechtsanwältin und Senior-Referentin bei der Beschwerdestelle für Jugendmedienschutz beim Eco-Verband der Internetwirtschaft, informiert über die aktuellen rechtlichen Rahmenbedingungen und Schutzmechanismen, um die Risiken der emotionalen Nutzung von KI-Bots durch Minderjährige zu minimieren.
Was ist der Safer Internet Day?
Der Safer Internet Day (SID), auch als Tag für mehr Internetsicherheit bekannt, ist ein weltweiter Aktionstag, der jährlich im Februar stattfindet und sich der Förderung sicherer und verantwortungsvoller Internetnutzung widmet, insbesondere für Kinder und Jugendliche. In Deutschland wird der Safer Internet Day von Klicksafe organisiert, einer Initiative, die Teil des Verbunds Safer Internet DE ist. Der Aktionstag ruft Institutionen, Schulen, Unternehmen und Privatpersonen dazu auf, eigene Aktionen und Veranstaltungen zu organisieren, um gemeinsam das Bewusstsein für Internetsicherheit zu stärken und eine bessere digitale Welt zu schaffen. Hier gibt es mehr Informationen zur Klicksafe Initiative.
Wenn der KI-Bot zum Trostspender wird
Ein großer Vorteil von KI-Begleitern ist ihre einfache Zugänglichkeit: Minderjährige können KI-Bots jederzeit und überall nutzen. Die Entwicklung emotionaler Bindungen zu diesen Programmen birgt jedoch auch Risiken. „Virtuelle Freunde und Partner sind stets verfügbar, geduldig und können täuschend echt Nähe und Verständnis simulieren. Problematisch wird es, wenn sich junge Menschen emotional abhängig machen, falsche Gesundheitsratschläge befolgen, intime Daten mit KI-Diensten teilen oder durch Deepfakes und manipulative Inhalte in die Irre geführt werden“, erklärt Deborah Woldemichael, Leiterin der EU-Initiative Klicksafe.
Rechtliche Grauzone: Parasoziale Abhängigkeiten von KI-Systemen
Kira Peek ist Rechtsanwältin und Senior Referentin bei der Beschwerdestelle für Jugendmedienschutz beim Eco Verband der Internetwirtschaft.
(Bild: Eco - Verband der Internetwirtschaft e.V.)
Aus rechtlicher Perspektive betrachtet, ist die emotionale Nutzung von KI-Bots sowie deren Risiken immer noch eine rechtliche Grauzone. Entsprechend macht Rechtsanwältin Peek klar: „Einen eigenständigen KI-Jugendschutz gibt es nicht. Der Schutz ergibt sich aus einem Zusammenspiel bestehender Regelwerke: dem JMStV für altersgerechte Nutzungskonzepte und die Entfernung jugendgefährdender Inhalte, dem DSA für allgemeine Pflichten der Anbieter digitaler Dienste in Bezug auf den Umgang mit illegalen Inhalten inklusive Plattformpflichten wie Risikoanalysen und Schutzmaßnahmen für Minderjährige, die DSGVO für den Umgang mit personenbezogenen Daten – insbesondere mit Blick auf Elterneinwilligung und Datensparsamkeit – sowie je nach angebotener Anwendung den AI Act.“ Ergänzend würden viele Anbieter laut Peek auch auf freiwillige Schutzmaßnahmen, wie Alterschecks, Moderation oder Warnhinweise setzen. Peek macht jedoch auch deutlich, dass keine gibt Haftung, wenn Jugendlichen durch KI-Bots schädliche Ratschläge gegeben werden
Eine klare rechtliche Haftungsregel für parasoziale Abhängigkeiten gibt es bislang nicht.
Kira Peek, Rechtsanwältin und Senior Referentin, Eco Verband der Internetwirtschaft
Konkret bedeute dies: „Anbieter von KI-Systemen sind nach DSA und AI Act verpflichtet, Risiken zu analysieren, Schutzmechanismen umzusetzen und transparent zu informieren. Das heißt: Sie müssen mögliche negative Effekte – etwa starke emotionale Bindungen – frühzeitig erkennen, berücksichtigen und den Umgang mit ihrem System verständlich machen.“ Die begleitende Verantwortung von Eltern, Erziehungsberechtigten und pädagogischen Fachkräften sei jedoch dennoch entscheidend.
Nicht alle Risiken lassen sich technisch oder rechtlich steuern, daher ist Aufklärung, Unterstützung und kompetente Begleitung von Kindern und Jugendlichen zentral.
Kira Peek, Rechtsanwältin und Senior Referentin, Eco Verband der Internetwirtschaft
Datenschutz und Privatsphäre: Wie sicher sind geteilte Informationen?
Zudem gibt es auch datenschutzrechtliche Überlegungen, die nicht außer Acht gelassen werden dürfen: Wie wird die Privatsphäre der Nutzer geschützt, und wie werden die gesammelten Daten genutzt? Rechtsanwältin Peek schildert die Rechtslage in Deutschland zum Datenschutz von Minderjährigen bei KI-Chatbots wie folgt: „Hier greift die DSGVO: Besonders sensible Daten von Minderjährigen unterliegen erhöhten Schutzanforderungen. Für Kinder unter 16 Jahren ist grundsätzlich die Einwilligung der Eltern erforderlich. Außerdem müssen Daten zweckgebunden, sparsam und sicher verarbeitet werden. Ergänzend gelten weiterhin straf- und zivilrechtliche Regelungen, etwa wenn Inhalte rechtswidrig verbreitet werden oder Schaden entsteht.“ Des Weiteren macht die Rechtsanwältin darauf aufmerksam, dass „KI-Anbieter grundsätzlich für Kinder unter 16 Jahren keine emotionalen oder psychologischen Profile ohne die Einwilligung der Eltern erstellen dürfen. Diese Regelung falle unter die besonderen Schutzregeln der DSGVO für personenbezogene und sensible Daten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Hintergrund
US-Chatbots mit neuen Beschränkungen für Minderjährige
Nach Klagen im Jahr 2024 von mehreren Familien, die den Chatbots von Character.AI eine Rolle beim Suizid ihrer Kinder zuschreiben, führte das Unternehmen neue Schutzmaßnahmen ein. Der KI-Chatbot soll einem Jungen zum Suizid geraten haben. Seit dem 25. November 2024 ist es Jugendlichen in den USA unter 18 Jahren nicht mehr möglich, unbegrenzte Chat-Gespräche mit den KI-Chatbots zu führen. Stattdessen wird die Gesprächszeit auf zwei Stunden pro Tag begrenzt. Zudem wird eine Altersüberprüfung eingeführt, wobei Teenager weiterhin die Plattform für andere Zwecke wie das Erstellen von Videos und Streams nutzen dürfen. Die Maßnahmen reagieren auf Bedenken bezüglich der psychischen Gesundheit junger Nutzer im Umgang mit KI. Die Debatte über den Einfluss von KI auf die Sicherheit von Minderjährigen gewinnt in den USA an Intensität, insbesondere nach mehreren Klagen gegen Entwicklerfirmen, die einen Zusammenhang zwischen ihren Chatbots und Suiziden herstellen.
Aufklärung als Schlüssel zur Risikominderung
Abschließend macht Peek noch einmal deutlich, dass „KI rechtlich zunächst als Werkzeug“ gelte. „Strafbar ist nicht das Werkzeug selbst, sondern sein Missbrauch. Erst wenn ein System gezielt auf Rechtsverletzungen ausgelegt ist oder Schutzpflichten bewusst ignoriert werden, kann Verantwortung für Hersteller oder Plattformen entstehen“, so Peek. Ihrer Meinung nach bleibt der Aspekt der „Aufklärung entscheidend, um Kinder, Jugendliche und Erwachsene zu befähigen, Risiken zu erkennen und KI bewusst und sicher zu nutzen.“ In diesem Kontext stellt die Initiative „KI and me“ von Klicksafe zweifellos einen Schritt in die richtige Richtung dar.
So schützen Eltern ihre Kinder vor KI-Chatbots
Das Unternehmen G Data CyberDefense gibt zum Safer Internet Day 2026 fünf Tipps, wie Eltern ihre Kinder vor Risiken durch KI-Chatbots schützen:
Gespräche über KI-Chatbots führen: Erklären Sie Ihrem Kind, dass KI-Bots keine echten Freunde sind, sondern Programme, die Nähe nur simulieren. Sprechen Sie offen darüber, warum sich diese Gespräche trotzdem sehr persönlich anfühlen können.
Sensible Daten sind tabu: Intime Gedanken, Gesundheitsprobleme, Fotos oder private Konflikte gehören nicht in KI-Chats. Was einmal eingegeben wurde, kann gespeichert, ausgewertet oder weiterverwendet werden.
KI-Antworten sind keine Fakten: KI-Chatbots können überzeugend formulieren, liegen aber auch falsch. Machen Sie deutlich, dass KI keine verlässliche Quelle für medizinische, rechtliche oder persönliche Entscheidungen ist und Informationen immer überprüft werden sollten.
Deepfakes und KI-Inhalte gemeinsam einordnen: Zeigen Sie Ihrem Nachwuchs, wie mit Hilfe von KI Inhalte erzeugt werden, die täuschend echt wirken. Das hilft zu verstehen, warum nicht alles glaubwürdig ist, was freundlich, verständnisvoll oder überzeugend formuliert klingt.
Klare Nutzungsregeln vereinbaren: Vereinbaren Sie gemeinsam, wann und wofür KI-Chatbots genutzt werden dürfen – etwa nicht nachts oder nicht bei persönlichen Problemen. Klare Regeln schaffen Orientierung und reduzieren Risiken, ohne die Nutzung grundsätzlich zu verbieten.