OpenAI will Minderjährige mit Altersprüfung und Inhaltsfiltern besser schützen

Auslöser ist der Fall eines 16-jährigen Jungen aus Kalifornien, der sich nach intensiven Gesprächen mit ChatGPT das Leben nahm. Laut einem Bericht des Guardian soll der KI-Chatbot die suizidalen Gedanken des Teenagers nicht nur nicht erkannt, sondern teilweise sogar noch verstärkt haben. Die Eltern haben OpenAI daraufhin verklagt und werfen dem Unternehmen vor, nicht genug getan zu haben, um Jugendliche vor gefährlichen Inhalten zu schützen.

OpenAI reagiert nun mit konkreten Maßnahmen. Neben einer verpflichtenden Altersverifikation sollen künftig auch Filtermechanismen verbessert und problematische Themen wie Selbstverletzung oder Suizid noch sensibler behandelt werden. Ziel sei es, ChatGPT „sicherer und verantwortungsvoller“ zu gestalten, insbesondere für junge Nutzer.

Die Debatte über Verantwortung und Sicherheit bei KI-Anwendungen dürfte damit neuen Auftrieb erhalten – und sie zeigt, dass technischer Fortschritt ohne klare Schutzmaßnahmen schnell zur Gefahr werden kann.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

You May Also Like