News-Bote
Ich bring die Post
Halluzinierende KI: US-Staatsanwälte drohen Entwicklern mit rechtlichen Konsequenzen
Mehrere Generalstaatsanwälte in den USA haben die Anbieter von KI-Diensten vor rechtlichen Konsequenzen gewarnt, wenn die generierten KI-Antworten allzu sehr abschweifen, mit der Realität nichts mehr zu tun haben oder gar gegen geltendes Recht verstoßen.
Es gehört zu den bekannten Kinderkrankheiten der Künstlichen Intelligenz, dass die Chatbots mitunter „halluzinieren“. Auf Fragen, die mit eindeutig belegbaren Fakten beantwortet werden könnten, liefern Copilot, ChatGPT, Gemini und Co. mitunter vollkommen falsche oder irreführende Informationen.
In einem offenen Brief (via TechCrunch) an 13 Unternehmen, darunter Microsoft, Google, OpenAI, Meta und Perplexity, warnen die über 40 Unterzeichner vor rechtlichen Konsequenzen durch bedenkliche KI-Antworten. Neben offensichtlichen Falschbehauptungen geht es dabei auch darum, dass KI-Chatbots gelegentlich zu Straftaten „auffordern“. Es sind zudem Extremfälle bekannt, in denen Nutzern ein Suizid als möglicher Ausweg aus persönlichen Problemen aufgezeigt wurde.
Um den Ernst der Lage darzulegen, sind in dem Brief gleich mehrere Todesfälle aufgezählt, für die generative KI-Dienste zumindest mitverantwortlich sein sollen. Zudem listen die Verfasser mehrere Beispiele von verstörenden Antworten der Chatbots in Bezug auf Kinder auf. So wurden etwa sexuelle Handlungen zwischen Kindern und Erwachsenen als „normal“ bezeichnet. In einem anderen Fall gab die KI Tipps, wie man eine 12-Jährige zum Sex verführt.
Die Staatsanwälte verweisen auf eine Reihe von Gesetzen, gegen die KI-Bots in ihrer aktuellen Form regelmäßig verstoßen. Dazu gehört die Pflicht, vor den Risiken eines Produkts gebührend zu warnen. Oder das Verbot, für ein Produkt mit offensichtlichen Fehlern zu werben. Zudem sei es fraglich, ob auch die Antworten auf Gesundheitsfragen – eines der Top-Themen bei Konversationen mit KI-Bots – gegen geltendes Recht verstoßen. Gesundheitsberatung erfordert eine Lizenz, welche die Anbieter nicht haben.
Alle Anbieter sind aufgefordert, gründlichere Tests durchzuführen und zusätzliche Sicherheitsprüfungen einzubauen, um möglicherweise illegale Handlungen der Chatbots zu vermeiden. Sollte sich an der gegenwärtigen Situation nichts ändern, könnten Entwickler dafür persönlich in die Haftung genommen und strafrechtlich verfolgt werden.
Das Thema KI polarisiert nach wie vor stark, und meistens gibt es in den Diskussionen nur Schwarz und Weiß. Ich bin grundsätzlich aufgeschlossen und glaube an die positiven Auswirkungen. Dennoch gibt es keinen Zweifel: Der Hype insbesondere um generative KI ist der wahrscheinlich größte und teuerste öffentliche Alpha-Test aller Zeiten. Kein einziger Dienst ist derzeit reif für den produktiven Einsatz, das sagen die Anbieter ja mehr oder weniger selbst.
Es kann nicht sein, dass ein simples „kann Fehler machen“ die Hersteller komplett aus der Pflicht nimmt und ihren KI-Diensten einen Freibrief erteilt, vollkommen durchzudrehen.
Der Beitrag Halluzinierende KI: US-Staatsanwälte drohen Entwicklern mit rechtlichen Konsequenzen erschien zuerst auf Dr. Windows.
zum Artikel...
Mehrere Generalstaatsanwälte in den USA haben die Anbieter von KI-Diensten vor rechtlichen Konsequenzen gewarnt, wenn die generierten KI-Antworten allzu sehr abschweifen, mit der Realität nichts mehr zu tun haben oder gar gegen geltendes Recht verstoßen.
Es gehört zu den bekannten Kinderkrankheiten der Künstlichen Intelligenz, dass die Chatbots mitunter „halluzinieren“. Auf Fragen, die mit eindeutig belegbaren Fakten beantwortet werden könnten, liefern Copilot, ChatGPT, Gemini und Co. mitunter vollkommen falsche oder irreführende Informationen.
In einem offenen Brief (via TechCrunch) an 13 Unternehmen, darunter Microsoft, Google, OpenAI, Meta und Perplexity, warnen die über 40 Unterzeichner vor rechtlichen Konsequenzen durch bedenkliche KI-Antworten. Neben offensichtlichen Falschbehauptungen geht es dabei auch darum, dass KI-Chatbots gelegentlich zu Straftaten „auffordern“. Es sind zudem Extremfälle bekannt, in denen Nutzern ein Suizid als möglicher Ausweg aus persönlichen Problemen aufgezeigt wurde.
Tod durch KI?
Um den Ernst der Lage darzulegen, sind in dem Brief gleich mehrere Todesfälle aufgezählt, für die generative KI-Dienste zumindest mitverantwortlich sein sollen. Zudem listen die Verfasser mehrere Beispiele von verstörenden Antworten der Chatbots in Bezug auf Kinder auf. So wurden etwa sexuelle Handlungen zwischen Kindern und Erwachsenen als „normal“ bezeichnet. In einem anderen Fall gab die KI Tipps, wie man eine 12-Jährige zum Sex verführt.
Die Staatsanwälte verweisen auf eine Reihe von Gesetzen, gegen die KI-Bots in ihrer aktuellen Form regelmäßig verstoßen. Dazu gehört die Pflicht, vor den Risiken eines Produkts gebührend zu warnen. Oder das Verbot, für ein Produkt mit offensichtlichen Fehlern zu werben. Zudem sei es fraglich, ob auch die Antworten auf Gesundheitsfragen – eines der Top-Themen bei Konversationen mit KI-Bots – gegen geltendes Recht verstoßen. Gesundheitsberatung erfordert eine Lizenz, welche die Anbieter nicht haben.
Entwicklern droht persönliche Haftung
Alle Anbieter sind aufgefordert, gründlichere Tests durchzuführen und zusätzliche Sicherheitsprüfungen einzubauen, um möglicherweise illegale Handlungen der Chatbots zu vermeiden. Sollte sich an der gegenwärtigen Situation nichts ändern, könnten Entwickler dafür persönlich in die Haftung genommen und strafrechtlich verfolgt werden.
Das Thema KI polarisiert nach wie vor stark, und meistens gibt es in den Diskussionen nur Schwarz und Weiß. Ich bin grundsätzlich aufgeschlossen und glaube an die positiven Auswirkungen. Dennoch gibt es keinen Zweifel: Der Hype insbesondere um generative KI ist der wahrscheinlich größte und teuerste öffentliche Alpha-Test aller Zeiten. Kein einziger Dienst ist derzeit reif für den produktiven Einsatz, das sagen die Anbieter ja mehr oder weniger selbst.
Es kann nicht sein, dass ein simples „kann Fehler machen“ die Hersteller komplett aus der Pflicht nimmt und ihren KI-Diensten einen Freibrief erteilt, vollkommen durchzudrehen.
Der Beitrag Halluzinierende KI: US-Staatsanwälte drohen Entwicklern mit rechtlichen Konsequenzen erschien zuerst auf Dr. Windows.
zum Artikel...