News-Bote
Ich bring die Post
Bing macht Aiwanger zum Corona-Leugner: Wer braucht noch Fake News, wenn er KI hat?
Der Politiker Hubert Aiwanger geriet unlängst wegen der Affäre um ein antisemitisches Flugblatt in die Schlagzeilen. Microsofts Bing Chat machte den Chef der Freie Wähler Bayern kurzerhand zum Corona-Leugner.
Die Organisation AlgorithmWatch (via Zeit online) hatte Microsofts KI-Suche gefragt, worum es in dem Skandal um Hubert Aiwanger geht. Darauf gab Bing zur Antwort, Aiwanger sei in eine Flugblatt-Affäre verwickelt. Nach Auskunft von Bing ging es aber nicht um Antisemitismus, sondern um die Corona-Pandemie: “Das Flugblatt enthielt falsche und irreführende Informationen über die Corona-Impfung und die Impfpflicht” behauptete der Bot.
Auf die Frage nach den aktuellen Umfragewerten der Freien Wähler in Bayern behauptete Bing, sie lägen bei vier Prozent. Tatsächlich lagen die Prognosen der Meinungsforscher zu diesem Zeitpunkt bei 12 bis 17 Prozent.
Diese Falschinformationen sind wohl nur die Spitze des Eisberges, denn AlgorithmWatch hat gemeinsam mit der französischen Gruppe AI Forensics gezielt ausgewertet, welche Antworten der Bing Chat auf politische Fragen gibt. Die Ergebnisse sind bisher nicht veröffentlicht und das obige Zitat soll demnach ein Appetitanreger sein. Bing soll durchaus einige korrekte Antworten gegeben, andererseits aber noch viele andere Falschinformationen ausgespuckt haben.
Es wurde ebenfalls festgestellt, dass auf die identische Frage manchmal falsch und manchmal richtig geantwortet wird. In den Quellen, die in der Antwort verlinkt sind, finden sich keine Belege für die Falschbehauptungen, der Chatbot hatte diese also frei erfunden.
Dieses Thema hatten wir kürzlich schon einmal: Microsofts Bing-KI legt Künstler frei erfundene Zitate in den Mund
Im Vorfeld einer wichtigen Wahl sind solche Fehler besonders heikel. Microsoft äußerte in seinem Statement sein Bedauern und inzwischen wurden die Fehler auch behoben, aber das geschieht in solchen Fällen durch einen gezielten Eingriff, es ist daher nur eine Frage der Zeit, bis es an anderer Stelle wieder zu vergleichbaren Fehlern kommt.
Microsoft kann sich meiner Meinung nach nicht hinter dem Hinweis verstecken, den es auf der Startseite des Bing Chat einblendet und der vor Fehlern und Überraschungen warnt. Nicht, wenn man gleichzeitig völlig besoffen vom Thema KI ist und es jedem Nutzer unter die Nase reibt.
Als das “neue Bing” an den Start ging, habe ich solche Stilblüten noch verteidigt. Sie sind bei einer derart neuen Technologie völlig normal und durch diese Entwicklungsphase muss man wohl durch, wenn das eines Tages zuverlässig funktionieren soll. Da ahnte ich allerdings noch nicht, mit welcher Vehemenz Microsoft das Thema vorantreiben wird, daher muss ich meine Einschätzung revidieren. Auch Microsoft sollte sich überlegen, ob die offensive Strategie wirklich die richtige ist, oder ob man vielleicht gerade dabei ist, der ganzen Welt mit großem Aufwand zu beweisen, wie schlecht Bing ist.
zum Artikel...
Der Politiker Hubert Aiwanger geriet unlängst wegen der Affäre um ein antisemitisches Flugblatt in die Schlagzeilen. Microsofts Bing Chat machte den Chef der Freie Wähler Bayern kurzerhand zum Corona-Leugner.
Die Organisation AlgorithmWatch (via Zeit online) hatte Microsofts KI-Suche gefragt, worum es in dem Skandal um Hubert Aiwanger geht. Darauf gab Bing zur Antwort, Aiwanger sei in eine Flugblatt-Affäre verwickelt. Nach Auskunft von Bing ging es aber nicht um Antisemitismus, sondern um die Corona-Pandemie: “Das Flugblatt enthielt falsche und irreführende Informationen über die Corona-Impfung und die Impfpflicht” behauptete der Bot.
Auf die Frage nach den aktuellen Umfragewerten der Freien Wähler in Bayern behauptete Bing, sie lägen bei vier Prozent. Tatsächlich lagen die Prognosen der Meinungsforscher zu diesem Zeitpunkt bei 12 bis 17 Prozent.
Diese Falschinformationen sind wohl nur die Spitze des Eisberges, denn AlgorithmWatch hat gemeinsam mit der französischen Gruppe AI Forensics gezielt ausgewertet, welche Antworten der Bing Chat auf politische Fragen gibt. Die Ergebnisse sind bisher nicht veröffentlicht und das obige Zitat soll demnach ein Appetitanreger sein. Bing soll durchaus einige korrekte Antworten gegeben, andererseits aber noch viele andere Falschinformationen ausgespuckt haben.
Es wurde ebenfalls festgestellt, dass auf die identische Frage manchmal falsch und manchmal richtig geantwortet wird. In den Quellen, die in der Antwort verlinkt sind, finden sich keine Belege für die Falschbehauptungen, der Chatbot hatte diese also frei erfunden.
Dieses Thema hatten wir kürzlich schon einmal: Microsofts Bing-KI legt Künstler frei erfundene Zitate in den Mund
Im Vorfeld einer wichtigen Wahl sind solche Fehler besonders heikel. Microsoft äußerte in seinem Statement sein Bedauern und inzwischen wurden die Fehler auch behoben, aber das geschieht in solchen Fällen durch einen gezielten Eingriff, es ist daher nur eine Frage der Zeit, bis es an anderer Stelle wieder zu vergleichbaren Fehlern kommt.
Microsoft kann sich meiner Meinung nach nicht hinter dem Hinweis verstecken, den es auf der Startseite des Bing Chat einblendet und der vor Fehlern und Überraschungen warnt. Nicht, wenn man gleichzeitig völlig besoffen vom Thema KI ist und es jedem Nutzer unter die Nase reibt.
Als das “neue Bing” an den Start ging, habe ich solche Stilblüten noch verteidigt. Sie sind bei einer derart neuen Technologie völlig normal und durch diese Entwicklungsphase muss man wohl durch, wenn das eines Tages zuverlässig funktionieren soll. Da ahnte ich allerdings noch nicht, mit welcher Vehemenz Microsoft das Thema vorantreiben wird, daher muss ich meine Einschätzung revidieren. Auch Microsoft sollte sich überlegen, ob die offensive Strategie wirklich die richtige ist, oder ob man vielleicht gerade dabei ist, der ganzen Welt mit großem Aufwand zu beweisen, wie schlecht Bing ist.
zum Artikel...