Nein, ich spreche nicht vom Schalke-Fan im Borussia-Block oder vom Asylbewerber beim AfD-Parteitag. Es geht um den Umgang mit Sprachassistenten wie Siri, Alexa, Google, Bixby und wie sie alle heißen. Bislang habe ich mich mit dem Thema nicht eingehender befasst, weil ich die neue Technik kaum nutze. Den Aufbau einer Telefonverbindung im Auto per Sprachbefehl halte ich für eine gute Sache. Aber nur deshalb, weil ich meine Hände und vor allem meine Augen lieber für die Kontrolle des Autos einsetze.
Aber heimzukommen und Siri anzuweisen, sie möge das Licht anmachen? Oder auf dem Sofa liegend Alexa zu bitten, den Fernseher einzuschalten? Bei solchen Sachen fehlt mir einfach der Vorteil. Lichtschalter und Fernbedienung sind Erfindungen, mit denen es kein Sprachassistent aufnehmen kann. Zumindest bei mir. Möglicherweise würde ich anders denken, wenn ich meine täglichen Tätigkeiten genauer analysierte und dann prüfte, was Google für mich tun könnte.
Heute habe ich dann aber einen Artikel in der NZZ gelesen, der dafür sorgt, dass ich mich auch weiterhin nicht intensiver mit einer Lösung befassen werde, dessen Problem sich mir nicht stellt. Natürlich ist alles immer eine Frage des Vertrauens. Wie und wofür werden meine Daten verwendet. Wenn die KI allerdings in der Lage ist, Details zu erkennen (und zu speichern und zu verarbeiten und zu verkaufen), die ich nicht preisgeben will oder mir nicht einmal bewusst ist, dass ich sie non-verbal preisgeben könnte, dann ist das für mich zumindest Anlass, die Nutzung kritischer zu hinterfragen.
Und Ihr so?
Aber heimzukommen und Siri anzuweisen, sie möge das Licht anmachen? Oder auf dem Sofa liegend Alexa zu bitten, den Fernseher einzuschalten? Bei solchen Sachen fehlt mir einfach der Vorteil. Lichtschalter und Fernbedienung sind Erfindungen, mit denen es kein Sprachassistent aufnehmen kann. Zumindest bei mir. Möglicherweise würde ich anders denken, wenn ich meine täglichen Tätigkeiten genauer analysierte und dann prüfte, was Google für mich tun könnte.
Heute habe ich dann aber einen Artikel in der NZZ gelesen, der dafür sorgt, dass ich mich auch weiterhin nicht intensiver mit einer Lösung befassen werde, dessen Problem sich mir nicht stellt. Natürlich ist alles immer eine Frage des Vertrauens. Wie und wofür werden meine Daten verwendet. Wenn die KI allerdings in der Lage ist, Details zu erkennen (und zu speichern und zu verarbeiten und zu verkaufen), die ich nicht preisgeben will oder mir nicht einmal bewusst ist, dass ich sie non-verbal preisgeben könnte, dann ist das für mich zumindest Anlass, die Nutzung kritischer zu hinterfragen.
Und Ihr so?
Zuletzt bearbeitet: