Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Achtung, Fake-Menschen!

Jannis Brühl
Redakteur
Zum Kurator'innen-Profil
Jannis BrühlSonntag, 16.07.2023

Dieser Text des Philosophieprofessors Daniel Dennett im Atlantic lenkt den Blick auf eine konkrete Gefahr, die in der KI-Debatte zwischen Schlagworten wie "Fake News" und "Desinformation" untergeht: Die Tatsache, dass es sehr leicht geworden ist, künstliche Menschen zu erzeugen. Dennett meint damit Avatare, die mit KI-Unterstützung in den digitalen Sphären, in denen sich immer mehr Menschen immer öfter bewegen, unterwegs sind, und zwar mit bösartigen Aufträgen (von wem auch immer). Die Erschaffung solcher täuschend echter Entitäten sieht er als "antisozialen Akt des Vandalismus":

Today, for the first time in history, thanks to artificial intelligence, it is possible for anybody to make counterfeit people who can pass for real in many of the new digital environments we have created. These counterfeit people are the most dangerous artifacts in human history, capable of destroying not just economies but human freedom itself. Before it’s too late (it may well be too late already) we must outlaw both the creation of counterfeit people and the “passing along” of counterfeit people.

Dennetts Aufruf mag alarmistisch klingen, und er ist auch kein Computerexperte (und Jahrgang 1942). Aber er hat eine realistische Gefahr erkannt, die von generativer KI ausgeht und die wahrscheinlicher ist als die "Existential-Risk"-Szenarien der KI-Doomer. Sie versuchen, eine allwissende KI herbeizufantasieren, die uns alle unterjocht. Dennett schreibt dagegen, was KI tatsächlich schon heute ist: ein automatisierbares, skalierbares Werkzeug, unsere Wahrnehmung auszutricksen und uns zu täuschen. Er zählt konkrete Schritte auf, wie der Gefahr zu begegnen ist:

  • Ein oder mehrere Wasserzeichen müssen her – wie beim Geld. Dazu braucht es die weltweite Zusammenarbeit aller relevanter Akteure. So wie – wer hätte es gewusst? – die Hersteller von Druckern und Scannern mithelfen, Falschgeld aus dem Verkehr zu halten.
  • Google, Open AI und andere Unternehmen müssen für Schäden haften, die Fälschungen ihrer Software anrichten
  • Virtuelle Fake-Personen zu erstellen, muss sozial geächtet werden

Ein etwas arg pathetisch geschriebener, in seiner Kürze aber kraftvoller Debattenbeitrag zum Thema.

Achtung, Fake-Menschen!

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.