sharing is caring
ist wirklich so!
Vielen Dank fürs Teilen!
Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.
Kurator'in für: Klima und Wandel Fundstücke
Ole hat für die Bertelsmann Stiftung die internationale Blogger-Plattform Futurechallenges.org aufgebaut und beschäftigt sich dort nun mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er ist Co-Founder der Menschenrechtsplattform www.futurechallenges.org und befasst sich mit der Fragen der Globalisierung, der Zukunft der Arbeit und mit den Wechselwirkungen von Digitalisierung und Nachhaltigkeit. Er schreibt auch auf www.netzpiloten.de, ist u.a. als selbständiger Berater zu digitalen Trends tätig und ist im Beirat des Colab_Digital aktiv. Alle hier geposteten Texte geben ausschließlich seine private Meinung wieder.
Übernehmen die Roboter und künstlichen Intelligenzen (KI) irgendwann die Welt? Stellt die Technik im darwinistischen Sinne die Weiterentwicklung menschlicher Intelligenz dar? Schon oft wurde diese Frage gestellt. Dabei ging es aber um die Frage, ob dies "gewünscht" sei und aktiv "gesteuert" werden könne. In diesem Beitrag, der auf aktuellen Forschungen von Menschen, die u. a. bei Deep Mind involviert sind, basiert, geht es hingegen um die der Fortentwicklung von KI innewohnende Dynamik infolge eines eingebauten Belohnungssystems. Dieses Belohnungssystem ist Teil der "Generative Adversarial Networks" und Ausgangspunkt für die These, dass dieser innewohnende Drang der KI, sich beständig zu verbessern, zwangsläufig irgendwann der Menschheit schaden wird.
"What the new paper proposes is that at some point in the future, an advanced AI overseeing some important function could be incentivized to come up with cheating strategies to get its reward in ways that harm humanity."
Die Autoren sehen gerade in dieser darwinistischen Dynamik im Kontext einer Welt mit begrenzten Ressourcen irgendwann den Zeitpunkt gekommen, an dem Menschen und KI um die knappen Ressourcen und Energiequellen konkurrieren werden.
Bereits heute agieren Algorithmen (als Untermenge der KI) als "Agenten" zwischen Menschen, ohne dass diese die Agenten kontrollieren oder hinterfragen können; von dort bis hin zu einer KI, die versteht, wie sie die Menschen zum eigenen Vorteil gegeneinander ausspielen kann, ist es nur ein relativ kurzer Weg.
Die Autoren des Forschungspapiers rufen dazu auf, sich rechtzeitig Gedanken über die Einzäunung einer solchen KI und der für die Einzäunung zugrunde liegenden Ethik zu machen, fragen sich aber gleichzeitig:
"But, what are ethics? How do we actually define it?"
Mir scheint, dass die Debatte um die Ethik der Algorithmen in den letzten Jahren nicht vom Platz gekommen ist. Oder täusche ich mich?
Quelle: Edward Ongweso Jr. EN www.vice.com
Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.
Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!
Öffne deinen Podcast Feed in AntennaPod:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Downcast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Instacast:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Apple Podcasts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Podgrasp:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.
Wenn du fertig bist,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in gpodder.net:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Öffne deinen Podcast Feed in Pocket Casts:
Wenn alles geklappt hat,
kannst du das Fenster schließen.
Natürlich sind AIs immer eine Unterkategorie von Algorithmen und nicht umgekehrt weil Algoritmen > Digitalität, sie sind nur dann keine Unterkategorie von Algorithmen, wenn wir in einer Simulation leben, aber egal :)
Klar hat die Debatte um AI-Ethik Fortschritte gemacht, einen ganzen Industriezweig entwickelt der einen immensen Einfluss in der Entwicklung von AI-Systemen ausübt. Selbst radikale Unternehmen wie Stability.ai, die ihre Modelle als Open Source-Systeme veröffentlichen, überdenken grade auf Druck ihre Strategie und verzögern den Release neuerer Modelle.
Das Problem, dass das Paper beschreibt, ist bekannt und wird seit Jahren im Rahmen der Alignment-Problematik in der AI-Safety-Szene diskutiert. Eliezer Yudkowsky hat als Pioneer der AI-Safety-Diskussion (https://www.lesswrong....) die ganze Bewegung der Rationalists aus dem Boden gestampft und Leute wie Scott Alexander https://astralcodexten... arbeiten sich ebenfalls regelmäßig am Problem des AI-Alignment ab. Einen sort-of-Überblick über die Entwicklung der AI Safety-Debatte kann man hier nachlesen: https://astralcodexten...
Vielen Dank für den wichtigen Link. Gern möchte ich auf einen soeben in Nature Machine Intelligence veröffentlichten wichtigen Beitrag "Avoid Diluting Democracy by Algorithms" hinweisen (leider hinter paywall), der dazu gut passt.
https://www.nature.com...
Die Autoren Henrik Skaug Sætra, Harald Borgebund und Mark Coeckelbergh argumentieren darin, dass es von entscheidender Bedeutung ist, dass die Forschung zu KI-Governance das Konzept der Demokratie ernst nimmt. Das Autorenteam zeigt, wie drei Konzeptualisierungen der Demokratie es KI-Forschern ermöglichen könnten, ihre Forschung mit der politischen Philosophie zu verbinden. Ich möchte hervorheben, dass es dabei um mehr als um KI-Ethik oder Voreingenommenheit und Diskriminierung geht - Fragen, die uns in den letzten fünf Jahren intensiv beschäftigt haben. Vielmehr sind es grundlegende Konzepte wie Gerechtigkeit und Gleichheit oder die Frage, wie verschiedene politische Institutionen zur Erreichung solcher Ziele beitragen und wie sich Technologie auf all dies bezieht, so die Autoren. Sie sehen die Gefahr (ähnlich dem Text oben), dass wir auf eine Situation zusteuern, in der KI ohne ausreichende Debatte in immer mehr politisch relevanten Kontexten eingesetzt wird. "Through this, AI could contribute to less real democracy, less meaningful human involvement in politics and citizen engagement, and increasing technocratic tendencies. In such a situation, the corporations that have access to data, computing power and expertise would hold so much power that such a system would perhaps more accurately be described as oligarchic rather than democratic."