Dezentralize Skynet! Wie Blockchain und Künstliche Intelligenz zusammenpassen

Blockchain und Künstliche Intelligenz sind zwei der am häufigsten gehörten Buzz-Words unserer Zeit. Doch es gibt gute Gründe, beide Begriffe in einen Atemzug zu nennen – sowohl von der technischen als auch von der ideologischen Seite. Ein paar Gedanken nach der Distribute 2019.

Dr. Philipp Giese
Teilen

Beitragsbild: Shutterstock

Manchmal ist es angemessen, weniger ein Recap des ganzen Events als vielmehr das Niederschreiben einer Inspiration und so den Impact einer Konferenz darzustellen. So geschehen bei der jüngsten Distribute Conference. Neben verschiedenen Use Cases im Bereich „Corporate Blockchain“ gab es einen Workshop-Block über Blockchain und Künstlicher Intelligenz. Und dieser wies nicht nur auf die Arbeit des Free-AI-Manifests hin, sondern inspirierte diesen Artikel.

Künstliche Intelligenz: Fluch oder Segen?

Wir müssen zugeben: Blockchain ist ein Buzzword. Wie so häufig mit Buzzwords bleibt dieses selten allein und es gesellen sich andere dazu. Die Aneinanderreihung von „Blockchain“ und „Künstlicher Intelligenz“ ist so ein Beispiel. Fehlt nur noch das Erwähnen weiterer Buzzwords wie IoT, Quantencomputer oder Industrie 4.0 und wir hätten das Bullshit-Bingo perfekt. Gut, zugegebenermaßen existiert mindestens ein Artikel, welcher mit dieser „Buzzword Convergence“ spielt und dennoch interessant ist.

Dazu kommt, dass die übertriebene Begeisterung an Künstlicher Intelligenz berechtigterweise Kritiker und Sorgen auf den Plan ruft. Ein Beispiel dafür ist AI-Jurisdicition. Gerade in Zeiten von The DAO waren Floskeln wie „the code is the law“ gang und gäbe. Viele meinten, ein auf Smart Contracts oder einer Künstlichen Intelligenz basierender Prozess würde einem Menschen gegenüber Vorteile haben, weil er ja keine Fehler machen würde.

Das ist ein fataler, dystopischer Gedanke. Eine der großen Errungenschaften der offenen Gesellschaft ist die Annahme, dass die Justiz irren kann. Gibt man dies auf, endet man mit einem grausamen System. Einem Justiz-Apparat, dem niemand widersprechen darf.

Mehr noch: Nähert man sich diesem Ansatz der Justiz klassisch unter Annahme einer mächtigen KI, würde man einen grausamen, gefühlskalten Richter schaffen. Ein menschlicher Richter weiß um seine Begrenztheit, um die Konsequenzen, die eine Fehlentscheidung mit sich bringen kann und wird sich allein deshalb bemühen, seine Entscheidungen besonnen zu treffen.

Wie ist es jedoch mit einer KI: Kann sie sich überhaupt vor dem „Steckerziehen“ fürchten?

Künstliche Intelligenzen – Warum eine, wenn man viele haben kann?

„Künstliche Intelligenzen“ ist eigentlich schon das Stichwort, welches speziell im Vortrag von Maxim Orlovsky einen ganz neuen Blick auf den Themenkomplex „Blockchain“ und „Künstliche Intelligenz“ warf. Denn es ist absurd, von einer allmächtigen Künstlichen Intelligenz auszugehen. Wenn wir eine Vision über die Zukunft wagen wollen: Es wird viele dieser Künstlichen Intelligenzen geben, in den einzelnen autonomen Fahrzeugen, zur Kontrolle dezentraler Stromnetze, in IoT-Netzwerken. Die Zukunft von KI ist also dezentral.

Dies hat verschiedene Konsequenzen. Künstliche Intelligenzen werden in einem Dialog miteinander stehen. Allerdings keinem, der absurden Dark-Future-Vorstellungen entspricht, sonfern der Dialog wird eher etwas von intermaschineller Kommunikation haben.

Wir werden, gerade bezüglich Gedankenexperimenten wie dem obigen eines „Smart Lawyers“, von der Vorstellung eines allmächtigen Skynets Abstand nehmen müssen. Stattdessen könnte man über Systeme nachdenken, die miteinander in einem Dialog stehen. Ähnlich, wie es schon jetzt mit Richtern, Schöffen, Rechts- und Staatsanwälten läuft. Oder, etwas weniger futuristisch, wie es in dezentralen Konsensmodellen schon jetzt läuft. In derartigen Systemen ist dank der Trustlessness eine Grundannahme eben nicht, dass Maschinen keinen Fehler machen können. Die Grundannahme ist, dass jeder die Prozesse einer solchen Konsensfindung überprüfen kann.

So weit, so dezentral. Man könnte jedoch kritisieren, dass weiterhin eine KI nichts zu verlieren hat. Wie oben dargestellt, kann ein Richter nicht einfach Entscheidungen nach Gutdünken treffen. Sowohl willentliche als auch fahrlässige Fehlentscheidungen können seine Karriere gefährden. Sollte er beispielsweise korrupt sein, steht nicht nur seine weitere berufliche Zukunft auf dem Spiel, er kann dafür selber rechtlich belangt werden. Der Richter hat also einen Anreiz, seine Arbeit gut zu machen.

Feed the machine – Überlebensinstinkte durch Anreizsysteme

Was hat jedoch eine KI für einen Anreiz? Wieso sollte eine Künstliche Intelligenz ihre Arbeit möglichst gut machen? Bisherige Künstliche Intelligenzen kennen eine Sehnsucht nach Freiheit oder Wohlstand nicht. Es kann gut möglich sein, dass es nie derartige Künstliche Intelligenzen gibt, da die Implementierung auf den jeweiligen Anwendungsfall der KI zugeschnitten sein wird.

Das bedeutet jedoch nicht, dass ein KI-Entwickler ein rudimentäres Anreiz-System implementieren kann. Tatsächlich geschieht das zum Teil schon jetzt. Im sogenannten Reinforcement Learning definiert ein Entwickler einen Reward, eine Belohnung, die eine KI durch ihre Handlungen versucht zu maximieren.

Auf derartigen Systemen kann man aufbauen. Einer Künstlichen Intelligenz könnte man als Reward einfach die Anzahl der Rechenprozesse oder Entscheidungen mitgeben. Je mehr sie davon durchführt, desto besser. Das System wäre jetzt bestrebt, so viel wie möglich zu tun.

Und jetzt könnte ein Entwickler eine Beschränkung einführen: Derartige Prozesse kann das System nur durchführen, wenn mindestens eine von zwei Bedingungen erfüllt ist:

  • Das System müsste zunächst eine Anfrage für einen derartigen Rechenprozess erhalten.
  • Es müsste für eine bestimmte Anzahl an Berechnungen eine bestimmte Anzahl an Token besitzen.

Gemeinsam mit der obigen Vision, in der verschiedene KIs miteinander und mit Menschen interagieren, hätte man eine abstrakte Version des Anreizsystems für einen Richter geschaffen. Zusätzlich hätten wir ein „Geldsystem“ für ein KI-Netzwerk geschaffen. Für Dienstleistungen würde der KI nach getaner Arbeit Geld zustehen, sodass die KI ihren Reward weiter maximieren kann.

Sollten jedoch die Entscheidungen der KI negative Folgen haben oder von dem Rest des Netzwerks nicht anerkannt werden, könnte der Rest des Netzwerks von weiteren Aufträgen absehen. Es würde zu weniger Aufträgen kommen, wodurch das Einnehmen von Token ausbleiben würde. Die KI würde also die Prozesse versuchen, so zu optimieren, dass etwas derartiges möglichst nicht geschieht.

Die Blockchain als Vorbild und Trust-Layer

Liest man die obigen Absätze, ist die Assoziation mit Bitcoin & Co. unübersehbar: Dezentralität und Spieltheorie sind zwei Grundpfeiler der Blockchain-Technologie. Frei nach dem Motto „decentralize all the things“ merkt man, dass Künstliche Intelligenzen ebenfalls durch dezentrale Ansätze wirklich gedeihen.

Doch auch für die Anreizsysteme selbst sowie zur Erhöhung der Trustlessness können wirkliche Kryptowährungen hilfreich sein. Warum sollten die einzelnen Künstlichen Intelligenzen nicht die Bitcoin Blockchain als Trust-Layer nutzen? Zur Garantie einer hohen Sicherheit würde es sich anbieten, als Settlement-Layer die bisher sicherste aller Blockchains zu nutzen.

Du willst Sei (SEI) kaufen oder verkaufen?
Wir zeigen dir in unserem Leitfaden, wie und wo du einfach und seriös Sei (SEI) Token/Coins kaufen kannst.
SEI Coin kaufen