- Vitalik Buterin, der Erfinder von Ethereum, warnt in einem neuen Blogpost vor den Folgen einer unkontrollierten KI-Entwicklung.
- Laut ihm sei es realistisch anzunehmen, dass wir in spätestens drei Jahren eine Form von Super-KI hätten. Viele Forscher und Experten geben ähnliche Abschätzungen ab.
- In der Branche spricht man auch von einer AGI, kurz für Autonomous General Intelligence.
Podcast
- Man könne sich nicht nur darauf konzentrieren, das Gute zu beschleunigen. Man müsse auch Wege finden, um gefährliche Entwicklungen zu verlangsamen.
- Buterins Vorschlag: eine Art Stopp-Knopf für die weltweite Rechenkraft. Es müsse möglich sein, sie für 1 bis 2 Jahre um 90 bis 99 Prozent zu reduzieren, sodass die Situation nicht außer Kontrolle gerate. KIs sind auf diese Rechenkraft angewiesen.
- Außerdem sprach sich Buterin dafür aus, KIs in einer dezentralen Weise zu entwickeln. Dies geschieht beispielsweise im Krypto-Space, u. a. durch die Artificial Superintelligence Alliance, den Zusammenschluss der drei größten Blockchain-Projekte mit eigenen KIs.
- Bereits 2023 warnte Vitalik davor, dass KI das Potenzial hätte, die Menschheit zu vernichten, wenn man es nicht richtig angehen würde. Er ist nicht der einzige Warner: Auch Elon Musk und andere Tech-Größen haben extreme Bedenken vor den Folgen einer ungebremsten KI-Entwicklung.
Kryptowährungen kaufen – Leitfaden & Anbieter 2025
In unserem kostenlosen BTC-ECHO Leitfaden zeigen wir dir, wie du sicher und Schritt für Schritt in Kryptowährungen investieren kannst. Außerdem erklären wir, worauf du beim Kauf von Coins und Token achten solltest.
Jetzt zum Kryptowährungen kaufen LeitfadenDas könnte dich auch interessieren
$TRUMP und Altcoins brechen einKein Bitcoin zum Amtsantritt: Donald Trump sendet BTC auf Korrekturkurs
Märkte
20.01.2025
Das wären die FolgenTrumps Amtsantritt: Kommt jetzt die strategische Bitcoin-Reserve?
Bitcoin
20.01.2025
Kurs-UpdateHedera: Geht es für den HBAR-Kurs weiter nach oben?
Altcoins
20.01.2025