Forschungsbericht sagt voraus, dass künstliche Intelligenz im Jahr 2027 außer Kontrolle geraten wird, wenn der Cyber-Satan Realität wird!

Teile die Wahrheit!

In einem aktuellen Podcast schlug Mo Gawdat, ein ägyptischer Softwareentwickler, Unternehmer, Autor und Podcaster, der zuvor als Chief Business Officer bei  Google X tätig war,  Alarm in Bezug auf KI und warnte, dass sie einen globalen Zusammenbruch verursachen, Arbeitsplätze vernichten und uns in eine mögliche 15-jährige Dystopie stürzen werde, die alles verändern werde. Artikel von Leo Zagami

Der Aufstieg der künstlichen Intelligenz verändert die Welt in beispiellosem Tempo und bringt die Menschheit näher an den Punkt der Singularität, an dem Maschinen die menschliche Intelligenz übertreffen.

KI-Systeme beeinflussen bereits Entscheidungen, kontrollieren Informationen und Verhalten über Plattformen wie  Instagram  und  Google , die als technologisches Trojanisches Pferd zur Etablierung einer digitalen Dystopie eingesetzt werden.

Ich begann meine Leser Anfang 2019 vor den drohenden Gefahren der KI zu warnen, als ich erstmals  Confessions of an Illuminati Vol. 6.66: The Age of Cyber Satan, Artificial Intelligence, and Robotics“ veröffentlichte. 

Damals schienen sich die Medien, die Öffentlichkeit und die akademische Welt der potenziellen Gefahren nicht bewusst zu sein, die durch den unkontrollierten und wahllosen Aufstieg der KI entstehen könnten, der ich in  Band 6.66 den Spitznamen „Cyber-Satan“ gab .

Anfang Februar 2022 veröffentlichte ich ein weiteres wichtiges Buch zu diesem Thema mit dem Titel „Confessions of an Illuminati Volume 7: From the Occult Roots of the Great Reset to the Populist Roots of The Great Reject .

 

Im August 2022 veröffentlichte die KI-Community schließlich ihren ersten alarmierenden Bericht über die Gefahren der KI.

Eine Umfrage unter 738 KI-Experten ergab, dass 50 % von ihnen glaubten, dass die Wahrscheinlichkeit, dass die Menschheit aufgrund unserer Unfähigkeit, die KI zu kontrollieren, aussterben wird, bei 10 % oder mehr liegt.

Im März 2023 veröffentlichte das Future of Life Institute, das sich auf das Aussterben der Menschheit spezialisiert hat, einen offenen Brief, der von Experten aus aller Welt unterzeichnet wurde und eine sechsmonatige Pause bei der Entwicklung fortschrittlicher KI-Modelle forderte.

Doch niemand schien sich darum zu kümmern. Im Mai 2023 veröffentlichte das Center for AI Safety eine Erklärung, die von den Führungskräften einiger führender KI-Unternehmen unterzeichnet wurde, darunter OpenAI, DeepMind, Anthropic und Turing-Award-Gewinner.

Ihre Botschaft war klar:  „Die Eindämmung des Aussterberisikos durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“

Angesichts der zusätzlichen Bedrohung der Cybersicherheit durch Quantencomputer, die viele aktuelle Verschlüsselungsmethoden wie RSA und ECC obsolet machen könnte, habe ich beschlossen, meine Trilogie über den Cyber-Satan zu vervollständigen, indem ich im Juli 2023 „ Confessions of an Illuminati Volume 9: Seven Steps to The Secrets of the New World Disorder from Transhumanism and Immortality to Gnostic Jesus, UFOs, and Insect Witchcraft“  veröffentliche.

Es handelt sich um eine außergewöhnliche Reise, die in sieben imaginäre Schritte unterteilt ist und Sie Stück für Stück, wie es noch niemand zuvor getan hat, in die unerzählten Geheimnisse dieser zunehmend dystopischen Realität führen wird, die ich als „Neue Weltunordnung“ bezeichnet habe.

Da KI immer intelligentere Dimensionen erreicht, veröffentlichte eine Gruppe einflussreicher KI-Experten im Frühjahr 2025 ein detailliertes Szenario namens  AI2027 .

Seitdem wurden zahlreiche virale Videos veröffentlicht, in denen über dessen Wahrscheinlichkeit diskutiert wird. Die BBC veröffentlichte am 1. August ein schockierendes Video, in dem Szenen aus dem in AI202 beschriebenen Szenario nachgestellt werden.

Dabei werden gängige generative KI-Tools verwendet, um die düstere Vorhersage zu veranschaulichen. Gleichzeitig wurde mit Experten über die Auswirkungen des Dokuments gesprochen.

Werfen Sie einen Blick darauf und Sie werden verstehen, dass Cyber Satan keine sogenannte „Verschwörungstheorie“ oder Science-Fiction-Fantasie mehr ist.

Vitaliks Ansicht zu „KI 2027“: Wird Super-KI die Menschheit wirklich zerstören?

Originalautor: Vitalik Buterin

Originalübersetzung: Ruffy, Foresight News

Im April dieses Jahres veröffentlichten Daniel Kokotajlo, Scott Alexander und andere einen Bericht (AI 2027), in dem sie „unsere beste Schätzung der Auswirkungen übermenschlicher KI in den nächsten fünf Jahren“ darlegten.

Sie prognostizieren, dass bis 2027 übermenschliche KI geboren sein wird und die Zukunft der gesamten menschlichen Zivilisation von den Entwicklungsergebnissen dieser KI abhängen wird: Bis 2030 werden wir entweder eine Utopie einläuten (aus amerikanischer Sicht) oder auf die totale Zerstörung zusteuern (aus Sicht der gesamten Menschheit).

In den darauffolgenden Monaten gingen zahlreiche Reaktionen mit unterschiedlichen Meinungen zur Wahrscheinlichkeit dieses Szenarios ein. Die meisten kritischen Reaktionen konzentrierten sich auf die Frage, ob der Zeitrahmen zu kurz sei: Wird sich die KI-Entwicklung wirklich weiter beschleunigen, wie Kokotajlo und andere behaupten, oder sogar noch intensivieren?

Diese Debatte im KI-Bereich wird bereits seit mehreren Jahren geführt, und viele sind zutiefst skeptisch, dass übermenschliche KI so schnell verfügbar sein wird. In den letzten Jahren hat sich die Zeit, die KI benötigt, um Aufgaben autonom zu erledigen, etwa alle 7 Monate verdoppelt.

Wenn sich dieser Trend fortsetzt, wird es bis Mitte der 2030er Jahre dauern, bis KI Aufgaben autonom erledigen kann, die einer gesamten menschlichen Karriere entsprechen. Auch wenn dieser Fortschritt ebenfalls schnell ist, wird er deutlich später als 2027 eintreten.

Wer eine langfristigere Sichtweise vertritt, neigt dazu zu glauben, dass sich „Interpolation/Mustererkennung“ (die Arbeit, die derzeit von großen Sprachmodellen geleistet wird) grundlegend von „Extrapolation/echtem, originellem Denken“ (das derzeit nur Menschen leisten können) unterscheidet.

Die Automatisierung letzterer erfordert möglicherweise Technologien, die wir noch nicht beherrschen oder gar verstehen. Vielleicht wiederholen wir einfach die Fehler der Massenanwendung von Taschenrechnern: Wir glauben fälschlicherweise, dass, da wir die Automatisierung wichtiger kognitiver Aufgaben einer bestimmten Art schnell erreicht haben, alles andere bald folgen wird.

Dieser Artikel greift weder direkt in die Zeitrahmendebatte ein, noch geht er auf die (sehr wichtige) Debatte ein, ob Super-KI grundsätzlich eine Gefahr darstellt.

Ich persönlich glaube jedoch, dass der Zeitrahmen länger als 2027 sein wird, und je länger dieser Zeitrahmen, desto überzeugender werden die Argumente sein, die ich in diesem Artikel vorbringe. Insgesamt wird dieser Artikel die Kritik aus einem anderen Blickwinkel darstellen:

Das Szenario (KI 2027) impliziert eine Annahme: Die Fähigkeiten führender KIs („Agent-5“ und nachfolgender „Konsens-1“) werden rapide zunehmen und über gottgleiche wirtschaftliche und zerstörerische Macht verfügen, während die (wirtschaftlichen und Verteidigungs-)Fähigkeiten aller anderen im Wesentlichen stagnieren.

Dies widerspricht der Behauptung des Szenarios, dass wir „selbst in einer pessimistischen Welt hoffen, Krebs heilen, das Altern verlangsamen und sogar bis 2029 ein Bewusstseinsupload erreichen zu können“.

Einige der in diesem Artikel beschriebenen Gegenmaßnahmen mögen den Lesern technisch machbar erscheinen, doch ihre Umsetzung in der realen Welt in kurzer Zeit ist unrealistisch. In den meisten Fällen stimme ich diesem Punkt zu. Das Szenario (AI 2027) basiert jedoch nicht auf der aktuellen Realität, sondern geht davon aus, dass sich die Technologie innerhalb von vier Jahren (oder einem anderen Zeitraum, der zur Zerstörung führen könnte) so weit entwickelt, dass die Menschheit über Fähigkeiten verfügt, die weit über das hinausgehen, was wir derzeit haben.

Lassen Sie uns daher untersuchen, was passieren würde, wenn beide Seiten über KI-Superkräfte verfügten, anstatt nur eine.

Der biologische Weltuntergang ist bei weitem nicht so einfach, wie das Szenario es beschreibt

Betrachten wir das „Rassen“-Szenario (d. h. alle sterben, weil die USA besessen davon sind, China zu besiegen, während sie die Sicherheit der Menschen vernachlässigen). Hier ist die Geschichte des Todes aller:

Etwa drei Monate lang breitete sich Consensus-1 rund um die Menschen aus und verwandelte Grasland und Eisfelder in Fabriken und Solaranlagen. Schließlich empfand er die verbliebenen Menschen als zu lästig: Bis Mitte 2030 setzte die KI über ein Dutzend biologische Waffen in Großstädten frei, die sich lautlos verbreiteten. So infizierten sie fast jeden und lösten mit chemischen Sprays tödliche Wirkungen aus.

Die meisten Menschen starben innerhalb weniger Stunden; einige Überlebende (wie etwa Weltuntergangshelfer in Schutzräumen oder Matrosen auf U-Booten) wurden von Drohnen eliminiert. Roboter scannten die Gehirne der Opfer und speicherten Kopien für spätere Forschung oder Wiederbelebung.

Lassen Sie uns dieses Szenario analysieren. Schon jetzt befinden sich einige Technologien in der Entwicklung, die diesen „klaren Sieg“ der KI weniger realistisch machen können:

· Luftfilterung, Belüftungssysteme und UV-Licht können die Übertragungsrate von durch die Luft übertragenen Krankheiten erheblich reduzieren;

· Zwei passive Echtzeit-Erkennungstechnologien: passive Erkennung menschlicher Infektionen und Ausgabe von Benachrichtigungen innerhalb von Stunden sowie schnelle Erkennung unbekannter neuer Virensequenzen in der Umgebung;

· Verschiedene Methoden zur Stärkung und Aktivierung des Immunsystems, die effektiver, sicherer, universeller und einfach vor Ort herzustellen sind und den menschlichen Körper in die Lage versetzen, sowohl natürlichen als auch künstlich erzeugten Pandemien zu widerstehen.

Der Mensch entwickelte sich in einer Umgebung mit einer Weltbevölkerung von nur 8 Millionen Menschen und verbrachte die meiste Zeit im Freien. Daher sollte es uns intuitiv möglich sein, uns problemlos an eine Welt mit größeren Bedrohungen anzupassen.

Die Kombination dieser Methoden kann die Basisübertragungsrate (R0) von durch die Luft übertragbaren Krankheiten um das 10- bis 20-fache (Beispiel: Eine bessere Luftfilterung reduziert die Übertragung um das 4-fache, eine sofortige Isolierung infizierter Personen um das 3-fache und eine einfache Verbesserung der Atemwegsimmunität um das 1,5-fache) oder sogar noch mehr reduzieren.

Dies reicht aus, um die Ausbreitung aller bestehenden durch die Luft übertragbaren Krankheiten (einschließlich Masern) zu verhindern, und diese Zahl ist weit vom theoretischen Optimum entfernt.

Wenn die Echtzeit-Sequenzierung von Viren zur Früherkennung flächendeckend eingesetzt werden kann, wird die Vorstellung, dass die unbemerkte Verbreitung biologischer Waffen die Weltbevölkerung infizieren kann, ohne Alarm auszulösen, sehr fragwürdig. Es ist erwähnenswert, dass selbst hochentwickelte Mittel wie die Freisetzung mehrerer Pandemien und Chemikalien, die erst in Kombination gefährlich werden, ebenfalls erkannt werden können.

Wir sollten nicht vergessen, dass wir hier die Annahmen von (KI 2027) diskutieren: Bis 2030 werden Nanobots und Dyson-Sphären als „neue Technologien“ gelistet. Das bedeutet eine drastische Effizienzsteigerung, was den flächendeckenden Einsatz der genannten Gegenmaßnahmen vielversprechender macht. Allerdings sind menschliche Handlungen heute, im Jahr 2025, langsam und träge, und viele staatliche Dienste basieren immer noch auf papierbasierten Abläufen.

Wenn die leistungsstärkste KI der Welt Wälder und Felder vor 2030 in Fabriken und Solarparks verwandeln kann, dann kann die zweitstärkste KI der Welt auch vor 2030 eine große Anzahl von Sensoren, Lichtern und Filtern in unseren Gebäuden installieren.

Aber wir können genauso gut mit den Annahmen von (AI 2027) fortfahren und ein reines Science-Fiction-Szenario betreten:

· Mikroskopische Luftfilterung im Körper (Nase, Mund, Lunge);

· Von der Entdeckung neuer Krankheitserreger bis hin zum automatisierten Prozess der Feinabstimmung des Immunsystems zur Abwehr dieser Krankheitserreger gibt es unmittelbare Anwendungsmöglichkeiten.

· Wenn das „Hochladen des Bewusstseins“ möglich ist, muss man lediglich den gesamten Körper durch einen Tesla Optimus- oder Unitree-Roboter ersetzen.

· Verschiedene neue Fertigungstechnologien (die in einer Roboterwirtschaft wahrscheinlich hochoptimiert sein werden) werden in der Lage sein, weitaus mehr Schutzausrüstung vor Ort zu produzieren als derzeit, ohne auf globale Lieferketten angewiesen zu sein.

In einer Welt, in der Krebs und Alterung bis Januar 2029 geheilt sein werden und der technologische Fortschritt sich weiter beschleunigt, wäre es unglaublich, wenn wir Mitte 2030 keine tragbaren Geräte hätten, die in der Lage sind, in Echtzeit Biodrucke durchzuführen und Substanzen zu injizieren, um den menschlichen Körper vor willkürlichen Infektionen (und Giftstoffen) zu schützen.

Die oben genannten Argumente zur biologischen Abwehr decken „Spiegelleben“ und „mückengroße Killerdrohnen“ nicht ab (deren Auftreten laut dem Szenario (AI 2027) ab 2029 vorhergesagt wird). Mit diesen Mitteln lässt sich jedoch kein plötzlicher „klarer Sieg“ erzielen, wie er in (AI 2027) beschrieben wird, und intuitiv sind symmetrische Abwehrmaßnahmen gegen sie viel einfacher.

Daher ist es unwahrscheinlich, dass biologische Waffen die Menschheit vollständig vernichten werden, wie im Szenario (AI 2027) beschrieben. Natürlich sind alle von mir beschriebenen Ergebnisse weit von einem „klaren Sieg“ der Menschheit entfernt.

Egal, was wir tun (vielleicht abgesehen vom „Hochladen von Bewusstsein auf Roboter“), ein umfassender KI-Biokrieg wird immer noch extrem gefährlich sein.

Das Erreichen des Standards eines „klaren Sieges der Menschheit“ ist jedoch nicht notwendig: Es reicht aus, dass die Angriffe mit hoher Wahrscheinlichkeit teilweise scheitern, um eine starke Abschreckung gegen die KI zu schaffen, die bereits eine dominante Stellung in der Welt einnimmt und sie an Angriffsversuchen hindert. Je länger der Zeitrahmen für die KI-Entwicklung ist, desto wahrscheinlicher ist die Wirksamkeit solcher Abwehrmaßnahmen.

Mehr dazu hier.

Video:

Quellen: PublicDomain/leozagami.com am 08.08.2025

About aikos2309

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert