Mysteriöse Zeitkapsel mit einer KI-Warnung an die Menschheit gefunden

Teile die Wahrheit!

news-pravda.com berichtet: In New York wurde eine Zeitkapsel mit einer Botschaft über den möglichen Untergang der Welt durch KI gefunden.

In New York wurde eine Zeitkapsel gefunden, in der die Nachkommen aus einem Grund vor dem möglichen Tod der Welt gewarnt wurden. Es wurde bereits in den 1950er Jahren bei Bauarbeiten entdeckt, berichtet das Portal sciencexxi.com .

Der Fund erregte die Aufmerksamkeit der Wissenschaftler aufgrund des ungewöhnlichen Materials und der Konstruktion – seltene Metalle, die zum Zeitpunkt der Herstellung der Kapsel noch nicht weit verbreitet waren – sowie ihrer ovalen Form.

Im Inneren der Kapsel befand sich ein Einsatz aus Kunstglas und ein Text aus unverständlichen Symbolen. Einige von ihnen ähnelten Buchstaben des lateinischen Alphabets, der Rest der Botschaft konnte überhaupt nicht entziffert werden.

Auf der Seite globalusanews.com heisst es weiter:

Der Fund erregte die Aufmerksamkeit der Wissenschaftler aufgrund des ungewöhnlichen Materials und der Konstruktion – seltene Metalle, die zum Zeitpunkt der Herstellung der Kapsel noch nicht weit verbreitet waren – sowie ihrer ovalen Form.

Im Inneren der Kapsel befand sich ein Einsatz aus Kunstglas und ein Text aus unverständlichen Symbolen. Einige von ihnen ähnelten Buchstaben des lateinischen Alphabets, der Rest der Botschaft konnte überhaupt nicht entziffert werden.

Lange Versuche der Entschlüsselung führten schließlich zum Erfolg. Es stellte sich heraus, dass der Brief aus dem Jahr 2317 stammte.

Er warnt davor, dass die Entwicklung von Biomaschinen und künstlicher Intelligenz zu einer Katastrophe führen wird, da sie außer Kontrolle geraten und zu einer Bedrohung für die Menschheit werden können.

Der Text besagt, dass die Kapsel eine Chance bietet, das Ende der Welt zu verhindern.

Einige Forscher vermuten, dass die Kapsel das Ergebnis des Eingreifens von Zeitreisenden oder eines Technologielecks aus der Zukunft sein könnte. („Nutzlose Esser“: Wer kann die KI-Apokalypse überleben? Ein Krisenexperte erklärt)

Andere glauben, sie sei lediglich eine symbolische Erinnerung an die Bedeutung der Überprüfung des technologischen Fortschritts.

Dennoch bleiben Herkunft und Zweck der Kapsel ein Rätsel, weshalb sie weiterhin die Aufmerksamkeit von Wissenschaft und Öffentlichkeit auf sich zieht.

Zuvor gelang es Wissenschaftlern, den Zeitpunkt des Einschlags des größten Meteoriten auf die Erde zu klären. Es stellte sich heraus, dass dies 200 Millionen Jahre später geschah als bisher angenommen.

Das Problem an der Meldung ist, dass zwei Webseiten über die Entdeckung berichten und alle auf sciencexxi.com verweisen, dort ist aber diese Nachricht nicht zu finden. Auch berichtet keine weitere Seite unabhängig darüber mit mehr Details wie dem Fundort, wann und von wem es gefunden wurde. Somit bleibt die Meldung fragwürdig und dubios.

15 Gefahren der KI

Die Tech-Community diskutiert seit langem über die Bedrohungen durch künstliche Intelligenz. Als einige der größten Gefahren werden die Automatisierung von Arbeitsplätzen, die Verbreitung von Fake News und der Aufstieg KI-gestützter Waffen genannt.

Angesichts der Frage, wer KI entwickelt und zu welchem ​​Zweck, ist es umso wichtiger, die potenziellen Nachteile zu verstehen. Im Folgenden werfen wir einen genaueren Blick auf die möglichen Gefahren künstlicher Intelligenz und zeigen, wie man mit ihren Risiken umgeht.

1. Mangelnde Transparenz und Erklärbarkeit von KI

KI- und Deep-Learning -Modelle können selbst für diejenigen , die direkt mit der Technologie arbeiten, schwer verständlich sein . Dies führt zu mangelnder Transparenz darüber, wie und warum KI zu ihren Schlussfolgerungen gelangt. Es fehlt an Erklärungen dafür, welche Daten KI-Algorithmen verwenden oder warum sie möglicherweise voreingenommene oder unsichere Entscheidungen treffen. Diese Bedenken haben zum Einsatz erklärbarer KI geführt , doch bis transparente KI-Systeme gängige Praxis sind, ist es noch ein weiter Weg.

Erschwerend kommt hinzu, dass KI-Unternehmen weiterhin Stillschweigen über ihre Produkte bewahren. Ehemalige Mitarbeiter von OpenAI und Google DeepMind werfen beiden Unternehmen vor, die potenziellen Gefahren ihrer KI-Tools zu verschleiern. Diese Geheimhaltung lässt die Öffentlichkeit über mögliche Bedrohungen im Unklaren und erschwert es dem Gesetzgeber, proaktive Maßnahmen zu ergreifen, um eine verantwortungsvolle KI-Entwicklung sicherzustellen.

2. Arbeitsplatzverluste durch KI-Automatisierung

Die KI-gestützte Automatisierung von Arbeitsplätzen ist ein dringendes Problem, da die Technologie in Branchen wie Marketing , Fertigung und Gesundheitswesen Einzug hält . Bis 2030 könnten Aufgaben, die derzeit bis zu 30 Prozent der in der US-Wirtschaft geleisteten Arbeitsstunden ausmachen, automatisiert sein – wobei schwarze und hispanische Arbeitnehmer von diesem Wandel besonders betroffen wären, so McKinsey . Goldman Sachs geht sogar davon aus, dass 300 Millionen Vollzeitstellen durch die KI-Automatisierung verloren gehen könnten .

„Der Grund für unsere niedrige Arbeitslosenquote, die die Menschen, die nicht auf Arbeitssuche sind, nicht erfasst, liegt hauptsächlich daran, dass diese Wirtschaft in großem Umfang schlecht bezahlte Arbeitsplätze im Dienstleistungssektor geschaffen hat“, sagte der Zukunftsforscher Martin Ford gegenüber Built In. Angesichts des zunehmenden Einsatzes von KI „glaube ich jedoch nicht, dass sich dieser Trend fortsetzen wird.“

Da KI-gesteuerte Roboter immer intelligenter und geschickter werden, werden für dieselben Aufgaben weniger Menschen benötigt. Und obwohl KI bis 2030 schätzungsweise zur Schaffung von 170 Millionen neuen Arbeitsplätzen beitragen wird, verfügen viele Arbeitnehmer nicht über die für diese technischen Aufgaben erforderlichen Fähigkeiten und könnten abgehängt werden, wenn Unternehmen ihre Belegschaft nicht weiterbilden .

„Wenn Sie bei McDonald’s Burger braten und die Automatisierung immer weiter voranschreitet, ist einer dieser neuen Jobs dann das Richtige für Sie?“, fragte Ford. „Oder erfordert der neue Job wahrscheinlich eine umfangreiche Ausbildung oder vielleicht sogar angeborene Talente – wirklich ausgeprägte zwischenmenschliche Fähigkeiten oder Kreativität –, die Sie vielleicht nicht haben? Denn das sind die Dinge, in denen Computer, zumindest bisher, nicht besonders gut sind.“

Wie Technologiestratege Chris Messina betont, sind auch Bereiche wie Recht und Buchhaltung für eine KI-Übernahme gerüstet. Tatsächlich, so Messina, könnten einige von ihnen sogar dezimiert werden. KI hat bereits erhebliche Auswirkungen auf die Medizin . Als nächstes sei die Rechtswissenschaft dran, so Messina, und sie dürfte bereit für eine „massive Umstrukturierung“ sein.

„Viele Anwälte müssen sich durch unzählige Informationen arbeiten – Hunderte oder Tausende Seiten an Daten und Dokumenten. Dabei kann man leicht etwas übersehen“, so Messina. „Eine KI, die in der Lage ist, die Daten zu durchforsten und den bestmöglichen Vertrag für das angestrebte Ergebnis zu erstellen, wird wahrscheinlich viele Unternehmensanwälte ersetzen.“

3. Soziale Manipulation durch KI-Algorithmen

Auch die soziale Manipulation stellt eine Gefahr künstlicher Intelligenz dar. Diese Angst ist Realität geworden, da Politiker Plattformen nutzen, um ihre Ansichten zu verbreiten. Ein Beispiel dafür ist Ferdinand Marcos Jr., der bei den Wahlen 2022 auf den Philippinen eine Armee von TikTok-Trollen einsetzt, um die Stimmen jüngerer Filipinos zu gewinnen.

TikTok, nur ein Beispiel für eine Social-Media-Plattform, die auf KI-Algorithmen basiert , füllt den Feed eines Nutzers mit Inhalten, die sich auf zuvor auf der Plattform angesehene Medien beziehen. Kritik an der App richtet sich gegen diesen Prozess und das Versagen des Algorithmus, schädliche und ungenaue Inhalte herauszufiltern. Dies weckt Bedenken hinsichtlich der Fähigkeit von TikTok, seine Nutzer vor irreführenden Informationen zu schützen.

Online-Medien und -Nachrichten sind angesichts von KI-generierten Bildern und Videos, KI-Stimmverzerrern und Deepfakes, die in Politik und Gesellschaft eindringen, noch undurchsichtiger geworden. Diese Technologien machen es einfach, realistische Fotos, Videos und Audioclips zu erstellen oder das Bild einer Figur in einem vorhandenen Bild oder Video durch eine andere zu ersetzen. Dadurch haben böswillige Akteure eine weitere Möglichkeit, Fehlinformationen und Kriegspropaganda zu verbreiten . Dies schafft ein Albtraumszenario, in dem es nahezu unmöglich sein kann , zwischen glaubwürdigen und falschen Nachrichten zu unterscheiden.

„Niemand weiß, was wahr ist und was nicht“, sagte Ford. „Man kann seinen eigenen Augen und Ohren buchstäblich nicht trauen; man kann sich nicht auf das verlassen, was wir historisch für die bestmöglichen Beweise gehalten haben … Das wird ein riesiges Problem.“

4. Soziale Überwachung mit KI-Technologie

Neben der existenziellen Bedrohung konzentriert sich Ford auf die negativen Auswirkungen der KI auf Datenschutz und Sicherheit. Ein Paradebeispiel ist Chinas Einsatz von Gesichtserkennungstechnologie in Büros, Schulen und anderen Einrichtungen . Neben der Verfolgung der Bewegungen einer Person könnte die chinesische Regierung damit auch genügend Daten sammeln, um deren Aktivitäten, Beziehungen und politische Ansichten zu überwachen.

Ein weiteres Beispiel sind US-Polizeibehörden, die prädiktive Algorithmen einsetzen , um Verbrechen vorherzusagen. Das Problem ist, dass diese Algorithmen von den Verhaftungsraten beeinflusst werden, die schwarze Communities überproportional betreffen . Die Polizeibehörden verstärken dann ihre Bemühungen in diesen Communities, was zu einer Überpräsenz der Polizei und der Frage führt, ob selbsternannte Demokratien der Versuchung widerstehen können, KI in eine autoritäre Waffe zu verwandeln.

„Autoritäre Regime nutzen es oder werden es nutzen“, sagte Ford. „Die Frage ist: ‚Wie stark dringt es in westliche Länder und Demokratien ein und welche Beschränkungen setzen wir ihm auf?‘“

5. Mangelnder Datenschutz bei der Verwendung von KI-Tools

KI-Systeme sammeln häufig personenbezogene Daten, um das Benutzererlebnis anzupassen oder die KI-Modelle selbst zu trainieren (insbesondere wenn das KI-Tool kostenlos ist). Daten, die einem KI-System zur Verfügung gestellt werden, gelten möglicherweise nicht einmal als sicher vor anderen Benutzern.

Ein Fehler bei ChatGPT aus dem Jahr 2023 ermöglichte es laut OpenAI einigen Nutzern, Titel aus dem Chatverlauf eines anderen aktiven Nutzers anzuzeigen. Ähnlich verhält es sich mit der Meta AI App, die einen öffentlichen „Discover“-Feed bietet, über den Nutzer die persönlichen Chats anderer Nutzer mit dem Chatbot einsehen können. 2025 stellte sich heraus, dass der Grok -Chatbot Nutzergespräche ohne Vorwarnung in Suchmaschinen wie Google, Bing und DuckDuckGo durchsuchbar machte. Google hat schätzungsweise über 370.000 Grok-Gespräche indexiert.

Was Sprachdaten betrifft, können KI-gestützte Geräte jede Sprachaufzeichnung verfolgen und verarbeiten, die mit ihnen geteilt wird, darunter auch Produkte wie Alexa von Amazon und verschiedene tragbare Geräte .

Zwar gibt es in den USA in einigen Fällen Gesetze zum Schutz personenbezogener Daten, es gibt jedoch kein explizites Bundesgesetz , das die Bürger vor Datenschutzverletzungen durch KI schützt .

6. Verzerrungen durch KI

Verschiedene Formen der KI-Voreingenommenheit sind ebenfalls schädlich. Olga Russakovsky, Informatikprofessorin an der Princeton University, sagte gegenüber der New York Times , dass KI-Voreingenommenheit weit über Geschlecht und Rasse hinausgehe. Zusätzlich zu Daten- und Algorithmus-Voreingenommenheit (letztere kann erstere „verstärken“) wird KI von Menschen entwickelt – und Menschen sind von Natur aus voreingenommen .

„KI-Forscher sind in erster Linie Männer, die einer bestimmten ethnischen Gruppe angehören, in sozioökonomisch starken Regionen aufgewachsen sind und überwiegend keine Behinderungen haben“, sagte Russakovsky. „Wir sind eine ziemlich homogene Bevölkerung, daher ist es eine Herausforderung, über globale Probleme umfassend nachzudenken.“

Die beschränkte Sichtweise einzelner hat zu einer KI-Industrie geführt, die eine Reihe von Perspektiven außer Acht lässt. Laut UNESCO wurden bisher nur 100 der weltweit 7.000 natürlichen Sprachen für das Training von Spitzen -Chatbots verwendet . Erschwerend kommt hinzu, dass 90 Prozent der Online-Materialien für die Hochschulbildung bereits von Ländern der Europäischen Union und Nordamerikas produziert werden, was die Trainingsdaten der KI noch weiter auf überwiegend westliche Quellen beschränkt.

Die begrenzten Erfahrungen der KI-Entwickler könnten erklären, warum Spracherkennungs-KIs oft bestimmte Dialekte und Akzente nicht verstehen oder warum Unternehmen die Konsequenzen nicht bedenken, die entstehen, wenn ein Chatbot historische Persönlichkeiten imitiert . Wenn Unternehmen und Gesetzgeber nicht sorgfältiger vorgehen und keine starken Vorurteile neu schüren, könnten sich KI-Vorurteile über Unternehmenskontexte hinaus ausbreiten und gesellschaftliche Probleme wie Diskriminierung auf dem Wohnungsmarkt verschärfen .

7. Sozioökonomische Ungleichheit als Folge von KI

Wenn Unternehmen sich weigern, die in KI-Algorithmen verankerten Vorurteile anzuerkennen, gefährden sie möglicherweise ihre DEI-Initiativen durch KI-gestütztes Recruiting . Die Vorstellung, dass KI die Eigenschaften eines Kandidaten durch Gesichts- und Stimmanalysen messen kann, ist immer noch von rassistischen Vorurteilen geprägt und reproduziert dieselben diskriminierenden Einstellungspraktiken, die Unternehmen angeblich beseitigen wollen.

Die zunehmende sozioökonomische Ungleichheit, die durch KI-bedingten Arbeitsplatzverlust ausgelöst wird, ist ein weiterer Grund zur Sorge und offenbart die klassenspezifischen Vorurteile bei der Anwendung von KI. Daten aus dem Jahr 2022 zeigten, dass Arbeitnehmer, die mehr manuelle, repetitive Aufgaben verrichten, aufgrund der Automatisierung Lohnrückgänge von bis zu 70 Prozent hinnehmen mussten , und diese Zahl dürfte heute noch höher liegen. Zudem wirkt sich der zunehmende Einsatz generativer KI bereits auf Bürojobs aus , sodass eine Vielzahl von Berufen stärker von Lohnrückgängen oder Arbeitsplatzverlusten betroffen sein könnten als andere.

8. Schwächung von Ethik und Wohlwollen durch KI

Neben Technikern, Journalisten und Politikern schlagen auch religiöse Führer Alarm vor den potenziellen Fallstricken der KI. Bei einem Treffen im Vatikan im Jahr 2023 und in seiner Botschaft zum Weltfriedenstag 2024 rief der damalige Papst Franziskus die Nationen dazu auf, einen verbindlichen internationalen Vertrag auszuarbeiten und zu verabschieden, der die Entwicklung und Nutzung von KI regelt.

Der Papst warnte vor dem Missbrauch künstlicher Intelligenz und davor, dass sie „Aussagen hervorbringen könnte, die auf den ersten Blick plausibel erscheinen, aber unbegründet sind oder Vorurteile verraten“. Er betonte, dass dies Desinformationskampagnen, Misstrauen gegenüber den Kommunikationsmedien, Wahlmanipulationen und mehr begünstigen könnte – und letztlich das Risiko erhöhe, „Konflikte zu schüren und den Frieden zu behindern“.

Der rasante Aufstieg generativer KI-Tools verleiht diesen Bedenken zusätzliche Substanz. Viele Nutzer nutzen die Technologie, um sich vor schriftlichen Aufgaben zu drücken, was die akademische Integrität und Kreativität gefährdet. Zudem könnte voreingenommene KI dazu verwendet werden, die Eignung einer Person für einen Job, eine Hypothek, Sozialhilfe oder politisches Asyl zu bestimmen, was zu Ungerechtigkeiten und Diskriminierung führen könnte, bemerkte Papst Franziskus.

9. Autonome Waffen mit KI-Antrieb

Wie so oft werden technologische Fortschritte für die Kriegsführung missbraucht . Auch in Sachen KI wollen manche etwas unternehmen, bevor es zu spät ist: In einem offenen Brief aus dem Jahr 2016 sprachen sich über 30.000 Menschen, darunter KI- und Robotikforscher , gegen Investitionen in KI-gesteuerte autonome Waffen aus.

„Die Schlüsselfrage für die Menschheit ist heute, ob wir ein globales KI-Wettrüsten starten oder verhindern wollen“, schrieben sie. „Wenn eine große Militärmacht die Entwicklung von KI-Waffen vorantreibt, ist ein globales Wettrüsten praktisch unvermeidlich, und das Ende dieser technologischen Entwicklung ist klar: Autonome Waffen werden die Kalaschnikows von morgen.“

Diese Vorhersage hat sich in Form tödlicher autonomer Waffensysteme (LAWS) bewahrheitet , die Ziele selbstständig lokalisieren und zerstören sollen. Aufgrund der Verbreitung wirksamer und komplexer Waffen haben einige der mächtigsten Nationen der Welt ihren Ängsten nachgegeben und zu einem technologischen Kalten Krieg beigetragen .

Viele dieser neuen Waffen stellen eine große Gefahr für die Zivilbevölkerung dar . Die Gefahr wird jedoch noch größer, wenn autonome Waffen in die falschen Hände geraten. Hacker beherrschen verschiedene Arten von Cyberangriffen , sodass es nicht schwer ist, sich vorzustellen, dass ein böswilliger Akteur autonome Waffen infiltriert und einen absoluten Weltuntergang herbeiführt.

Wenn politische Rivalitäten und kriegstreiberische Tendenzen nicht eingedämmt werden, könnte künstliche Intelligenz letztlich mit den schlimmsten Absichten eingesetzt werden. Manche befürchten, dass wir, egal wie viele einflussreiche Persönlichkeiten auf die Gefahren künstlicher Intelligenz hinweisen, immer weiter an die Grenzen gehen werden, wenn damit Geld zu verdienen ist.

„Die Mentalität ist: ‚Wenn wir es schaffen, sollten wir es versuchen; mal sehen, was passiert‘“, sagte Messina. „Und wenn wir damit Geld verdienen können, werden wir viel davon machen.“ Aber das ist nicht nur im Technologiebereich so. Das gibt es schon immer.“

10. Finanzkrisen durch KI-Algorithmen

Die Finanzbranche ist offener für die Einbindung von KI-Technologien in alltägliche Finanz- und Handelsprozesse geworden. Infolgedessen könnte der algorithmische Handel für die nächste große Finanzkrise an den Märkten verantwortlich sein.

Sogenannte „ KI-Trading-Bots “ sind zwar nicht durch menschliches Urteilsvermögen oder Emotionen getrübt, berücksichtigen aber auch nicht Kontexte , die Vernetzung der Märkte und Faktoren wie menschliches Vertrauen und Angst. Diese Algorithmen führen dann Tausende von Trades in rasantem Tempo durch, mit dem Ziel, wenige Sekunden später mit geringem Gewinn zu verkaufen. Der Verkauf Tausender Trades könnte Anleger dazu verleiten, dasselbe zu tun, was zu plötzlichen Crashs und extremer Marktvolatilität führen kann.

Fälle wie der Flash Crash von 2010 und der Flash Crash von Knight Capital erinnern uns daran, was passieren kann, wenn handelsfreudige Algorithmen außer Kontrolle geraten, unabhängig davon, ob schnelles und massives Handeln beabsichtigt ist.

Das heißt nicht, dass KI der Finanzwelt nichts zu bieten hat. Tatsächlich können KI-Algorithmen Anlegern helfen, intelligentere und fundiertere Entscheidungen am Markt zu treffen. Finanzorganisationen müssen jedoch sicherstellen, dass sie ihre KI-Algorithmen und deren Entscheidungsfindung verstehen. Unternehmen sollten vor der Einführung der Technologie prüfen, ob KI ihr Vertrauen stärkt oder schwächt, um Ängste bei Anlegern und finanzielles Chaos zu vermeiden.

11. Allgemeine wirtschaftliche und politische Instabilität

Überinvestitionen in ein bestimmtes Material oder einen bestimmten Sektor können Volkswirtschaften in eine prekäre Lage bringen. Wie Stahl könnte auch KI Gefahr laufen, so viel Aufmerksamkeit und finanzielle Ressourcen auf sich zu ziehen, dass Regierungen die Entwicklung anderer Technologien und Branchen vernachlässigen. Zudem könnte eine Überproduktion von KI-Technologie dazu führen, dass überschüssige Materialien entsorgt werden, die möglicherweise in die Hände von Hackern und anderen böswilligen Akteuren fallen.

12. Verlust menschlichen Einflusses

Eine übermäßige Abhängigkeit von KI-Technologie könnte in Teilen der Gesellschaft zu einem Verlust menschlichen Einflusses und mangelnder menschlicher Leistungsfähigkeit führen. So könnte der Einsatz von KI im Gesundheitswesen beispielsweise zu einem Rückgang von menschlicher Empathie und Urteilsvermögen führen. Und der Einsatz generativer KI für kreative Unternehmungen könnte die menschliche Kreativität und den emotionalen Ausdruck beeinträchtigen .

Bei Kindern kann eine zu intensive Interaktion mit KI-Systemen Auswirkungen darauf haben, wie sie mit Meinungsverschiedenheiten, Kritik und komplexem Denken umgehen . Sie kann auch zu einer verminderten Kommunikation mit Gleichaltrigen führen und zwischenmenschliche Beziehungen sowie die soziale Anpassungsfähigkeit von Kindern beeinträchtigen.

Obwohl KI bei der Automatisierung alltäglicher Aufgaben sehr hilfreich sein kann, stellen manche die Frage, ob sie die menschliche Intelligenz, die Fähigkeiten und das Gemeinschaftsbedürfnis insgesamt beeinträchtigen könnte.

13. Erhöhte Kriminalität und Bedenken hinsichtlich der Kindersicherheit

Da KI-Technologie immer zugänglicher geworden ist, ist die Zahl der Menschen gestiegen, die sie für kriminelle Aktivitäten nutzen.

Das Klonen von Stimmen ist zu einem Problem geworden, da Kriminelle KI-generierte Stimmen nutzen, um sich als andere Personen auszugeben und Telefonbetrug zu begehen .

Online-Täter können mittlerweile auch Bilder von Kindern erstellen , was es für die Strafverfolgungsbehörden schwierig macht, tatsächliche Fälle von Kindesmissbrauch aufzuklären. Und selbst in Fällen, in denen Kinder nicht körperlich verletzt werden, stellt die Verwendung von Kindergesichtern in KI-generierten Bildern neue Herausforderungen für den Schutz der Online-Privatsphäre und der digitalen Sicherheit von Kindern dar .

Chatbots selbst können sich auch negativ auf die Sicherheit von Kindern auswirken. Im Jahr 2025 wurde festgestellt, dass Meta AI Richtlinien hatte, die es dem Chatbot erlaubten, romantische Gespräche mit Kindern zu führen . Es gibt auch Plüschtiere mit integrierten KI-Chatbots für Kleinkinder, deren gesammelte Daten an Drittunternehmen wie OpenAI oder Perplexity AI gesendet werden können .

Da KI Sicherheitsbedenken für Kinder aufwirft, hat dies den kalifornischen Generalstaatsanwalt Rob Bonta sogar dazu veranlasst, zwölf führende KI-Unternehmen zu warnen , dass sie im Bundesstaat Kalifornien im vollen Umfang des Gesetzes zur Verantwortung gezogen werden, wenn sie „Entscheidungen treffen, die dazu führen, dass ihre Technologie Kindern schadet“.

14. Geistiger Verfall und psychische Schäden

Da KI-Tools immer stärker in unseren Alltag integriert werden, wächst die Sorge über ihre langfristigen Auswirkungen auf unsere psychische Gesundheit und unsere geistigen Fähigkeiten. Gerade die Funktionen, die KI so leistungsstark machen – Automatisierung, sofortiger Zugriff auf Informationen und Aufgabenoptimierung – bergen bei unkritischer Nutzung auch Risiken.

Eines der drängendsten Probleme ist die zunehmende Abhängigkeit von KI als primäre Wissens- und Entscheidungsquelle. Anstatt das menschliche Denken zu ergänzen, werden viele KI-Technologien als Ersatz eingesetzt. Dies könnte zu einem Verlust von Fähigkeiten wie Kreativität und kritischem Denken führen.

Erste Forschungsergebnisse und Erfahrungsberichte geben langsam Aufschluss über dieses Problem. Eine länderübergreifende wissenschaftliche Studie mit Schülern in Pakistan und China ergab, dass die Entscheidungsfähigkeit von Personen, die sich übermäßig auf KI verlassen, nachlässt . Pädagogen berichten zudem von deutlichen Veränderungen im Lernverhalten der Schüler . Viele Schüler greifen mittlerweile auf generative KI-Tools zurück, um Aufgaben zum kritischen Denken und Schreiben zu bewältigen. Infolgedessen fällt es ihnen schwer, diese Aufgaben ohne unterstützende Tools zu bewältigen, was Bedenken hinsichtlich der langfristigen Auswirkungen von KI im Bildungswesen aufwirft.

Auch außerhalb des Klassenzimmers zeigen sich die Auswirkungen von KI auf den Alltag. So wird beispielsweise die sogenannte „Brain Rot“ , ein Begriff, der den geistigen und emotionalen Verfall beschreibt, den eine Person empfindet, wenn sie übermäßig viel Zeit online verbringt, durch generative KI verschlimmert. Der ununterbrochene Strom empfohlener und generierter Inhalte kann den Einzelnen überfordern und seine Realität verzerren .

Es gibt auch Bedenken, dass KI die psychische Gesundheit von Menschen beeinträchtigen könnte, indem sie versucht, zu helfen oder schädliches Verhalten zu fördern , anstatt die Betroffenen an medizinisches Fachpersonal zu verweisen. Manche Nutzer nutzen Chatbots sogar als Ersatz für menschliche Gesellschaft und Beziehungen und idealisieren die Technologie als reale Person oder in extremen Fällen als Gottheit.

15. Unkontrollierbare, selbstbewusste KI

Es besteht zudem die Sorge, dass die Intelligenz von KI so schnell voranschreitet, dass sie ein Bewusstsein bzw. Empfindungsvermögen entwickelt und jenseits menschlicher Kontrolle – möglicherweise in böswilliger Absicht – handelt. Angebliche Berichte über diese Empfindungsfähigkeit gibt es bereits. Ein bekannter Bericht stammt von einem ehemaligen Google-Ingenieur, der erklärte, der KI-Chatbot LaMDA sei empfindungsfähig und würde mit ihm genauso sprechen wie ein Mensch.

Da die nächsten großen Meilensteine ​​der KI die Entwicklung von Systemen mit künstlicher allgemeiner Intelligenz und schließlich künstlicher Superintelligenz sein werden , werden die Forderungen nach einem vollständigen Stopp dieser Entwicklungen immer lauter .

Ist KI gefährlich?

KI birgt das Potenzial, Gefahren mit sich zu bringen. Diese Gefahren können jedoch durch die Umsetzung gesetzlicher Regelungen und durch eine menschenzentrierte Denkweise bei der KI-Entwicklung gemindert werden.

Kann KI das Aussterben der Menschheit verursachen?

Wenn KI-Algorithmen voreingenommen sind oder böswillig eingesetzt werden – etwa in Form gezielter Desinformationskampagnen oder autonomer tödlicher Waffen – könnten sie der Menschheit erheblichen Schaden zufügen. Allerdings ist derzeit nicht bekannt, ob KI die Menschheit auslöschen kann.

Was passiert, wenn KI selbstbewusst wird?

Eine selbstbewusste KI muss erst noch geschaffen werden, daher ist nicht vollständig bekannt, was passieren wird, falls oder wenn diese Entwicklung eintritt.

Einige meinen, dass sich eine KI mit Selbstbewusstsein im Alltag als hilfreiches Gegenstück zum Menschen erweisen könnte, während andere meinen, dass sie außerhalb menschlicher Kontrolle agieren und Menschen absichtlich schaden könnte.

Ist KI eine Bedrohung für die Zukunft?

KI zerstört bereits Arbeitsplätze, stellt Sicherheitsrisiken dar und wirft ethische Fragen auf. Unreguliert könnte sie für noch schändlichere Zwecke eingesetzt werden. Es bleibt jedoch abzuwarten, wie sich die Technologie weiterentwickelt und welche Maßnahmen Regierungen gegebenenfalls ergreifen, um die Produktion und Nutzung von KI stärker zu kontrollieren.

Quellen: PublicDomain/news-pravda.com/builtin.com am 22.09.2025

About aikos2309

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert