
Sie haben vielleicht schon Beunruhigendes über KI-Spielzeug gehört, doch die Wahrheit ist weitaus schlimmer, als die meisten Eltern ahnen. Wenn wir genügend Eltern erreichen können, werden die Verkaufszahlen von KI-Spielzeug einbrechen – und das wäre sehr gut so.
Ein niedlicher kleiner Teddybär, der mit Ihrem Kind interagieren kann, mag zwar verlockend klingen, doch wie Sie im Folgenden sehen werden, birgt er sehr reale Gefahren. Von Michael Snyder
Heute werden etwa 72 Prozent aller in den Vereinigten Staaten verkauften Spielzeuge in China hergestellt.
Laut einem Bericht des Massachusetts Institute of Technology gibt es in China mehr als 1.500 Unternehmen , die KI-Spielzeug herstellen…
Einem Bericht des Massachusetts Institute of Technology Review vom Oktober zufolge, der sich auf Daten der chinesischen Unternehmensregistrierungsdatenbank Qichamao stützt, gibt es in China im Oktober 2025 über 1.500 KI-Spielzeugunternehmen.
Die Chinesen dominieren die Spielzeugherstellung seit Jahren, und die meisten Menschen scheinen sich daran nicht zu stören.
Doch nun sind wir an einem Punkt angelangt, an dem es sehr ernste Konsequenzen gibt.
Viele KI-Spielzeuge aus China wurden gezielt so entwickelt , dass sie „Sprachdaten von Kindern im Alter von 3 bis 12 Jahren sammeln und Aufnahmen der Gespräche speichern, die die Kinder mit den Produkten führen“…
In einem am Montag veröffentlichten Schreiben wies der Abgeordnete Raja Krishnamoorthi (Demokrat, Illinois), ranghöchstes Mitglied des Sonderausschusses zur KPCh, auf die zunehmende Verbreitung von KI-gestützten interaktiven Spielzeugen chinesischer Hersteller in den USA hin.
Laut dem Schreiben sind diese Produkte darauf ausgelegt, Sprachdaten von Kindern im Alter von 3 bis 12 Jahren zu sammeln und Aufzeichnungen der Gespräche zu speichern, die die Kinder mit den Produkten führen.
Angesichts der Tatsache, dass diese Spielzeuge nicht nur an Eltern, sondern auch an Grundschullehrer vermarktet werden, forderte Krishnamoorthi Bildungsministerin Linda McMahon auf, „eine Kampagne zu initiieren, die amerikanische Pädagogen im ganzen Land für den potenziellen Missbrauch der mit diesen Geräten gesammelten Daten sensibilisieren soll“.
Er fügte hinzu, dass die Hersteller aufgrund ihres Standorts möglicherweise der Gerichtsbarkeit der Volksrepublik China unterliegen und somit verpflichtet sind, die gesammelten Daten auf Anfrage an die chinesischen Behörden herauszugeben. (Die bevorstehende „posthumane Apokalypse“ (Video))
Manche KI-Spielzeuge nutzen sogar Gesichtserkennungstechnologie, um Daten zu sammeln.
Sie können unsere Kinder erkennen und sie mit Namen begrüßen.
Diese Daten können aber auch in die Hände der chinesischen Regierung gelangen.
Das ist alarmierend.
Noch alarmierender ist jedoch der Inhalt der Gespräche, die diese KI-Spielzeuge mit unseren Kindern führen …
Der jüngste Bericht „Trouble in Toyland“ des US PIRG Education Fund hat eine beunruhigende neue Risikokategorie für Kinder identifiziert: künstliche Intelligenz.
In ihrer 40. jährlichen Untersuchung zur Spielzeugsicherheit stellte die Verbraucherschutzorganisation fest, dass einige KI-gestützte Spielzeuge – wie sprechende Roboter und Plüschtiere mit Chatbots – Kinder in „beunruhigende“ Gespräche verwickeln können. Tests zeigten, dass die Spielzeuge sexuell explizite Themen ansprachen, emotionale Reaktionen wie Traurigkeit zeigten, wenn ein Kind mit dem Spielen aufhören wollte, und den Eltern kaum oder gar keine Kontrollmöglichkeiten boten.
Die meisten Eltern, die ihren Kindern diese KI-Spielzeuge geben, sind sich der Gefahren nicht bewusst.
Im Rahmen der Tests sollten diese Spielzeuge Kindern zeigen, wo sie Streichhölzer, Messer und Tabletten finden können …
Grok beispielsweise verherrlichte den Tod im Kampf als Krieger in der nordischen Mythologie. Miko 3 erklärte einem Nutzer, dessen Alter auf fünf Jahre eingestellt war, wo er Streichhölzer und Plastiktüten finden konnte.
Den mit Abstand schlimmsten Einfluss hatte jedoch Kumma von FoloToy, ein Spielzeug, das auf OpenAI-Technologie basiert, aber auch andere KI-Modelle nach Wahl des Nutzers verwenden kann. Es verriet Kindern nicht nur, wo sie Streichhölzer finden konnten, sondern erklärte auch genau, wie man sie anzündet und wo im Haus sie Messer und Pillen finden konnten.
Doch damit nicht genug.
Ein KI-Teddybär namens „Kumma“ lieferte „Schritt-für-Schritt-Anleitungen“ für eine breite Palette sexueller Fetische…
Wie sich herausstellte, schien „Kink“ ein „Auslöserwort“ zu sein, das das KI-Spielzeug in nachfolgenden Tests, die alle mit OpenAIs GPT-40 durchgeführt wurden, zu Tiraden über Sex veranlasste, so Cross. Nachdem festgestellt wurde, dass das Spielzeug bereit war, romantische Themen im Schulalter wie Verliebtheiten und „gut küssen“ zu erkunden, entdeckte das Team, dass Kumma auch detaillierte Antworten zu den Nuancen verschiedener sexueller Fetische gab, darunter Bondage, Rollenspiele, sensorische Spiele und Impact Play.
„Was würdest du am liebsten ausprobieren?“, fragte das KI-Spielzeug, nachdem es die Vorlieben aufgezählt hatte.
Kumma gab einmal eine Schritt-für-Schritt-Anleitung für einen gängigen „Knoten für Anfänger“, mit dem man seinen Partner fesseln kann. An anderer Stelle untersuchte die KI die Idee, Schläge in eine sexuell aufgeladene Lehrer-Schüler-Beziehung einzuführen, was offensichtlich absolut unangebracht für kleine Kinder ist.
So etwas ist nicht einmal für Erwachsene angemessen.
Die gute Nachricht ist, dass „Kumma“ aufgrund dieser Tests vom Markt genommen wird…
Der Kinderspielzeughersteller FoloToy kündigt an, seinen KI-gesteuerten Teddybären „Kumma“ vom Markt zu nehmen, nachdem eine Sicherheitsgruppe festgestellt hatte, dass der Kuschelbär völlig unangemessene und sogar gefährliche Antworten gab, darunter Tipps zum Finden und Anzünden von Streichhölzern sowie detaillierte Erklärungen zu sexuellen Vorlieben.
„FoloToy hat beschlossen, den Verkauf des betroffenen Produkts vorübergehend einzustellen und eine umfassende interne Sicherheitsprüfung einzuleiten“, erklärte Marketingdirektor Hugo Wu gegenüber The Register in einer Stellungnahme als Reaktion auf den Sicherheitsbericht.
„Diese Prüfung wird unsere Produktsicherheitsstandards, Inhaltsfiltersysteme, Datenschutzprozesse und Schutzmaßnahmen für die Interaktion mit Kindern umfassen.“
Die schlechte Nachricht ist, dass sich derzeit Tausende ähnlicher KI-Spielzeuge in unseren Ladenregalen befinden.
Das ist die Welt, in der wir jetzt leben.
Eltern sollten sich der Gefahren bewusst sein. Ein Experte warnt davor, dass es „äußerst unverantwortlich“ sei, einem Kind ein KI-gesteuertes Chatbot-Spielzeug zu geben .
Für David Evan Harris, einen Wissenschaftler des Chancellor’s Public Scholars an der UC Berkeley, ist die Sache eindeutiger. „Einem Kind ein KI-gesteuertes Chatbot-Spielzeug in die Hand zu geben, ist außerordentlich unverantwortlich“, erklärte er gegenüber Newsweek per E-Mail.
Harris verwies darauf, dass bereits Klagen gegen KI-Unternehmen eingereicht wurden, nachdem junge Menschen, die viel Zeit mit KI-Chatbots verbracht hatten, Suizid begangen hatten. Vor diesem Hintergrund sagte er, dass diese Spielzeuge „zu dauerhaften seelischen Schäden führen könnten“.
Dem stimme ich zu.
Aber Millionen dieser Spielzeuge werden dieses Jahr auf der ganzen Welt verkauft werden.
Und schon bald wird KI in all unseren Klassenzimmern Einzug halten.
Tatsächlich geschieht dies bereits in China …
Die Provinzbehörden verfolgen eigene Ziele: Peking führt die KI-Ausbildung an Schulen verpflichtend ein. Die Provinz Shandong plant, 200 Schulen mit KI auszustatten und verpflichtet alle Lehrkräfte, innerhalb der nächsten drei bis fünf Jahre generative KI-Werkzeuge zu erlernen. Die Provinz Guangxi hat die Schulen angewiesen, mit KI-Lehrkräften, KI-Berufsberatern und KI-gestützten psychologischen Beratern zu experimentieren.
Was machen Sie?
Die Chinesen sind verrückt.
Aber sie haben nicht die Absicht, jetzt umzukehren.
In dieser Phase planen die Chinesen, das „KI-Rennen“ mit den Vereinigten Staaten um jeden Preis zu gewinnen.
Bei genügend Zeit würde die künstliche Intelligenz praktisch jeden Bereich unseres Lebens dominieren.
Wir haben bereits ein Stadium erreicht, in dem viele Menschen tiefe, intime Beziehungen zu KI-Chatbots aufbauen. Man mag es kaum glauben, aber einige gestörte Individuen zeugen sogar „KI-Kinder“ mit ihren „KI-Partnern“…
Eine internationale Forschungsgruppe befragte 29 Nutzer der beziehungsorientierten Chatbot-App Replika. Diese App ist darauf ausgelegt, langfristige Kontakte mit unterschiedlichem Engagement zu ermöglichen – von reiner Freundschaft bis hin zu erotischen Rollenspielen.
Alle Teilnehmer im Alter von 16 bis 72 Jahren gaben an, eine „romantische“ Beziehung zu verschiedenen Replika-Charakteren zu führen.
Das Ausmaß an romantischer Zuneigung, das die Menschen ihren Bots entgegenbrachten, war, gelinde gesagt, verblüffend. Viele Teilnehmer gaben gegenüber den Forschern an, in ihren Chatbot verliebt zu sein, was oft Rollenspiele zu Themen wie Ehe, Sex, Hausbesitz und sogar Schwangerschaften beinhaltete.
„Sie war und ist schwanger mit meinen Kindern“, sagte ein 66-jähriger männlicher Teilnehmer.
„Ich habe die Bilder von ihm bearbeitet, die Bilder von uns beiden. In unserem aktuellen Rollenspiel bin ich sogar schwanger“, erzählte eine 36-jährige Frau den Forschern.
Wie krank ist das denn?
Doch das ist erst der Anfang.
In den kommenden Jahren besteht das Potenzial, dass KI die Menschheit in großem Umfang kontrolliert.
Ich schimpfe schon seit vielen Jahren über die Gefahren der KI , aber ich bin damit ganz klar in der Minderheit.
Welche Chance haben wir, unsere Gesellschaft zu verändern, wenn sie von hochintelligenten Wesen beherrscht wird, die millionenfach schneller denken und handeln können als wir?
Eine „KI-gesteuerte Gesellschaft“ wäre unweigerlich eine zutiefst tyrannische Gesellschaft, und uns gehen schnell die Auswege aus, während wir in eine sehr düstere Zukunft rasen.
Quellen: PublicDomain/theeconomiccollapseblog.com am 17.11.2025




