Wird der „Minority Report“ real? US-Polizei testet KI zur Vorhersage von Verbrechen

Teile die Wahrheit!

Die Polizei von Chicago testet derzeit ein KI-basiertes System, das Verbrechen voraussagen soll, bevor sie geschehen. Aber kein Anlass zur Sorge: Die damit einhergehende Macht wird in den USA definitiv nicht missbraucht werden – das glaubt zumindest der Entwickler des Analysetools Professor Ishanu Chattopadhyay.

Die Dystopie des Jahres 2054 im Film „Minority Report“, gedreht 2002 nach einer Romanvorlage von Philip K. Dick aus dem Jahr 1956, lässt so gut wie keine Verbrechen mehr zu, da die Polizei nun endlich – zumindest vermeintlich – in die Lage versetzt werden soll, Verbrechen zu verhindern, bevor diese überhaupt geschehen.

Möglich machen sollen das sogenannte „Precogs“, das sind Troikas, die mit quasi übersinnlichen Kräften in die Zukunft blicken können. Diese mit einer Allmacht auszustattenden Polizisten im Film zeugen zwar von einer dystopischen Gesellschaft, die schon stark an jene Albträume in George Orwells Romanen erinnert. Dennoch ist bereits heute ist ein solches Szenario nicht mehr so fern von der Realität.

Durch den Fortschritt im Bereich der Künstlichen Intelligenz (KI) rückt der Traum – oder eher Albtraum – vom Predictive Policing, der präventiven Strafverfolgung immer näher.

Zumeist mit – zumindest angeblich – guten Absichten verfolgen Forscher weltweit das Ziel, auch Algorithmen zur Vorhersage von Verbrechen zu entwickeln.

Und langsam scheinen derartige Bemühungen von Erfolg gekrönt zu sein, wie ein Forschungsprojekt der University of Chicago derzeit eindrucksvoll belegt.

„Mit unserem Algorithmus kann man sagen, dass es am nächsten Mittwoch an der Kreuzung 37th Street und Southwestern Avenue einen Mord geben wird“, behauptet Ishanu Chattopadhyay, Professor an der University of Chicago und Entwickler des Algorithmus in der britischen Wissenschaftszeitschrift BBC Science Focus.

Wie funktioniert der neue Algorithmus?

native advertising

Der Algorithmus unterteilt eine beliebige Stadt in rund jeweils 92 Quadratmeter große Kacheln und verwendet die in der Vergangenheit erfassten polizeilichen Daten zu Gewalt- und Eigentumsdelikten, um künftige Verbrechen eine Woche im Voraus mit einer Genauigkeit von erstaunlichen etwa 90 Prozent vorherzusagen.

An für sich nichts Neues, allerdings unterscheidet sich laut Chattopadhyay ihre Methode stark von anderen algorithmischen Vorhersagen dieser Art. Herkömmliche KI-Tools setzten demnach voraus, dass die Kriminalität von Brennpunkten ausgeht und sich von dort aus auf andere Gebiete ausweitet.

Solche Ansätze, so argumentiert der Forscher, ließen jedoch das komplexe soziale Umfeld von Städten außer Acht und würden durch die vom Staat zur Strafverfolgung eingesetzte Überwachung auch negativ beeinflusst.

Der von Chattopadhyay entwickelte Algorithmus hingegen analysiert frühere Ereignisprotokolle – also detaillierte Berichte mit Informationen darüber, wann, wo und welche Art von Verbrechen stattgefunden hatte – unter Berücksichtigung vieler anderer Faktoren – und prognostiziere dann die Verbrechenswahrscheinlichkeit.

„Wir beginnen mit diesem Ereignisprotokoll und digitalisieren dann die Stadt in kleine Bereiche von etwa zwei Blocks mal zwei Blocks – etwa 300 Meter im Durchmesser“, erklärte der Professor.

„Und in einer dieser Kacheln sehen wir diese Zeitreihe der verschiedenen Ereignisse, wie Gewaltverbrechen, Eigentumsdelikte, Tötungsdelikte und so weiter. Unser Algorithmus betrachtet diese sich gemeinsam entwickelnden Zeitreihen und findet heraus, wie abhängig sie voneinander sind und wie sie sich gegenseitig beeinflussen – wie sie sich also gegenseitig formen.“

Bisher wurde das Programm in acht verschiedenen US-Städten getestet, darunter in Chicago, Los Angeles sowie Atlanta und Philadelphia. In einer separaten Versuchsreihe untersuchte das Team um Chattopadhyay auch die polizeiliche Reaktion auf Verbrechen, indem es die Anzahl der Verhaftungen nach strafrechtlich relevanten Vorfällen in Stadtvierteln mit unterschiedlichem sozioökonomischem Status analysierte und die dadurch gewonnenen Daten dann miteinander verglich.

Sie stellten fest, dass Verbrechen in wohlhabenderen Gegenden zu mehr Verhaftungen führten, während die Zahl der Verhaftungen in benachteiligten Vierteln zurückging. Verbrechen in Armenvierteln führten jedoch nicht zu mehr Verhaftungen, was auf eine Voreingenommenheit bei der polizeilichen Reaktion und Durchsetzung von Gesetzen schließen lässt.

Von solchen interessanten Feststellungen abgesehen, lässt der Einsatz Künstlicher Intelligenz zur Strafverfolgung bei vielen jedoch die Alarmglocken läuten.

Gefahren der KI 

Denn sobald entsprechende Technologien vorhanden sind, werden sie – und auch das hat die Geschichte der menschlichen Zivilisation leider allzu oft gezeigt – oft auch missbraucht.

Auch besteht die Fähigkeit von Algorithmen, Verbrechen vorherzusagen, lediglich darin, per definitionem unsichere Wahrscheinlichkeiten zu errechnen, die darüber hinaus zudem von vielen weiteren, unbekannten oder nicht vorhersehbaren Faktoren abhängig sind, wie auch Chattopadhyay nach der Veröffentlichung seiner Studie gegenüber US-Medien einräumte:

„Die Vergangenheit sagt nichts über die Zukunft aus. Die Frage ist: In welchem Maße beeinflusst die Vergangenheit tatsächlich die Zukunft? Und inwieweit sind die Ereignisse spontan oder wirklich zufällig? … Unsere Fähigkeit, Vorhersagen zu treffen, ist dadurch begrenzt.“

Bereits seit Langem nutzt die Polizei jedes verfügbare Instrument, um Verbrechen aufzuklären oder gar vorherzusagen. Bevor es technologische Fortschritte gab, setzten sich Polizisten in Konferenzräumen zusammen und markierten mit Stecknadeln solche Orte, an denen zuvor Verbrechen verübt wurden.

Dadurch erhofften sich die Ermittler, auffällige Häufungen ausfindig machen zu können, die ihnen Hinweise darauf geben würden, wo sie einen Täter als nächstes suchen sollten, um ihn dingfest zu machen.

In den letzten 15 Jahren begannen die größten Polizeidienststellen der USA, darunter jene in New York, Los Angeles und Chicago, über Möglichkeiten nachzudenken, die Künstliche Intelligenz einzusetzen, um Verbrechen nicht nur analysieren, sondern auch vorhersagen zu können.

Bei ihrer Suche wandten sie sich an Unternehmen zur professionellen Datenanalyse wie PredPol und Palantir, die unter anderem auch Software zur präventiven Strafverfolgung entwickeln.

Bei sämtlichen diesen „Predictive Policing Tools“ werden Daten – wie etwa Verbrechensberichte, Verhaftungsprotokolle und auch Bilder von Nummernschildern – in einen Algorithmus eingespeist, der darauf programmiert ist, nach Mustern zu suchen. Anhand der gefundenen Muster lässt sich dann ungefähr vorhersagen, wo und wann eine bestimmte Art von Ereignissen, also hier Verbrechen, in Zukunft auftreten könnte, was allerdings zweifellos durchaus auch zu voreiligen Verhaftungen oder noch schlimmeren Maßnahmen der „Prävention“ führen kann.

So stützten sich die polizeilichen Bemühungen zur Verbrechensbekämpfung in der Regel auf Berichte über Straftaten, die implizit eine komplexe Beziehung zwischen Verbrechen, Polizeiarbeit und Gesellschaft widerspiegeln.

Infolgedessen haben die Vorhersage von Verbrechen und die vorausschauende Polizeiarbeit eine Kontroverse ausgelöst, da die neuesten, auf Künstlicher Intelligenz basierenden Algorithmen nur begrenzte Einblicke in das soziale System der Kriminalität haben und die Beamten zudem auch zu falschen Rückschlüssen verleiten können.

Wenn ein Algorithmus beispielsweise vorhersagt, dass ein Polizeibeamter an einem bestimmten Ort erschossen wird, und daraufhin mehr bewaffnete Polizisten in dieses Gebiet entsandt werden, könnte diese Vorhersage somit auch zu einer „sich selbst erfüllenden Prophezeiung“ werden.

Und obwohl Chattopadhyays Software in rund 90 Prozent der Fälle richtig liegen mag, bedeutet das noch lange nicht, dass damit auch mehr Verbrechen verhindert werden können.

Es bedeutet lediglich, dass an den von der Software als Schauplatz künftiger Verbrechen vorhergesagten Orten, präventiv ein paar mehr Polizisten eingesetzt werden können, die in der Folge allerdings vermutlich jeden, der in diesen Gebieten verkehrt, als potenziell verdächtig betrachten könnten.

Am Ende des Films „Minority Report“ zeigt das System Schwachstellen, die Vorhersagen manipulierbar machen und sowohl zu falschen Verdächtigungen als auch falschen Vorhersagen führen.

Neben den erhofften Vorzügen besteht bei der Verwendung von derartigen „Predictive Policing Tools“ die nicht zu unterschätzende Gefahr, dass autoritäre Systeme sie dazu nutzen können, um störende Andersdenkende oder gar Oppositionelle „loszuwerden“. Chattopadhyay schlussfolgert:

„Wir sind uns der Gefahr bewusst, dass leistungsstarke Prognoseinstrumente übereifrigen Staaten im Namen des Schutzes der Zivilbevölkerung in die Hände spielen.

Meine Teamkollegen und ich haben viel darüber gesprochen, dass wir nicht wollen, dass es als rein prädiktives politisches Werkzeug eingesetzt wird. Wir wollen, dass es hauptsächlich zur Optimierung der Politik eingesetzt wird. Wir müssen dies ermöglichen, denn es reicht nicht aus, ein Papier aufzustellen und den Algorithmus zu haben.

 

Wir wollen, dass der Bürgermeister oder die Administratoren das erzeugte Modell nutzen, um Simulationen durchzuführen und die Politik zu informieren.“

Während viele andere Lebensbereiche stark von KI-Prognosen profitieren können, sollte die Polizei angesichts der nicht zu leugnenden Fehleranfälligkeit besser beraten sein, weiterhin auf menschliche Fähigkeiten statt auf Algorithmen zu setzten.

Sicher klingt das pessimistisch, aber in Anbetracht des systematischen Missbrauchs ähnlicher experimenteller Software zur Unterstützung der Polizei – ganz zu schweigen von den systematischen Übergriffen auf gefährdete Bevölkerungsgruppen, die es in der Arbeit der US-Polizei ohnehin schon lange, ohne jegliche KI gibt – scheint dieser Pessimismus durchaus berechtigt zu sein.

Am 28. April 2020 erschien „Der Hollywood-Code: Kult, Satanismus und Symbolik – Wie Filme und Stars die Menschheit manipulieren“ (auch bei Amazon  verfügbar), mit einem spannenden Kapitel: „Die Rache der 12 Monkeys, Contagion und das Coronavirus, oder wie aus Fiktion Realität wird“.

Am 15. Dezember 2020 erschien „Der Musik-Code: Frequenzen, Agenden und Geheimdienste: Zwischen Bewusstsein und Sex, Drugs & Mind Control“ (auch bei Amazon verfügbar), mit einem spannenden Kapitel: „Popstars als Elite-Marionetten im Dienste der Neuen Corona-Weltordnung“.

Am 10. Mai 2021 erschien „DUMBs: Geheime Bunker, unterirdische Städte und Experimente: Was die Eliten verheimlichen“ (auch bei Amazon verfügbar), mit einem spannenden Kapitel Adrenochrom und befreite Kinder aus den DUMBs“.

Am 18. März 2022 erschien „Die moderne Musik-Verschwörung: Popstars, Hits und Videoclips – für die perfekte Gehirnwäsche“ (auch bei Amazon verfügbar), mit einem spannenden Kapitel „Stars Pro und Contra Impfung: „Die Ärzte“, „Die Toten Hosen“, Nena, Westernhagen, Eric Clapton, Neil Young und weitere“.

Am 26. August 2022 erschien „Der Hollywood-Code 2: Prophetische Werke, Alien-Agenda, Neue Weltordnung und Pädophilie – sie sagen es uns durch Filme“ (auch bei Amazon verfügbar), mit einem spannenden Kapitel „Die Illuminati und die Neue Weltordnung in Hollywood“.

Ein handsigniertes Buch erhalten Sie für Euro 30,- (alle fünf Bücher für Euro 150,-) inkl. Versand bei Zusendung einer Bestellung an: info@pravda-tv.com.

Quellen: PublicDomain/de.rt.com am 12.09.2022

native advertising

About aikos2309

4 comments on “Wird der „Minority Report“ real? US-Polizei testet KI zur Vorhersage von Verbrechen

  1. keine ki kann den menschen nachbilden, weder körperlich noch geistig.
    sieht man gut bei den angeblichen supersportlern und speziel geistig in der regierung.
    gerade dort, weil es nicht funktioniert, wird nachgeholfen und dann groß trara gemacht um es zu verkaufen. hier geht es nur um eins, verantwortungslos die massen fern zu steuern, unter benutzen der bereits assimilierten.

  2. thesun.co.uk/news/9749352/lord-mountbatten-fbi-claims-ira-murder-anniversary/

    insidetasmania.com/2012/10/pedophile-jimmy-savile-close-friend-of.html

    thefreethoughtproject.com/be-the-change/the-eulogy-of-queen-elizabeth-ii-that-you-wont-see-on-your-tv

    bizpacreview.com/2022/09/11/michelle-o-draws-mockery-and-worse-when-spotted-leaving-pricey-nyc-hotel-in-ridiculously-baggy-jeans-1283628/

  3. „Wird der „Minority Report“ real? US-Polizei testet KI zur Vorhersage von Verbrechen“

    WIe bitte? Habt ihr die letzten Jahre geschlafen?
    In den USA wird diese Technologie schon seit 5 Jahren von der Polizei offiziell angewandt.Und nein sie wird dort nicht getestet, sondern sie kommt schon seit Jahren dort offiziell zum Einsatz.
    Nennt sich Pre-Crime. Und auch in Deutschland wird diese Technologie in mehreren Bundesländern schon seit mindestens 3 Jahren angewendet bzw. kommt dort zum Einsatz.
    https://www.heise.de/newsticker/meldung/Precrime-Bundeskriminalamt-sucht-Gefaehrder-mit-RADAR-3615563.html

    https://www.heise.de/newsticker/meldung/Predictive-Policing-Die-Polizei-arbeitet-verstaerkt-wie-ein-Geheimdienst-4008214.html

    https://www.heise.de/newsticker/meldung/Predictive-Policing-Die-deutsche-Polizei-zwischen-Cyber-CSI-und-Minority-Report-3685873.html

    https://www.heise.de/newsticker/meldung/Precrime-BKA-meldet-erste-Erfolge-der-Gefaehrderanalyse-mit-Radar-iTE-3921293.html

    Hier der Artikel ist sogar von 2014
    https://www.heise.de/newsticker/meldung/Precrime-Bayerische-Polizei-setzt-Software-gegen-Einbrecher-ein-2287024.html

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.