Inteligența artificială în poliție: VeRA sub critici!
Aflați totul despre utilizarea inteligenței artificiale în Hesse pentru a lupta împotriva criminalității și provocările legale.

Inteligența artificială în poliție: VeRA sub critici!
Pe 24 septembrie 2024, cabinetul Baden-Württemberg a publicat un pachet remarcabil de măsuri și securitate intitulat „Consolidarea securității, organizarea migrației, prevenirea radicalizării”. Un punct central al acestui pachet este utilizarea planificată a inteligenței artificiale pentru a analiza datele colectate, cunoscută sub numele de VeRA. Acest software de analiză are scopul de a face posibilă combinarea datelor din diferite surse pentru a eficientiza lupta împotriva criminalității. De fapt, software-ul Palantir, care este folosit în Hesse din 2017 sub denumirea de Hessen-Data, este văzut ca promițător în acest context, dar a fost oprit inițial la nivel federal de Ministerul Federal de Interne deoarece nu a putut fi creat temeiul juridic necesar pentru utilizarea sa de către Poliția Federală și Oficiul Federal de Poliție Criminală.
După cum raportează BDK, este necesară o extindere a legii poliției pentru a utiliza VeRA în Baden-Württemberg. Cu toate acestea, procesul de audiere pentru schimbarea legii este încă în așteptare, ceea ce face ca întreaga discuție din coaliția verde-negru un subiect fierbinte. Asociația ofițerilor de poliție penală germană Baden-Württemberg (BDK BW) se așteaptă ca atunci când va fi introdusă VeRA, să se aplice competențe legale extinse pentru utilizarea acestei tehnologii.
Proiecte-pilot și provocări legale
O licitație la nivel european pentru un produs de analiză a fost deja efectuată în Bavaria, Palantir fiind selectat ca singurul produs potrivit. Cu toate acestea, există incertitudine deoarece diferite state federale au opinii diferite cu privire la această problemă. În timp ce Renania de Nord-Westfalia, de exemplu, are o bază legală pentru utilizarea software-ului „DAR” al Palantir din 2022, Hamburg încă ezită cu o decizie privind analiza automată a datelor, care a fost introdusă în 2019, dar a fost declarată invalidă printr-o hotărâre a Curții Constituționale Federale.
În februarie 2023, Curtea Constituțională Federală a stabilit limite clare privind utilizarea instrumentelor automate de analiză a datelor pentru a preveni orice încălcare a protecției datelor. Potrivit Süddeutsche Zeitung, aceste instrumente, în ciuda potențialului lor informativ util, pot deveni periculoase deoarece creează profiluri personale extinse și implică persoane neimplicate în măsurile polițienești pot. Acest lucru se întâmplă, printre altele, atunci când utilizatorii accesează neintenționat sisteme de analiză prin tehnici precum interogările de celule radio.
Diversitatea de opinii și pașii următori
Perspectiva ca Germania să facă pași majori către analiza automată a datelor în acest an este întâmpinată atât cu sprijin, cât și cu rezistență. Unele ministere de interne întreabă deja despre posibilitatea utilizării software-ului Palantir sau a unor produse similare. State federale precum Saxonia-Anhalt, Saxonia și Saxonia-Anhalt nu fac momentan nicio mișcare în această direcție, în timp ce Berlin și Baden-Württemberg iau în considerare soluția bavareză.
Când se discută despre utilizarea inteligenței artificiale în combaterea criminalității, există semne de întrebare nu numai tehnice, ci și etice. Este important ca dreptul fundamental la autodeterminare informațională să fie păstrat atunci când se dezvoltă și se implementează astfel de tehnologii. Netzpolitik subliniază că trebuie garantate reglementări cuprinzătoare privind utilizarea datelor și înregistrarea instrumentelor de analiză pentru a evita utilizarea abuzivă și încălcarea protecției datelor.
În general, rămâne de văzut cum vor continua discuțiile despre VeRA, Palantir și întreaga dezvoltare a analizei automate a datelor în Germania. Aici va fi nevoie de o mână bună din partea legiuitorilor pentru a avea în vedere atât securitatea, cât și drepturile civile.