Intelligenza artificiale nella polizia: VeRA sotto critica!
Scoprite tutto sull'uso dell'intelligenza artificiale in Assia per combattere la criminalità e le sfide legali.

Intelligenza artificiale nella polizia: VeRA sotto critica!
Il 24 settembre 2024, il governo del Baden-Württemberg ha pubblicato un notevole pacchetto di misure e misure di sicurezza intitolato “Rafforzare la sicurezza, organizzare la migrazione, prevenire la radicalizzazione”. Un punto centrale di questo pacchetto è l’uso pianificato dell’intelligenza artificiale per analizzare i dati raccolti, noto come VeRA. Questo software di analisi dovrebbe consentire di combinare dati provenienti da diverse fonti per rendere più efficace la lotta alla criminalità. In effetti, il software Palantir, utilizzato in Assia dal 2017 con il nome Hessen-Data, è considerato promettente in questo contesto, ma è stato inizialmente bloccato a livello federale dal Ministero federale degli Interni perché non è stato possibile creare la base giuridica necessaria per il suo utilizzo da parte della Polizia federale e dell'Ufficio federale della polizia criminale.
Come riporta il BDK, per poter utilizzare VeRA nel Baden-Württemberg è necessaria un'estensione della legge di polizia. Tuttavia, il processo di udienza per la modifica della legge è ancora pendente, il che rende l'intera discussione nella coalizione verde-nera un tema caldo. L'Associazione degli agenti della polizia criminale tedesca del Baden-Württemberg (BDK BW) prevede che con l'introduzione della VeRA si applicheranno ampi poteri legali all'uso di questa tecnologia.
Progetti pilota e sfide legali
In Baviera è già stata indetta una gara a livello europeo per un prodotto da analizzare e Palantir è stato selezionato come unico prodotto idoneo. Tuttavia, vi è incertezza perché i diversi Stati federali hanno opinioni diverse su questo tema. Mentre la Renania Settentrionale-Vestfalia, ad esempio, dispone dal 2022 di una base giuridica per l'utilizzo del software "DAR" della Palantir, Amburgo esita ancora con una decisione sull'analisi automatizzata dei dati, introdotta nel 2019 ma dichiarata non valida da una sentenza della Corte costituzionale federale.
Nel febbraio 2023 la Corte costituzionale federale ha fissato chiari limiti all’uso di strumenti automatizzati di analisi dei dati al fine di prevenire eventuali violazioni della protezione dei dati. Secondo la Süddeutsche Zeitung, questi strumenti, nonostante il loro utile potenziale informativo, possono diventare pericolosi perché possono creare ampi profili personali e coinvolgere persone non coinvolte nelle misure di polizia. Ciò accade tra l'altro quando gli utenti accedono involontariamente ai sistemi di analisi attraverso tecniche come le interrogazioni delle celle radio.
Diversità di opinioni e prossimi passi
La prospettiva che la Germania possa compiere passi importanti verso l’analisi automatizzata dei dati quest’anno incontra sia supporto che resistenza. Alcuni Viminali si stanno già interrogando sulla possibilità di utilizzare il software Palantir o prodotti simili. Gli stati federali come la Sassonia-Anhalt, la Sassonia e la Sassonia-Anhalt non stanno attualmente facendo alcun passo in questa direzione, mentre Berlino e il Baden-Württemberg stanno valutando di seguire la soluzione bavarese.
Quando si parla dell’uso dell’intelligenza artificiale nella lotta alla criminalità non ci sono solo interrogativi tecnici ma anche etici. È importante che il diritto fondamentale all’autodeterminazione informativa sia preservato durante lo sviluppo e l’implementazione di tali tecnologie. La Netzpolitik sottolinea che devono essere garantite norme esaustive sull'uso dei dati e sulla registrazione degli strumenti di analisi per evitare abusi e violazioni della protezione dei dati.
Nel complesso resta da vedere come proseguirà la discussione su VeRA, Palantir e l’intero sviluppo dell’analisi automatizzata dei dati in Germania. Qui sarà necessaria una buona mano da parte dei legislatori per tenere a mente sia la sicurezza che i diritti civili.