Kunstig intelligens i politiet: VeRA under kritik!
Find ud af alt om brugen af kunstig intelligens i Hessen til at bekæmpe kriminalitet og de juridiske udfordringer.

Kunstig intelligens i politiet: VeRA under kritik!
Den 24. september 2024 offentliggjorde kabinettet i Baden-Württemberg en bemærkelsesværdig sikkerheds- og foranstaltningerspakke med titlen "Strengthening Security, Organizing Migration, Preventing Radicalization". Et centralt punkt i denne pakke er den planlagte brug af kunstig intelligens til at analysere indsamlede data, kendt som VeRA. Denne analysesoftware skal gøre det muligt at kombinere data fra forskellige kilder for at effektivisere kriminalitetsbekæmpelsen. Faktisk ses Palantir-softwaren, som har været brugt i Hessen siden 2017 under navnet Hessen-Data, som lovende i denne sammenhæng, men blev i første omgang stoppet på føderalt niveau af det føderale indenrigsministerium, fordi det nødvendige juridiske grundlag for brugen af det af forbundspolitiet og forbundskriminalpolitiet ikke kunne skabes.
Som BDK rapporterer, er en udvidelse af politiloven der påkrævet for at bruge VeRA i Baden-Württemberg. Høringsprocessen for ændring af loven afventer dog stadig, hvilket gør hele diskussionen i den grøn-sorte koalition til et varmt emne. Sammenslutningen af tyske kriminalpolitibetjente Baden-Württemberg (BDK BW) forventer, at der ved indførelse af VeRA skal gælde omfattende juridiske beføjelser for brugen af denne teknologi.
Pilotprojekter og juridiske udfordringer
Der er allerede gennemført et europæisk udbud af et analyseprodukt i Bayern, hvor Palantir er udvalgt som det eneste egnede produkt. Der er dog usikkerhed, fordi forskellige føderale stater har forskellige holdninger til dette spørgsmål. Mens Nordrhein-Westfalen for eksempel har haft et juridisk grundlag for brugen af Palantirs "DAR"-software siden 2022, tøver Hamburg stadig med en beslutning om automatiseret dataanalyse, som blev indført i 2019, men som blev erklæret ugyldig ved en kendelse fra den føderale forfatningsdomstol.
I februar 2023 satte den føderale forfatningsdomstol klare grænser for brugen af automatiserede dataanalyseværktøjer for at forhindre enhver overtrædelse af databeskyttelsen. Ifølge Süddeutsche Zeitung kan disse værktøjer, på trods af deres nyttige informationspotentiale, blive farlige, fordi de kan skabe omfattende personlige foranstaltninger og involvere uinvolverede personer i politiet. Dette sker blandt andet, når brugere utilsigtet får adgang til analysesystemer gennem teknikker som radiocelleforespørgsler.
Mangfoldighed af meninger og næste skridt
Udsigten til, at Tyskland potentielt tager store skridt i retning af automatiseret dataanalyse i år, bliver mødt med både støtte og modstand. Nogle indenrigsministerier spørger allerede om muligheden for at bruge Palantir-software eller lignende produkter. Forbundsstater som Sachsen-Anhalt, Sachsen og Sachsen-Anhalt tager i øjeblikket ikke skridt i denne retning, mens Berlin og Baden-Württemberg overvejer at følge den bayerske løsning.
Når man diskuterer brugen af kunstig intelligens til kriminalitetsbekæmpelse, er der ikke kun tekniske, men også etiske spørgsmålstegn. Det er vigtigt, at den grundlæggende ret til informativ selvbestemmelse bevares, når sådanne teknologier udvikles og implementeres. Netzpolitik understreger, at omfattende regler om databrug og registrering af analyseværktøjer skal garanteres for at undgå misbrug og krænkelser af databeskyttelse.
Overordnet set mangler det at se, hvordan diskussionen om VeRA, Palantir og hele udviklingen af automatiseret dataanalyse i Tyskland fortsætter. Her vil der kræves en god hånd fra lovgiverne for at holde både sikkerhed og borgerrettigheder for øje.