Artificiell intelligens i polisen: VeRA under kritik!
Ta reda på allt om användningen av artificiell intelligens i Hessen för att bekämpa brott och de juridiska utmaningarna.

Artificiell intelligens i polisen: VeRA under kritik!
Den 24 september 2024 publicerade Baden-Württembergs kabinett ett anmärkningsvärt säkerhets- och åtgärdspaket med titeln "Strengthening Security, Organizing Migration, Preventing Radicalization". En central punkt i detta paket är den planerade användningen av artificiell intelligens för att analysera insamlad data, känd som VeRA. Denna analysmjukvara är tänkt att göra det möjligt att kombinera data från olika källor för att effektivisera brottsbekämpningen. Faktum är att programvaran Palantir, som har använts i Hessen sedan 2017 under namnet Hessen-Data, ses som lovande i detta sammanhang, men stoppades till en början på federal nivå av det federala inrikesministeriet eftersom den nödvändiga rättsliga grunden för användningen av den av den federala polisen och den federala kriminalpolisen inte kunde skapas.
Som BDK rapporterar krävs en utvidgning av polislagen där för att kunna använda VeRA i Baden-Württemberg. Utfrågningsprocessen för lagändring pågår dock fortfarande, vilket gör hela diskussionen i den grön-svarta koalitionen till ett hett ämne. Förbundet för tyska kriminalpoliser Baden-Württemberg (BDK BW) förväntar sig att när VeRA införs måste omfattande juridiska befogenheter gälla för användningen av denna teknik.
Pilotprojekt och juridiska utmaningar
Ett europeiskt anbud på en analysprodukt har redan genomförts i Bayern, där Palantir valts ut som den enda lämpliga produkten. Det råder dock osäkerhet eftersom olika delstater har olika syn på denna fråga. Medan exempelvis Nordrhein-Westfalen har haft en rättslig grund för användningen av Palantirs mjukvara ”DAR” sedan 2022, tvekar Hamburg fortfarande med ett beslut om automatiserad dataanalys, som infördes 2019 men förklarades ogiltigt genom ett beslut av den federala författningsdomstolen.
I februari 2023 satte den federala författningsdomstolen tydliga gränser för användningen av automatiserade dataanalysverktyg för att förhindra eventuella brott mot dataskyddet. Enligt Süddeutsche Zeitung kan dessa verktyg, trots sin användbara informationspotential, bli farliga eftersom de skapar omfattande personprofiler och involvera oengagerade personer i polisiära åtgärder kan. Detta händer bland annat när användare oavsiktligt kommer åt analyssystem genom tekniker som radiocellsförfrågningar.
Mångfald av åsikter och nästa steg
Utsikten att Tyskland potentiellt tar stora steg mot automatiserad dataanalys i år möts av både stöd och motstånd. Vissa inrikesministerier frågar redan om möjligheten att använda programvara från Palantir eller liknande produkter. Förbundsstater som Sachsen-Anhalt, Sachsen och Sachsen-Anhalt gör för närvarande inga steg i denna riktning, medan Berlin och Baden-Württemberg överväger att följa den bayerska lösningen.
När man diskuterar användningen av artificiell intelligens i brottsbekämpningen finns inte bara tekniska utan även etiska frågetecken. Det är viktigt att den grundläggande rätten till informationsmässigt självbestämmande bevaras vid utveckling och implementering av sådan teknik. Netzpolitik betonar att omfattande bestämmelser om dataanvändning och registrering av analysverktyg måste garanteras för att undvika missbruk och dataskyddsbrott.
Sammantaget återstår det att se hur diskussionen om VeRA, Palantir och hela utvecklingen av automatiserad dataanalys i Tyskland kommer att fortsätta. Här kommer det att krävas en god hand från lagstiftarna för att ha både säkerhet och medborgerliga rättigheter i åtanke.