Kunstmatige intelligentie bij de politie: VeRA onder kritiek!
Ontdek alles over het gebruik van kunstmatige intelligentie in Hessen om de misdaad te bestrijden en de juridische uitdagingen.

Kunstmatige intelligentie bij de politie: VeRA onder kritiek!
Op 24 september 2024 publiceerde het kabinet van Baden-Württemberg een opmerkelijk veiligheids- en maatregelenpakket met de titel “Versterking van de veiligheid, organisatie van migratie, preventie van radicalisering”. Centraal in dit pakket staat het geplande gebruik van kunstmatige intelligentie om verzamelde data te analyseren, bekend als VeRA. Deze analysesoftware is bedoeld om het mogelijk te maken gegevens uit verschillende bronnen te combineren om zo de misdaadbestrijding efficiënter te maken. De Palantir-software, die sinds 2017 in Hessen wordt gebruikt onder de naam Hessen-Data, wordt in deze context als veelbelovend gezien, maar werd aanvankelijk op federaal niveau stopgezet door het federale ministerie van Binnenlandse Zaken omdat de noodzakelijke wettelijke basis voor het gebruik ervan door de federale politie en de federale recherche niet kon worden gecreëerd.
Zoals de BDK meldt, is daar een uitbreiding van de politiewet nodig om VeRA in Baden-Württemberg te kunnen gebruiken. Het hoorproces over de wetswijziging loopt echter nog, waardoor de hele discussie in de groen-zwarte coalitie een hot topic is. De Vereniging van Duitse Rechercheurs Baden-Württemberg (BDK BW) verwacht dat bij de introductie van VeRA uitgebreide wettelijke bevoegdheden moeten gelden voor het gebruik van deze technologie.
Proefprojecten en juridische uitdagingen
In Beieren is al een Europese aanbesteding voor een analyseproduct uitgevoerd, waarbij Palantir als enige geschikt product is geselecteerd. Er bestaat echter onzekerheid omdat verschillende deelstaten hierover verschillende opvattingen hebben. Terwijl Noordrijn-Westfalen bijvoorbeeld sinds 2022 een wettelijke basis heeft voor het gebruik van de “DAR”-software van Palantir, aarzelt Hamburg nog steeds met een besluit over geautomatiseerde data-analyse, dat in 2019 werd geïntroduceerd maar door een uitspraak van het Federale Constitutionele Hof ongeldig werd verklaard.
In februari 2023 stelde het Federaal Constitutioneel Hof duidelijke grenzen aan het gebruik van geautomatiseerde data-analysetools om schendingen van de gegevensbescherming te voorkomen. Volgens de Süddeutsche Zeitung kunnen deze instrumenten, ondanks hun nuttige informatiepotentieel, gevaarlijk worden omdat ze uitgebreide persoonlijke profielen kunnen creëren en niet-betrokken mensen kunnen betrekken bij politiemaatregelen. Dit gebeurt onder meer wanneer gebruikers onbedoeld toegang krijgen tot analysesystemen via technieken zoals radiocelquery's.
Diversiteit aan meningen en volgende stappen
Het vooruitzicht dat Duitsland dit jaar mogelijk grote stappen zet in de richting van geautomatiseerde data-analyse stuit op zowel steun als weerstand. Sommige ministeries van Binnenlandse Zaken vragen al naar de mogelijkheid om Palantir-software of soortgelijke producten te gebruiken. Deelstaten als Saksen-Anhalt, Saksen en Saksen-Anhalt ondernemen momenteel geen stappen in deze richting, terwijl Berlijn en Baden-Württemberg overwegen de Beierse oplossing te volgen.
Bij de discussie over het gebruik van kunstmatige intelligentie bij de misdaadbestrijding rijzen er niet alleen technische maar ook ethische vraagtekens. Het is belangrijk dat het fundamentele recht op zelfbeschikking op informatiegebied behouden blijft bij de ontwikkeling en implementatie van dergelijke technologieën. De Netzpolitik benadrukt dat uitgebreide regelgeving over gegevensgebruik en registratie van analyse-instrumenten moet worden gegarandeerd om misbruik en schendingen van de gegevensbescherming te voorkomen.
Over het geheel genomen valt nog te bezien hoe de discussie over VeRA, Palantir en de hele ontwikkeling van geautomatiseerde data-analyse in Duitsland zal voortduren. Een goede hand van de wetgevers zal hier nodig zijn om zowel de veiligheid als de burgerrechten in gedachten te houden.