Изкуствен интелект в полицията: VeRA под критика!
Научете всичко за използването на изкуствен интелект в Хесен за борба с престъпността и правните предизвикателства.

Изкуствен интелект в полицията: VeRA под критика!
На 24 септември 2024 г. кабинетът на Баден-Вюртемберг публикува забележителен пакет от мерки за сигурност и мерки, озаглавен „Укрепване на сигурността, организиране на миграцията, предотвратяване на радикализацията“. Централна точка на този пакет е планираното използване на изкуствен интелект за анализ на събраните данни, известен като VeRA. Този софтуер за анализ има за цел да направи възможно комбинирането на данни от различни източници, за да направи борбата с престъпността по-ефективна. Всъщност софтуерът Palantir, който се използва в Хесен от 2017 г. под името Hessen-Data, се разглежда като обещаващ в този контекст, но първоначално беше спрян на федерално ниво от Федералното министерство на вътрешните работи, тъй като необходимата правна основа за използването му от Федералната полиция и Службата на федералната криминална полиция не можа да бъде създадена.
Както BDK съобщава, е необходимо разширяване на полицейския закон там, за да се използва VeRA в Баден-Вюртемберг. Изслушването за промяна на закона обаче все още не е приключило, което прави цялата дискусия в зелено-черната коалиция гореща тема. Асоциацията на германските служители на криминалната полиция Баден-Вюртемберг (BDK BW) очаква, че когато VeRA бъде въведена, трябва да се прилагат обширни законови правомощия за използването на тази технология.
Пилотни проекти и правни предизвикателства
В Бавария вече е проведен общоевропейски търг за продукт за анализ, като Palantir е избран като единственият подходящ продукт. Въпреки това има несигурност, тъй като различните федерални провинции имат различни възгледи по този въпрос. Докато Северен Рейн-Вестфалия, например, има правно основание за използването на софтуера „DAR“ на Palantir от 2022 г., Хамбург все още се колебае с решение за автоматизиран анализ на данни, което беше въведено през 2019 г., но беше обявено за невалидно с решение на Федералния конституционен съд.
През февруари 2023 г. Федералният конституционен съд определи ясни ограничения за използването на инструменти за автоматизиран анализ на данни, за да предотврати всякакви нарушения на защитата на данните. Според Süddeutsche Zeitung, тези инструменти, въпреки своя полезен информационен потенциал, могат да станат опасни, защото създават обширни лични профили и включват неангажирани хора в полицейските мерки. Това се случва, наред с други неща, когато потребителите неволно получат достъп до системи за анализ чрез техники като заявки за радио клетки.
Разнообразие от мнения и следващи стъпки
Перспективата Германия потенциално да предприеме големи стъпки към автоматизиран анализ на данни тази година среща както подкрепа, така и съпротива. Някои вътрешни министерства вече питат за възможността за използване на софтуер Palantir или подобни продукти. Федерални провинции като Саксония-Анхалт, Саксония и Саксония-Анхалт в момента не предприемат никакви стъпки в тази посока, докато Берлин и Баден-Вюртемберг обмислят да следват баварското решение.
Когато се обсъжда използването на изкуствения интелект в борбата с престъпността, има не само технически, но и етични въпросителни. Важно е основното право на информационно самоопределение да бъде запазено при разработването и прилагането на такива технологии. Netzpolitik подчертава, че трябва да се гарантират всеобхватни разпоредби относно използването на данни и регистрацията на инструменти за анализ, за да се избегнат злоупотреби и нарушения на защитата на данните.
Като цяло, остава да се види как ще продължи дискусията за VeRA, Palantir и цялото развитие на автоматизирания анализ на данни в Германия. Тук ще се изисква добра ръка от страна на законодателите, за да се имат предвид както сигурността, така и гражданските права.