الذكاء الاصطناعي في الشرطة: فيرا تحت النقد!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

اكتشف كل شيء عن استخدام الذكاء الاصطناعي في ولاية هيسن لمكافحة الجريمة والتحديات القانونية.

Erfahren Sie alles über den Einsatz von Künstlicher Intelligenz in Hessen zur Kriminalitätsbekämpfung und die rechtlichen Herausforderungen.
اكتشف كل شيء عن استخدام الذكاء الاصطناعي في ولاية هيسن لمكافحة الجريمة والتحديات القانونية.

الذكاء الاصطناعي في الشرطة: فيرا تحت النقد!

في 24 سبتمبر 2024، نشرت حكومة بادن فورتمبيرغ حزمة أمنية وإجراءات رائعة بعنوان "تعزيز الأمن وتنظيم الهجرة ومنع التطرف". النقطة المركزية في هذه الحزمة هي الاستخدام المخطط للذكاء الاصطناعي لتحليل البيانات المجمعة، والمعروفة باسم VeRA. يهدف برنامج التحليل هذا إلى تمكين جمع البيانات من مصادر مختلفة من أجل جعل مكافحة الجريمة أكثر كفاءة. في الواقع، يُنظر إلى برنامج Palantir، الذي تم استخدامه في ولاية هيسن منذ عام 2017 تحت اسم Hessen-Data، على أنه واعد في هذا السياق، ولكن تم إيقافه في البداية على المستوى الفيدرالي من قبل وزارة الداخلية الفيدرالية بسبب تعذر إنشاء الأساس القانوني اللازم لاستخدامه من قبل الشرطة الفيدرالية ومكتب الشرطة الجنائية الفيدرالية.

كما أفاد BDK، يلزم تمديد قانون الشرطة هناك من أجل استخدام VeRA في بادن فورتمبيرغ. ومع ذلك، فإن عملية الاستماع لتغيير القانون لا تزال معلقة، مما يجعل المناقشة بأكملها في ائتلاف الأخضر والأسود موضوعًا ساخنًا. تتوقع رابطة ضباط الشرطة الجنائية الألمانية بادن فورتمبيرغ (BDK BW) أنه عند تقديم VeRA، يجب تطبيق صلاحيات قانونية واسعة النطاق على استخدام هذه التكنولوجيا.

المشاريع الرائدة والتحديات القانونية

وقد تم بالفعل إجراء مناقصة على مستوى أوروبا لمنتج تحليلي في بافاريا، مع اختيار شركة Palantir باعتبارها المنتج المناسب الوحيد. ومع ذلك، هناك حالة من عدم اليقين لأن الولايات الفيدرالية المختلفة لديها وجهات نظر مختلفة حول هذه القضية. في حين أن ولاية شمال الراين وستفاليا، على سبيل المثال، لديها أساس قانوني لاستخدام برنامج "DAR" الخاص بشركة Palantir منذ عام 2022، فإن هامبورغ لا تزال مترددة في اتخاذ قرار بشأن التحليل الآلي للبيانات، والذي تم تقديمه في عام 2019 ولكن تم إعلان بطلانه بحكم من المحكمة الدستورية الفيدرالية.

في فبراير 2023، وضعت المحكمة الدستورية الفيدرالية حدودًا واضحة لاستخدام أدوات تحليل البيانات الآلية لمنع أي انتهاكات لحماية البيانات. وفقًا لصحيفة Süddeutsche Zeitung، فإن هذه الأدوات، على الرغم من إمكاناتها المعلوماتية المفيدة، يمكن أن تصبح خطيرة لأنهم ينشئون ملفات شخصية واسعة النطاق ويشركون أشخاصًا غير مشاركين في إجراءات الشرطة. ويحدث هذا، من بين أمور أخرى، عندما يصل المستخدمون عن غير قصد إلى أنظمة التحليل من خلال تقنيات مثل استعلامات الخلايا الراديوية.

تنوع الآراء والخطوات التالية

إن احتمال قيام ألمانيا باتخاذ خطوات كبيرة نحو التحليل الآلي للبيانات هذا العام يقابله الدعم والمقاومة. وتتساءل بعض وزارات الداخلية بالفعل عن إمكانية استخدام برنامج Palantir أو منتجات مماثلة. ولا تقوم ولايات اتحادية مثل ساكسونيا أنهالت وساكسونيا وساكسونيا أنهالت حاليًا بأي تحركات في هذا الاتجاه، بينما تفكر برلين وبادن فورتمبيرغ في اتباع الحل البافاري.

عند مناقشة استخدام الذكاء الاصطناعي في مكافحة الجريمة، لا توجد علامات استفهام فنية فحسب، بل أخلاقية أيضًا. ومن المهم الحفاظ على الحق الأساسي في تقرير المصير المعلوماتي عند تطوير وتنفيذ مثل هذه التقنيات. تؤكد Netzpolitik على أنه يجب ضمان اللوائح الشاملة بشأن استخدام البيانات وتسجيل أدوات التحليل من أجل تجنب سوء الاستخدام وانتهاكات حماية البيانات.

بشكل عام، يبقى أن نرى كيف سيستمر النقاش حول VeRA وPalantir والتطوير الكامل لتحليل البيانات الآلي في ألمانيا. وستكون هناك حاجة إلى يد جيدة من المشرعين هنا من أجل وضع الأمن والحقوق المدنية في الاعتبار.

Quellen: