المراقبة
أين تظهر المسألة؟
تظهر المراقبة عندما تُستخدم كاميرات، ميكروفونات، تتبع موقع، تحليل سلوك، أو أنظمة تنبيه لرصد الأشخاص في المدارس، العمل، الخدمات، الأماكن العامة، أو المنصات الرقمية. مع AI يمكن تحويل التسجيل إلى تصنيف: مشتبه، مشتت، غير متعاون، خطر، أو غير ملائم.
بالنسبة للأشخاص التوحديين، قد تكون هذه التصنيفات مؤذية إذا فُسرت الحركة، الصمت، تجنب النظر، النبرة، أو الحاجة للاستراحة بطريقة خاطئة.
فرص حذرة
قد توجد حالات يستخدم فيها شخص أداة تتبع أو تذكير باختياره الشخصي لدعم الأمان أو التنظيم. الفرق الجوهري هو السيطرة: هل اختار الشخص؟ هل يعرف ما يُجمع؟ هل يستطيع الإيقاف؟ هل البيانات محلية أو مشتركة؟
يمكن أيضًا استخدام AI لمراجعة أنماط الوصول على مستوى الخدمة دون مراقبة الأفراد، مثل معرفة أين تفشل منصة في خدمة المستخدمين. يجب أن يكون ذلك ببيانات مجمعة ومحدودة.
مخاطر
الخطر الأكبر هو المراقبة باسم الحماية أو الكفاءة. قد تُفرض كاميرا في امتحان، تحليل وجه في مقابلة، أو تتبع في مكان عمل، ثم يُحاسب الشخص على اختلافات لا تعني سوء نية.
هناك أيضًا خطر توسع الغرض: بيانات جُمعت لدعم الوصول تُستخدم لاحقًا للتأديب أو التقييم. هذا يقوض الثقة ويجعل الدعم مشروطًا بالتنازل عن الخصوصية.
أي كلام عن تنظيم أوروبي للمراقبة أو أنظمة عالية الخطورة في AI Act يحتاج تحققًا من المصدر الرسمي قبل النشر النهائي.
أسئلة مراجعة
- هل المراقبة ضرورية ومتناسبة؟
- هل توجد بدائل أقل تدخلًا؟
- هل يعرف الشخص أنه مراقب؟
- هل يمكنه الرفض من دون خسارة خدمة؟
- هل تُستخدم إشارات الوجه أو الصوت أو الحركة لإصدار حكم؟