التوظيف والتعليم

أين تظهر المسألة؟

يظهر AI في فرز السير الذاتية، مقابلات الفيديو، تقييم الكتابة، أنظمة مراقبة الامتحانات، منصات التعلم، التنبؤ بالأداء، وإدارة الحضور أو السلوك. هذه السياقات حساسة لأنها تؤثر في فرص التعليم والعمل.

الأشخاص التوحديون قد يتضررون إذا قيّم النظام التواصل البصري، سرعة الرد، نبرة الصوت، لغة الجسد، أو أسلوب الكتابة بوصفها مؤشرات على الجدية أو الكفاءة. هذه مؤشرات غير كافية وغير عادلة للحكم على الشخص.

فرص حذرة

قد يساعد AI في جعل التعليم والعمل أكثر وصولًا: تلخيص محاضرات، تحويل صيغ المحتوى، تنظيم المهام، اقتراح جداول، أو تبسيط تعليمات. وقد يساعد في مراجعة إعلانات الوظائف لاكتشاف لغة إقصائية.

في بيئة جيدة، يمكن للأداة أن تدعم الترتيبات المعقولة: وقت إضافي، بدائل للمقابلة الشفهية، تواصل كتابي، أو واجهات أقل إرباكًا. لكن هذه الفرص تحتاج موافقة واختيارًا، لا فرضًا.

مخاطر

الخطر الأكبر هو تقييم الأشخاص عبر إشارات سطحية. مقابلات الفيديو الآلية أو مراقبة الامتحانات بالكاميرا قد تعاقب من يتحرك، لا ينظر للشاشة، يستخدم مساعدات، أو يحتاج استراحة.

هناك أيضًا خطر أن يصبح AI حارس بوابة غير مرئي: يرفض طلبات أو يضع طلابًا في مسارات دون تفسير واضح. وإذا لم توجد آلية اعتراض، يتحول الخطأ إلى قرار مؤسسي.

أي حديث عن التزامات أوروبية في AI Act أو European Accessibility Act يحتاج تحققًا من المصدر الرسمي قبل النشر النهائي.

أسئلة مراجعة

  • هل استخدام AI إلزامي؟
  • هل توجد بدائل للمقابلة أو الاختبار؟
  • هل يعتمد النظام على كاميرا أو صوت أو حركة؟
  • هل يعرف الطالب أو المتقدم كيف يُقيّم؟
  • هل شارك أشخاص توحديون في الاختبار والتصميم؟

روابط قريبة