مسار قراءة للمؤسسات
هذا المسار موجّه للمدارس، الجامعات، الجمعيات، الشركات، الجهات العامة، والفرق التي تفكر في استخدام AI أو شرائه أو دمجه في خدماتها. المؤسسة مسؤولة عن أثر الأداة حتى لو اشترتها من مزود خارجي.
ابدأ من هنا
- اقرأ تلخيص دليل AIRA.
- اقرأ مسار المصممين والمطورين إذا كانت المؤسسة تبني أدوات داخلية.
- اقرأ مسار الناشطين لفهم أسئلة المساءلة.
- راجع المنهجية وحدود هذا الأطلس.
قبل شراء أو اعتماد أي أداة AI
اسألوا المزود:
- ما البيانات التي يجمعها النظام؟ وأين تُخزّن؟
- هل استُخدمت بيانات أشخاص ذوي إعاقة أو أشخاص توحديين؟ وكيف ضُمنت الموافقة؟
- هل يمكن تفسير المخرجات بلغة مفهومة؟
- هل توجد قناة اعتراض بشرية؟
- هل اختُبرت الأداة لإمكانية الوصول؟
- ما الأخطاء المعروفة؟ وما الفئات الأكثر عرضة للضرر؟
سياسات داخلية ضرورية
- سياسة واضحة لعدم إدخال بيانات شخصية أو حساسة في أدوات AI دون أساس واضح وموافقة مناسبة.
- حظر استخدام AI للحكم على الأشخاص من تعبير الوجه أو النبرة أو التواصل البصري أو الحركة.
- مراجعة أثر قبل استخدام AI في التعليم، التوظيف، الخدمات، الدعم، أو اتخاذ القرار.
- تدريب الموظفين على حدود AI، لا على استخدامه فقط.
- توفير بديل بشري ومسار اعتراض واضح.
عن الالتزامات القانونية
قد تتأثر المؤسسات بقوانين وأطر أوروبية مثل EU AI Act أو European Accessibility Act بحسب البلد ونوع الاستخدام والقطاع. أي كلام عن القانون الأوروبي يحتاج تحققًا من المصدر الرسمي قبل النشر النهائي.
مخرج هذا المسار
أنشئوا سجلًا داخليًا لكل أداة AI مستخدمة في المؤسسة، يتضمن: الغرض، المزود، نوع البيانات، الفئات المتأثرة، مخاطر الشمول، إجراءات الحماية، ومسؤول المراجعة البشرية.