سيتم تنظيم استخدام الذكاء الاصطناعي في الاتحاد الأوروبي بموجب قانون الذكاء الاصطناعي ، وهو أول قانون شامل للذكاء الاصطناعي في العالم. اكتشف كيف ستحميك.
كجزء من ملف استراتيجية رقمية، يريد الاتحاد الأوروبي تنظيم الذكاء الاصطناعي (AI) لضمان ظروف أفضل لتطوير واستخدام هذه التكنولوجيا المبتكرة. يمكن للذكاء الاصطناعي أن يخلق العديد من الفوائد، مثل رعاية صحية أفضل ؛ نقل أكثر أمانًا ونظافة ؛ تصنيع أكثر كفاءة وطاقة أرخص وأكثر استدامة.
في أبريل 2021 ، اقترحت المفوضية الأوروبية الأول الاتحاد الأوروبي الإطار التنظيمي للذكاء الاصطناعي. وتقول إن أنظمة الذكاء الاصطناعي التي يمكن استخدامها في تطبيقات مختلفة يتم تحليلها وتصنيفها وفقًا للمخاطر التي تشكلها على المستخدمين. مستويات المخاطر المختلفة تعني تنظيمًا أكثر أو أقل. بمجرد الموافقة عليها ، ستكون هذه القواعد الأولى في العالم بشأن الذكاء الاصطناعي.
ما يريده البرلمان في تشريعات الذكاء الاصطناعي
أولوية البرلمان هو التأكد من أن أنظمة الذكاء الاصطناعي المستخدمة في الاتحاد الأوروبي آمنة وشفافة ويمكن تتبعها وغير تمييزية وصديقة للبيئة. يجب أن يشرف الناس على أنظمة الذكاء الاصطناعي ، وليس الأتمتة ، لمنع النتائج الضارة.
يريد البرلمان أيضًا وضع تعريف موحد محايد تقنيًا للذكاء الاصطناعي يمكن تطبيقه على أنظمة الذكاء الاصطناعي المستقبلية.
تعلم المزيد عن عمل البرلمان على الذكاء الاصطناعي وله رؤية لمستقبل الذكاء الاصطناعي
قانون الذكاء الاصطناعي: قواعد مختلفة لمستويات المخاطر المختلفة
تحدد القواعد الجديدة التزامات لمقدمي الخدمة والمستخدمين اعتمادًا على مستوى المخاطر من الذكاء الاصطناعي. في حين أن العديد من أنظمة الذكاء الاصطناعي تشكل مخاطر قليلة ، إلا أنها تحتاج إلى التقييم.
مخاطر غير مقبولة
مخاطر غير مقبولة أنظمة الذكاء الاصطناعي هي أنظمة تُعتبر تهديدًا للناس وسيتم حظرها. يشملوا:
- التلاعب السلوكي المعرفي للأشخاص أو المجموعات الضعيفة المحددة: على سبيل المثال الألعاب التي يتم تنشيطها بالصوت والتي تشجع على السلوك الخطير لدى الأطفال
- التصنيف الاجتماعي: تصنيف الأشخاص على أساس السلوك أو الحالة الاجتماعية والاقتصادية أو الخصائص الشخصية
- أنظمة تحديد الهوية في الوقت الحقيقي وعن بعد ، مثل التعرف على الوجه
قد يتم السماح ببعض الاستثناءات: على سبيل المثال ، « بعد » أنظمة تحديد الهوية عن بعد حيث يتم تحديد الهوية بعد تأخير كبير سيسمح لمحاكمة الجرائم الخطيرة ولكن فقط بعد موافقة المحكمة.
مخاطرة عالية
ستُعتبر أنظمة الذكاء الاصطناعي التي تؤثر سلبًا على السلامة أو الحقوق الأساسية عالية الخطورة وسيتم تقسيمها إلى فئتين:
1) أنظمة الذكاء الاصطناعي المستخدمة في المنتجات التي تندرج تحتها تشريعات سلامة المنتجات في الاتحاد الأوروبي. ويشمل ذلك الألعاب والطيران والسيارات والأجهزة الطبية والمصاعد.
2) تقع أنظمة الذكاء الاصطناعي في ثمانية مجالات محددة يجب تسجيلها في الاتحاد الأوروبي قاعدة البيانات:
- تحديد الهوية وتصنيف الأشخاص الطبيعيين
- إدارة وتشغيل البنية التحتية الحيوية
- التعليم والتدريب المهني
- التوظيف وإدارة العمال والوصول إلى العمل الحر
- الوصول إلى والتمتع بالخدمات الأساسية الخاصة والخدمات والمزايا العامة
- تطبيق القانون
- إدارة الهجرة واللجوء ومراقبة الحدود
- المساعدة في التفسير القانوني وتطبيق القانون.
سيتم تقييم جميع أنظمة الذكاء الاصطناعي عالية المخاطر قبل طرحها في السوق وأيضًا طوال دورة حياتها.
الذكاء الاصطناعي التوليدي
يجب أن يتوافق الذكاء الاصطناعي التوليدي ، مثل ChatGPT ، مع متطلبات الشفافية:
- الكشف عن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي
- تصميم النموذج لمنعه من توليد محتوى غير قانوني
- نشر ملخصات للبيانات المحمية بحقوق النشر والمستخدمة للتدريب
مخاطر محدودة
يجب أن تمتثل أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة مع الحد الأدنى من متطلبات الشفافية التي من شأنها أن تسمح للمستخدمين باتخاذ قرارات مستنيرة. بعد التفاعل مع التطبيقات ، يمكن للمستخدم بعد ذلك أن يقرر ما إذا كان يريد الاستمرار في استخدامه. يجب توعية المستخدمين عند تفاعلهم مع الذكاء الاصطناعي. يتضمن ذلك أنظمة الذكاء الاصطناعي التي تنشئ محتوى الصور أو الصوت أو الفيديو أو تتلاعب به ، على سبيل المثال التزييف العميق.
الخطوات التالية
ومن المقرر أن يوافق البرلمان على موقفه التفاوضي في يونيو 2023 ، وبعد ذلك ستبدأ المحادثات مع دول الاتحاد الأوروبي في المجلس بشأن الشكل النهائي للقانون.
الهدف هو التوصل إلى اتفاق بحلول نهاية هذا العام.