البرلمان الأوروبي يحدد موقفه التفاوضي بشأن قانون الذكاء الاصطناعي المستقبلي وتعزيز اللوائح الخاصة بتطويره واستخدامه

 

وافق البرلمان الأوروبي على موقفه بالتفاوض بشأن قواعد جديدة ضمن مشروع القانون الذي يهدف إلى تعزيز اللوائح الخاصة بتطوير واستخدام الذكاء الاصطناعي ، وهي المحاولة الأولى على مستوى العالم لتنظيم هذه التكنولوجيا. ويواجه النص المعدل الآن شهورًا من المفاوضات الصعبة.

بعد تأكيد الجلسة العامة للبرلمان الأوروبي على موقفه التفاوضي بشأن هذه القاعدة ، سيتفاوض البرلمان الأوروبي مع المفوضية الأوروبية ومجلس الاتحاد الأوروبي على النص النهائي ، والذي سيعود أخيرًا إلى البرلمان الأوروبي ليتم التصويت عليه قبل ذلك. موافقتها. كونها لائحة ، بمجرد الموافقة عليها سيتم تطبيقها على الفور في دول الاتحاد الأوروبي البالغ عددها 27 دولة دون الحاجة إلى تحويلها إلى لوائح وطنية.

أنشأت بروكسل مجموعة متعددة التخصصات رفيعة المستوى في عام 2018 لمعالجة تنظيم الذكاء الاصطناعي ، وصياغة لاحقًا تقريرها عن الذكاء الاصطناعي في العصر الرقمي ، والذي كان من المقرر أن يحدد الخطوط الرئيسية للوائح الجديدة. في عام 2021 ، نشر مسودته الأولى للقانون ، لكن تسارعت وتيرة العمل في الأسابيع الأخيرة ، مع صياغة اقتراح جديد تمت الموافقة عليه الآن من قبل المشرعين في اللجان الرئيسية في البرلمان الأوروبي. 

أدى التطور السريع للأدوات التوليدية مثل ChatGPT أو Midjourney أو Dall-e ، المضافة إلى الدعوات العالمية لإنشاء إطار عمل أخلاقي يضع حدودًا لهذه التكنولوجيا في أقرب وقت ممكن ، إلى تسريع العملية.

أدت الوتيرة المذهلة للتطور التي وصلت إليها النماذج المختلفة للذكاء الاصطناعي ، مع روبوتات المحادثة وأدوات توليد الصور باعتبارها الجزء الأكثر وضوحًا لها ، إلى سماع أصوات مع إصرار متزايد على التحذير من مخاطرها المحتملة ، ودعوة كل من الحكومات وشركات التطوير التي تفرض قيودًا قانونية وأخلاقية على هذه الأداة.

سيحاول القانون الجديد تحديد هذا الواقع الجديد ، مما يضمن أن الأنظمة الجديدة المستخدمة في الاتحاد الأوروبي آمنة وتحترم التشريعات الحالية بشأن الأمن والحقوق الأساسية وقيم المجتمع الأخرى. كل هذا ، دون التخلي عن الفوائد التي يمكن أن يجلبها للمواطنين الأوروبيين ، لذا فإن أحد الأهداف الرئيسية الأخرى هو تعزيز البحث والقدرة الصناعية لهذه الأداة.

كانت بعض الجوانب الأكثر إثارة للجدل هي نشر محتوى خطير ، والتلاعب بالرأي العام من خلال إنشاء صور وأخبار كاذبة ، وأنظمة مراقبة جماعية.

يفكر النص في الالتزام من جانب شركات المطورين للحد من المحتوى غير القانوني ونشر البيانات المحمية بموجب حقوق النشر المستخدمة لتدريب الخوارزميات الخاصة بهم. سيتعين على مطوري هذه الأنظمة التكنولوجية الذين يرغبون في تقديمها إلى السوق إثبات أنهم قد قللوا من المخاطر التي قد تولدها على الصحة والحقوق الأساسية والنظام الديمقراطي ، بالإضافة إلى الخضوع لتحليل الخبراء المستقلين.

وبالمثل ، يجب على مستخدمي أنظمة الذكاء الاصطناعي التي تنشئ أو تتلاعب بمقاطع الفيديو أو الصور أو الأصوات التي قد تضلل الآخرين عن طريق الخطأ للاعتقاد بأنها أصلية ، إبلاغ المواطنين الآخرين بأن المحتوى غير صحيح.

نقطة أخرى مهمة هي حظر أنظمة التعرف على المشاعر ، وكذلك التعرف على القياسات الحيوية للأشخاص في الأماكن العامة ، واستخدام حق النقض ضد أنظمة المراقبة الجماعية في الوقت الفعلي ، باستثناء منع الجرائم وتحديد الضحايا المحتملين.

وبالمثل ، فإنه يحظر الأدوات التي تستخدم تقنيات لا شعورية لتغيير سلوك الشخص “بشكل جوهري” ، ويمنع الجمع الجماعي للصور على الإنترنت لتدريب الخوارزميات دون موافقة صريحة من أولئك الذين يظهرون فيها.

بالإضافة إلى ذلك ، فإنه يصنف أنظمة ذكاء اصطناعي مختلفة ذات استخدامات محددة للغاية على أنها “عالية المخاطر” والتي لا يمكن تقديمها إلى السوق إلا إذا كانت تحترم الحقوق والقيم الأساسية للاتحاد الأوروبي. على سبيل المثال ، تلك التي يمكن استخدامها للتأثير على نتيجة الانتخابات ، تلك التي تستخدمها المؤسسات المالية لتقييم الملاءة المالية وتحديد التصنيف الائتماني للشخص أو تلك التي تستخدمها شرطة مراقبة الحدود للتحكم في البيانات أو مراقبتها أو معالجتها للتنبؤ بحركات الهجرة .

مقالات ذات صلة

زر الذهاب إلى الأعلى
Translate »