الاتحاد الأوروبي يحاصر أنظمة الذكاء الاصطناعي بتشريع قانوني

توافق البرلمان الأوروبي على محتوى القانون الجديد الذي سيفرض قواعد صارمة على تقنيات الذكاء الاصطناعي المختلفة مثل ChatGPT.
خلال جلسة الجمعية العامة للبرلمان الأوروبي التي عقدت في ستراسبورغ، وافق نواب البرلمان الأوروبي على الوثيقة التي تحدد موقف البرلمان الأوروبي في المفاوضات مع الدول الأعضاء حول قانون الذكاء الاصطناعي.
وتمت الموافقة على مشروع القانون الذي يحتوي على القواعد الأولى للذكاء الاصطناعي في أوروبا، بأغلبية 499 صوتًا بـ "نعم" و 28 "لا".
وبناءً على ذلك، يجب أن تخضع أنظمة الذكاء الاصطناعي للإشراف من قبل البشر وأن تكون آمنة، وشفافة، وغير تمييزية، وصديقة للبيئة.
القانون يعمل على تطبيق قواعد حول مستوى الخطر الذي يمكن أن يشكله الذكاء الاصطناعي.
وبموجب القانون، سيتم حظر أنظمة الذكاء الاصطناعي التي تشكل مستوى "غير مقبول" من المخاطر على سلامة الناس، وسيشمل ذلك أنظمة الذكاء الاصطناعي التي تصنف الأشخاص وفقًا لسلوكهم الاجتماعي أو خصائصهم الشخصية.
كما سيتم حظر استخدام أنظمة تحديد الهوية عن بعد في الأماكن العامة.
وسوف يندرج استخدام أنظمة الذكاء الاصطناعي للتأثير على الناخبين في الحملات السياسية ضمن فئة المخاطر العالية.
ستحتاج أنظمة مثل ChatGPT إلى اتباع قواعد شفافية إضافية لتوضيح أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، ومنع إنتاج المحتوى غير القانوني.
وستبدأ اليوم المفاوضات بين الدول الأعضاء في الاتحاد الأوروبي والبرلمان الأوروبي، ومن المتوقع الانتهاء من المفاوضات التشريعية بحلول نهاية هذا العام.
لا يوجد لدى الاتحاد الأوروبي حتى الآن تشريع بشأن ChatGPT أو أنظمة ذكاء اصطناعي مماثلة، ولكن قبل عامين، أعدت مفوضية الاتحاد الأوروبي أول اقتراح تشريعي يحتوي على إطار عمل للقواعد الجديدة بشأن الذكاء الاصطناعي وقدمته إلى الدول الأعضاء والبرلمان الأوروبي.
ويقدم هذا الاقتراح بعض القيود وقواعد الشفافية في استخدام أنظمة الذكاء الاصطناعي.
بناءً على اقتراح اللجنة، تم تقسيم أنظمة الذكاء الاصطناعي إلى 4 مجموعات رئيسية على أنها مخاطر غير مقبولة، ومخاطر عالية، ومخاطر محدودة، ومخاطر دنيا.
من ناحية أخرى، طلب الاتحاد الأوروبي الأسبوع الماضي من شركات التكنولوجيا وضع تسميات وصفية على النصوص والصور التي ينتجها الذكاء الاصطناعي.