الجزيرة نت

معقل التكنولوجيا على خطى الاتحاد الأوروبي في ما يتعلق بتنظيم الذكاء الاصطناعي | تكنولوجيا


تحاول كاليفورنيا -حيث تقع سيليكون فالي التي تتمركز فيها شركات تكنولوجية كثيرة- فرض قيود على الذكاء الاصطناعي، مستلهمةً من القواعد التنظيمية الأوروبية، بحسب ما أوردته وكالة الأنباء الفرنسية.

وكان البرلمان الأوروبي أقرّ في منتصف مارس/آذار قانونا ينظم نماذج الذكاء الاصطناعي ويحدد قيودا في ما يخص الشفافية وحقوق الملكية الفكرية وحماية الخصوصية.

ويقول ديفيد هاريس، وهو مستشار في مشروع “كاليفورنيا إنيشيتيف فورتكنولوجي آند ديموكراسي”: “نحاول التعلم من الأوروبيين والعمل معهم لفهم كيفية تحديد قواعد للذكاء الاصطناعي”.

وتسعى هذه المنظمة إلى حماية الانتخابات من إساءة استخدام التقنيات الناشئة.

ورُفع أكثر من 30 مشروع قانون إلى برلمان كاليفورنيا، بحسب هاريس الذي يقول إن مسؤولين أميركيين وأوروبيين استشاروه في شأن هذا الموضوع.

وتتناول النصوص المرفوعة إلى برلمان كاليفورنيا جوانب عدة من الذكاء الاصطناعي.

ويقترح أحد القوانين إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي.

ويشير اقتراح آخر إلى حظر إعلانات الحملات الانتخابية التي تستخدم بطريقة أو بأخرى الذكاء الاصطناعي التوليدي الذي يتيح إنشاء محتوى (نص، صورة، صوت) استنادا إلى طلب بسيط بلغة شائعة.

ويريد عدد من النواب التأكد من إقدام شبكات التواصل الاجتماعي على الإبلاغ عن أي محتوى أو صورة أو شريط فيديو أو مقطع صوتي أُنشئ باستخدام الذكاء الاصطناعي التوليدي.

وأظهر استطلاع للرأي أجرته في أكتوبر/تشرين الأول جامعة بيركلي وشمل ناخبين في كاليفورنيا أن 73% منهم يؤيدون قوانين مكافحة المعلومات المضللة أو التزييف العميق (ديب فايك) والحد من استخدام الذكاء الاصطناعي خلال الحملات الانتخابية.

وهذه المسألة هي من المواضيع القليلة التي يُجمِع عليها الجمهوريون والديمقراطيون.

أحد القوانين يقترح إجبار شركات التكنولوجيا على الكشف عن البيانات التي استخدمتها لابتكار نماذج الذكاء الاصطناعي (شترستوك)

“متقدّمون”

يرى ديفيد هاريس أن المخاوف الناجمة عن “التزييف العميق” والنصوص المزيفة المولدة بواسطة الذكاء الاصطناعي تشكّل إحدى أهم المسائل.

وتدعم غايل بيليرين، وهي نائبة ديمقراطية من دائرة انتخابية تضم قسما من سيليكون فاليه، مشروع قانون يحظر “التزييف العميق” المرتبط بالمسائل السياسية خلال الأشهر الثلاثة التي تسبق الانتخابات.

وتقول “إن الجهات الفاعلة سيئة النية التي تستخدم هذه التكنولوجيا تحاول إحداث فوضى في الانتخابات”.

وتحذر نقابة “نِت تشويس” المهنية التي تمثل الشركات الرقمية، من استيراد قواعد الاتحاد الأوروبي إلى كاليفورنيا.

ويقول كارل زابو، المدير القانوني للمنظمة التي تناضل من أجل اعتماد قوانين تنص على عقوبات محدودة، “إنهم يتبنون النهج الأوروبي في التعامل مع الذكاء الاصطناعي، والذي يريد حظر هذه التكنولوجيا”.

ويؤكد المحامي أن “حظر الذكاء الاصطناعي لن يوقف أي شيء”، مضيفا: “إنها فكرة سيئة، لأن الجهات الفاعلة سيئة النية لا تحترم القوانين”.

أما المدير القانوني لناشر برمجيات “أدوبي” دانا راو، فيظهر اعتدالا أكبر.

ويرحب بالفصل الذي اعتمده الاتحاد الأوروبي بين الذكاء الاصطناعي ذي التأثير المحدود والذي يشمل “التزييف العميق” والنصوص المزيفة، والذكاء الاصطناعي “عالي الخطورة” والمستخدم خصوصا في الهياكل الأساسية الحيوية أو في إنفاذ القانون.

ويقول دانا راو “إن النسخة النهائية من النص تناسبنا”.

وتشير “أدوبي” إلى أنها بدأت أصلا تجري دراسات لتقييم المخاطر المرتبطة بالمنتجات الجديدة القائمة على الذكاء الاصطناعي.

ويضيف راو: “ينبغي إيلاء اهتمام بالسلامة النووية والأمن السيبراني وفي كل المرات التي يتخذ فيها الذكاء الاصطناعي قرارات مهمة تتعلق بحقوق الإنسان”.

وبالتعاون مع منظمة “كواليشن فور كونتنت بروفننس آند اوثنتيسيتي” التي تضم من بين أعضائها “مايكروسوفت” و”غوغل”، وضعت “أدوبي” سلسلة من بيانات التعريف التي توفر معلومات في شأن إعداد صورة ومحتواها.

ويسعى النوّاب في كاليفورنيا إلى أن يكونوا في طليعة الجهات التي تعمل على تنظيم الذكاء الاصطناعي، على غرار شركات الولاية الساعية إلى تطوير هذه التكنولوجيا.

وتقول غايل بيليرين إن “الناس يراقبون ما يحدث في كاليفورنيا”.

وتضيف: “إنها حركة تعنينا جميعا. نحن بحاجة إلى أن نبقى متقدمين على مَن يريدون إحداث فوضى في الانتخابات”.



اقرأ على الموقع الرسمي


اكتشاف المزيد من اشراق العالم 24

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق العالم 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading