علوم وتكنولوجيا

رئيس جوجل السابق يحذر من الـAI.. ويؤكد: “لن يتمكن البشر من مراقبته”

اشراق العالم24 متابعات متفرقة:
شكرا لمتابعة رئيس جوجل السابق يحذر من الـAI.. ويؤكد: “لن يتمكن البشر من مراقبته” والان مع نوافيكم بالتفاصيل


حذر رئيس جوجل السابق من مخاطر الذكاء الاصطناعي – مدعيًا أن البشر “لن يتمكنوا من مراقبة” التكنولوجيا سريعة التطور، وقال الرئيس التنفيذي السابق لشركة التكنولوجيا العملاقة إريك شميت عندما يصل نظام الكمبيوتر إلى نقطة حيث يمكنه تحسين نفسه “نحن بحاجة جدية إلى التفكير في فصله”.


وقد شهد السباق لتحسين الذكاء الاصطناعي خطوات هائلة في السنوات الأخيرة، حيث وصف شميت التقدم بأنه سبب للاحتفال، وقال لجورج ستيفانوبولوس لبرنامج This Week على قناة ABC: “لم أر أبدًا ابتكارًا مثل هذا”، وأضاف شميت: “سنكون قادرين قريبًا على تشغيل أجهزة الكمبيوتر بمفردها، وتقرر ما تريد القيام به”.


وواصل حديثه قائلاً: “إن قوة هذا الذكاء… تعني أن كل شخص سوف يكون لديه ما يعادل عالم موسوعي في جيبه، “نحن لا نعرف ماذا يعني منح هذا النوع من القوة لكل فرد.””


ةيأتي هذا بعد أن قال شميت لـ AXIOS العام الماضي أن أجهزة الكمبيوتر التي تتخذ قراراتها الخاصة قد تكون على بعد أقل من أربع سنوات، وقال خبراء آخرون إن أقوى الأنظمة يمكن أن تعمل بذكاء طالب دكتوراه بحلول عام 2026، وقال شميت إنه على الرغم من استمرار الولايات المتحدة في الفوز بسباق الذكاء الاصطناعي، مع تطور التكنولوجيا الصينية بسرعة، فمن الأهمية بمكان أن “يفوز الغرب”.


كما نصح بتحديد “أسوأ الحالات الممكنة” وتطوير نظام مواز للمساعدة في مراقبة الحالة الأولى، وأضاف: “لن يتمكن البشر من مراقبة الذكاء الاصطناعي، لكن أنظمة الذكاء الاصطناعي يجب أن تكون قادرة على مراقبة الذكاء الاصطناعي.”


ويأتي هذا في الوقت الذي حذر فيه محلل تكنولوجيا الذكاء الاصطناعي في الأسابيع الأخيرة من أننا على بعد خطوات قليلة من كسر “”الشفرات العصبية”” التي تسمح للآلات بالتعلم بوعي مثل البشر.


ويقدم مايكل أزوف هذه الحجة في كتابه الجديد، نحو الذكاء الاصطناعي على المستوى البشري: كيف يمكن لعلم الأعصاب أن يرشدنا إلى السعي وراء الذكاء الاصطناعي العام، ووفقًا لأزوف، فإن إحدى الخطوات الرئيسية نحو إطلاق العنان لـ “الذكاء الاصطناعي على المستوى البشري” هي فهم “الشفرات العصبية”.

يصف المصطلح الطريقة التي تشفر بها أدمغتنا المعلومات الحسية وتؤدي مهام معرفية مثل التفكير وحل المشكلات.


سيناريو يوم القيامة


وتجري محادثات على المستوى الفيدرالي لضمان قدرة اللوائح والبروتوكولات على إبقاء التكنولوجيا تحت السيطرة، ولقد فاجأ ظهور ChatGPT ونجاحه منذ طرحه في السوق في نوفمبر 2022 العديد من الأشخاص في مجال الذكاء الاصطناعي، مما أدى إلى تسريع تطوير التكنولوجيا بشكل لا يقاس.


فيما يصر خبير الذكاء الاصطناعي ريشابه ميسرا، الذي عمل على التعلم الآلي لشركة X خلال السنوات الأربع الماضية، على أنه “لم ير أي نوع من التكنولوجيا يتحرك بهذه السرعة” ويعتقد أنه بمجرد أن تبدأ في تجاوز الذكاء البشري، يمكن أن تبدأ الروبوتات الخارقة في إحداث الفوضى في المجتمع “في غضون عقد من الزمان”.


وقال ميسرا لصحيفة يو إس صن: “في المستقبل، مع إضافة المزيد من هذه القدرات، قد يكون لبعض سوء التكوين، أو الاستخدام غير المسؤول من خلال إعطاء تعليمات خاطئة، أو تورط جهات ضارة عواقب وخيمة، على غرار السيناريوهات التي قد يبدو فيها أن الروبوتات أصبحت مارقة.


“إذا تم اختراق هذه الروبوتات أو استخدامها لأغراض ضارة، فيمكنها نشر معلومات مضللة أو خطاب الكراهية، أو إطلاق حملات البريد العشوائي، أو التلاعب بالأسواق المالية لانهيار الاقتصاد، أو حتى تنفيذ هجمات مادية من خلال التحكم في المركبات أو تشغيل الأسلحة، “قد يصنعون مقاطع فيديو مزيفة تظهر سيناريوهات لم تحدث أبدًا لإلحاق الضرر بسمعة شخص ما أو التسبب في حروب”.


مع قدرة الروبوتات الذكية في المستقبل على تنفيذ التعليمات والمطالب بشكل أسرع من البشر، فإن نطاق تعطيل الاقتصادات أو التحريض على الكراهية كجزء من حيلة سياسية، على سبيل المثال، ضخم.


ويضيف ميسرا: “الخوف المتكرر الذي يظهر هو أن الروبوتات قد تصبح واعية بذاتها وتقرر أن خدمة البشر ليست ذات قيمة”، “ربما يقومون بأفعال ضارة تجاه البشر في محاولة للوصول إلى هدف نهائي، ومن المفارقات أن البشر أنفسهم هم من يقومون بذلك، “بناءً على الاتجاهات الحالية للتقدم التكنولوجي فقط، أعتقد أن فرص تحقيق الخوف الأخير قد تكون أكبر بكثير مقارنة بالخوف الأول في المستقبل”.

اقرأ على الموقع الرسمي


اكتشاف المزيد من اشراق العالم 24

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق العالم 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading