علوم وتكنولوجيامنوعات التقنية

لقد خنق وادي السيليكون حركة هلاك الذكاء الاصطناعي في عام 2024

اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “لقد خنق وادي السيليكون حركة هلاك الذكاء الاصطناعي في عام 2024
” نترككم مع محتوى الخبر

لعدة سنوات حتى الآن، دق خبراء التكنولوجيا أجراس الإنذار حول إمكانية تسبب أنظمة الذكاء الاصطناعي المتقدمة في إحداث أضرار كارثية للجنس البشري.

ولكن في عام 2024، غرقت تلك الدعوات التحذيرية أمام رؤية عملية ومزدهرة للذكاء الاصطناعي التوليدي الذي تروج له صناعة التكنولوجيا ــ وهي الرؤية التي أفادت أيضا محافظهم.

غالبًا ما يُطلق على أولئك الذين يحذرون من مخاطر الذكاء الاصطناعي الكارثية اسم “محكومو الذكاء الاصطناعي”، على الرغم من أنه ليس الاسم الذي يحبونه. إنهم قلقون من أن أنظمة الذكاء الاصطناعي ستتخذ قرارات لقتل الناس، أو أن يستخدمها الأقوياء لقمع الجماهير، أو تساهم في سقوط المجتمع بطريقة أو بأخرى.

في عام 2023، بدا الأمر وكأننا في بداية عصر النهضة لتنظيم التكنولوجيا. هلاك الذكاء الاصطناعي وسلامة الذكاء الاصطناعي – وهو موضوع أوسع يمكن أن يشمل الهلوسة، وعدم كفاية الإشراف على المحتوى، وطرق أخرى يمكن للذكاء الاصطناعي أن يلحق الضرر بالمجتمع – انتقل من موضوع متخصص تمت مناقشته في مقاهي سان فرانسيسكو إلى محادثة تظهر على MSNBC، وCNN، والصفحات الأولى من نيويورك تايمز.

لتلخيص التحذيرات الصادرة في عام 2023: دعا إيلون ماسك وأكثر من 1000 من التقنيين والعلماء إلى التوقف مؤقتًا عن تطوير الذكاء الاصطناعي، وطالبوا العالم بالاستعداد للمخاطر العميقة التي تنطوي عليها التكنولوجيا. وبعد فترة وجيزة، وقع كبار العلماء في OpenAI وGoogle ومختبرات أخرى على رسالة مفتوحة تقول إن خطر الذكاء الاصطناعي الذي يتسبب في انقراض الإنسان يجب أن يحظى بمزيد من المصداقية. وبعد أشهر، وقع الرئيس بايدن أمرًا تنفيذيًا للذكاء الاصطناعي بهدف عام هو حماية الأمريكيين من أنظمة الذكاء الاصطناعي. في نوفمبر 2023، قام المجلس غير الربحي وراء مطور الذكاء الاصطناعي الرائد في العالم، OpenAI، بطرد سام ألتمان، مدعيًا أن رئيسها التنفيذي كان معروفًا بالكذب ولا يمكن الوثوق به في تقنية مهمة مثل الذكاء العام الاصطناعي، أو AGI – مرة واحدة. نقطة النهاية المتخيلة للذكاء الاصطناعي، أي الأنظمة التي تظهر الوعي الذاتي بالفعل. (على الرغم من أن التعريف يتغير الآن لتلبية احتياجات العمل لأولئك الذين يتحدثون عنه.)

للحظة، بدا الأمر كما لو أن أحلام رواد الأعمال في وادي السيليكون ستحتل مرتبة أدنى من الصحة العامة للمجتمع.

لكن بالنسبة لرواد الأعمال هؤلاء، كان السرد حول هلاك الذكاء الاصطناعي أكثر إثارة للقلق من نماذج الذكاء الاصطناعي نفسها.

ردًا على ذلك، نشر مارك أندريسن، أحد مؤسسي a16z، مقالًا بعنوان “لماذا سينقذ الذكاء الاصطناعي العالم” في يونيو 2023، وهو مقال مكون من 7000 كلمة يفكك أجندة منكوبي الذكاء الاصطناعي ويقدم رؤية أكثر تفاؤلاً لكيفية تنفيذ التكنولوجيا.

سان فرانسيسكو، كاليفورنيا – 13 سبتمبر: رجل الأعمال مارك أندريسن يتحدث على خشبة المسرح خلال TechCrunch Disrupt SF 2016 في الرصيف 48 في 13 سبتمبر 2016 في سان فرانسيسكو، كاليفورنيا. (تصوير ستيف جينينغز / غيتي إيماجز لموقع TechCrunch)اعتمادات الصورة:ستيف جينينغز / غيتي إميجز

“لقد أتى عصر الذكاء الاصطناعي، والناس يشعرون بالخوف. ولحسن الحظ، أنا هنا لأحمل الأخبار الجيدة: الذكاء الاصطناعي لن يدمر العالم، بل في الواقع قد ينقذه.

في خاتمته، قدم أندريسن حلاً مناسبًا لمخاوفنا من الذكاء الاصطناعي: التحرك بسرعة وتحطيم الأشياء – وهي في الأساس نفس الأيديولوجية التي حددت كل تكنولوجيات القرن الحادي والعشرين الأخرى (والمشاكل المصاحبة لها). وقال إنه ينبغي السماح لشركات التكنولوجيا الكبرى والشركات الناشئة ببناء الذكاء الاصطناعي بأسرع ما يمكن وبقوة، مع وجود القليل من الحواجز التنظيمية أو عدم وجودها على الإطلاق. وأضاف أن هذا من شأنه أن يضمن عدم وقوع الذكاء الاصطناعي في أيدي عدد قليل من الشركات أو الحكومات القوية، وسيسمح لأمريكا بالتنافس بفعالية مع الصين.

بالطبع، سيسمح هذا أيضًا للعديد من شركات الذكاء الاصطناعي الناشئة التابعة لـ a16z بجني المزيد من المال – وقد وجد البعض أن تفاؤله التكنولوجي غير مقبول في عصر التفاوت الشديد في الدخل، والأوبئة، وأزمات الإسكان.

في حين أن أندريسن لا يتفق دائمًا مع شركات التكنولوجيا الكبرى، فإن كسب المال هو أحد المجالات التي يمكن أن تتفق عليها الصناعة بأكملها. كتب مؤسسو a16z رسالة مع الرئيس التنفيذي لشركة Microsoft ساتيا ناديلا هذا العام، يطلبون فيها من الحكومة عدم تنظيم صناعة الذكاء الاصطناعي على الإطلاق.

وفي الوقت نفسه، على الرغم من التلويح المحموم في عام 2023، لم يتوقف ماسك وغيره من خبراء التكنولوجيا عن التباطؤ للتركيز على السلامة في عام 2024 – بل على العكس تمامًا: تجاوز الاستثمار في الذكاء الاصطناعي في عام 2024 أي شيء رأيناه من قبل. عاد ألتمان سريعًا إلى رئاسة شركة OpenAI، وغادر عدد كبير من الباحثين في مجال السلامة الشركة في عام 2024 بينما كانوا يدقون أجراس الإنذار بشأن ثقافة السلامة المتضائلة.

لقد فقد الأمر التنفيذي للذكاء الاصطناعي الذي يركز على السلامة لبايدن إلى حد كبير هذا العام في واشنطن العاصمة، حيث أعلن الرئيس المنتخب القادم، دونالد ترامب، عن خطط لإلغاء أمر بايدن، بحجة أنه يعيق ابتكار الذكاء الاصطناعي. يقول أندريسن إنه كان يقدم المشورة لترامب بشأن الذكاء الاصطناعي والتكنولوجيا في الأشهر الأخيرة، وأصبح سريرام كريشنان، صاحب رأس المال المغامر منذ فترة طويلة في شركة a16z، هو الآن كبير مستشاري ترامب الرسمي بشأن الذكاء الاصطناعي.

لدى الجمهوريين في واشنطن العديد من الأولويات المتعلقة بالذكاء الاصطناعي والتي تتفوق على عذاب الذكاء الاصطناعي اليوم، وفقًا لدين بول، وهو زميل أبحاث يركز على الذكاء الاصطناعي في مركز ميركاتوس بجامعة جورج ماسون. ويشمل ذلك بناء مراكز بيانات لتشغيل الذكاء الاصطناعي، واستخدام الذكاء الاصطناعي في الحكومة والجيش، والتنافس مع الصين، والحد من الإشراف على المحتوى من شركات التكنولوجيا التي تنتمي إلى يسار الوسط، وحماية الأطفال من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.

“أظن [the movement to prevent catastrophic AI risk] لقد فقدت شعبيتها على المستوى الفيدرالي. قال بول في مقابلة مع TechCrunch: “على مستوى الولاية والمستوى المحلي، فقدوا أيضًا المعركة الكبرى الوحيدة التي خاضوها”. بالطبع، إنه يشير إلى مشروع قانون سلامة الذكاء الاصطناعي المثير للجدل في كاليفورنيا SB 1047.

جزء من السبب وراء تراجع شعبية الذكاء الاصطناعي في عام 2024 هو ببساطة أنه مع تزايد شعبية نماذج الذكاء الاصطناعي، رأينا أيضًا مدى عدم ذكائها. من الصعب أن تتخيل أن Google Gemini يتحول إلى Skynet عندما يطلب منك للتو وضع الغراء على البيتزا الخاصة بك.

ولكن في الوقت نفسه، كان عام 2024 هو العام الذي بدا فيه أن العديد من منتجات الذكاء الاصطناعي تجلب مفاهيم من الخيال العلمي إلى الحياة. لأول مرة هذا العام: أظهر OpenAI كيف يمكننا التحدث مع هواتفنا وليس من خلالها، وكشفت Meta النقاب عن نظارات ذكية ذات فهم بصري في الوقت الفعلي. إن الأفكار الكامنة وراء مخاطر الذكاء الاصطناعي الكارثية تنبع إلى حد كبير من أفلام الخيال العلمي، وعلى الرغم من وجود حد واضح، فإن عصر الذكاء الاصطناعي يثبت أن بعض أفكار الخيال العلمي قد لا تكون خيالية إلى الأبد.

أكبر معركة هلاك للذكاء الاصطناعي في عام 2024: SB 1047

عضو مجلس الشيوخ عن الولاية سكوت وينر، وهو ديمقراطي من كاليفورنيا، على اليمين، خلال قمة بلومبرج BNEF في سان فرانسيسكو، كاليفورنيا، الولايات المتحدة، يوم الأربعاء، 31 يناير 2024. توفر القمة الأفكار والرؤى والاتصالات لصياغة استراتيجيات ناجحة، والاستفادة من التغير التكنولوجي وتشكيل مستقبل أنظف وأكثر تنافسية. المصور: ديفيد بول موريس / بلومبرج عبر غيتي إيماجزاعتمادات الصورة:ديفيد بول موريس / بلومبرج عبر Getty Images / Getty Images

وصلت معركة سلامة الذكاء الاصطناعي لعام 2024 إلى ذروتها مع مشروع قانون SB 1047، وهو مشروع قانون يدعمه اثنان من الباحثين المرموقين في مجال الذكاء الاصطناعي: جيفري هينتون ويوشوا بينجيو. حاول مشروع القانون منع أنظمة الذكاء الاصطناعي المتقدمة من التسبب في أحداث انقراض جماعي للبشر والهجمات الإلكترونية التي يمكن أن تسبب ضررًا أكبر من انقطاع CrowdStrike في عام 2024.

مر SB 1047 عبر الهيئة التشريعية لولاية كاليفورنيا، ووصل إلى مكتب الحاكم جافين نيوسوم، حيث وصفه بمشروع قانون “ذو تأثير كبير”. حاول مشروع القانون منع الأشياء التي حذر منها ماسك وألتمان والعديد من قادة وادي السيليكون الآخرين في عام 2023 عندما وقعوا على تلك الرسائل المفتوحة حول الذكاء الاصطناعي.

لكن نيوسوم اعترض على SB 1047. في الأيام التي سبقت قراره، تحدث عن تنظيم الذكاء الاصطناعي على خشبة المسرح في وسط مدينة سان فرانسيسكو، قائلاً: “لا أستطيع حل كل شيء. ما الذي يمكننا حله؟

وهذا يلخص بوضوح عدد صناع السياسات الذين يفكرون في مخاطر الذكاء الاصطناعي الكارثية اليوم. إنها ليست مشكلة مع حل عملي.

ومع ذلك، كان SB 1047 معيبًا بما يتجاوز تركيزه على مخاطر الذكاء الاصطناعي الكارثية. وينظم مشروع القانون نماذج الذكاء الاصطناعي على أساس الحجم، في محاولة لتنظيم أكبر اللاعبين فقط. ومع ذلك، فإن هذا لم يأخذ في الاعتبار التقنيات الجديدة مثل حساب وقت الاختبار أو ظهور نماذج الذكاء الاصطناعي الصغيرة، والتي بدأت مختبرات الذكاء الاصطناعي الرائدة في التركيز عليها بالفعل. علاوة على ذلك، اعتُبر مشروع القانون على نطاق واسع اعتداء على الذكاء الاصطناعي مفتوح المصدر ــ وبالوكالة، عالم الأبحاث ــ لأنه كان سيمنع شركات مثل ميتا وميسترال من إطلاق نماذج ذكاء اصطناعي حدودية قابلة للتخصيص بدرجة عالية.

لكن وفقًا لمؤلف مشروع القانون، عضو مجلس الشيوخ عن الولاية سكوت وينر، فإن وادي السيليكون لعب دورًا قذرًا للتأثير على الرأي العام حول SB 1047. وقد أخبر TechCrunch سابقًا أن أصحاب رأس المال الاستثماري من Y Combinator وA16Z انخرطوا في حملة دعائية ضد مشروع القانون.

على وجه التحديد، نشرت هذه المجموعات ادعاءً بأن قانون SB 1047 من شأنه أن يرسل مطوري البرامج إلى السجن بتهمة الحنث باليمين. طلبت Y Combinator من المؤسسين الشباب التوقيع على خطاب يقول ذلك في يونيو 2024. وفي الوقت نفسه تقريبًا، قدم الشريك العام لشركة Andreessen Horowitz، Anjney Midha، ادعاء مماثل في أحد البرامج الصوتية.

وصف معهد بروكينغز هذا بأنه أحد التحريفات العديدة لمشروع القانون. لقد ذكر SB 1047 أن المديرين التنفيذيين في مجال التكنولوجيا سيحتاجون إلى تقديم تقارير تحدد أوجه القصور في نماذج الذكاء الاصطناعي الخاصة بهم، وأشار مشروع القانون إلى أن الكذب على وثيقة حكومية يعد شهادة زور. ومع ذلك، فإن أصحاب رأس المال المغامر الذين نشروا هذه المخاوف فشلوا في الإشارة إلى أنه نادرًا ما يتم اتهام الأشخاص بتهمة الحنث باليمين، بل ونادرًا ما تتم إدانتهم.

رفضت YC فكرة نشر معلومات مضللة، وأخبرت TechCrunch سابقًا أن SB 1047 كان غامضًا وليس ملموسًا كما صوره السيناتور وينر.

بشكل عام، كان هناك شعور متزايد خلال معركة SB 1047 بأن محكومي الذكاء الاصطناعي لم يكونوا مناهضين للتكنولوجيا فحسب، بل كانوا متوهمين أيضًا. ووصف المستثمر الشهير فينود خوسلا وينر بأنه جاهل بالمخاطر الحقيقية للذكاء الاصطناعي في أكتوبر من هذا العام.

لقد عارض كبير علماء الذكاء الاصطناعي في ميتا، يان ليكون، منذ فترة طويلة الأفكار الكامنة وراء هلاك الذكاء الاصطناعي، لكنه أصبح أكثر صراحة هذا العام.

“فكرة ذلك بطريقة أو بأخرى [intelligent] قال LeCun في دافوس عام 2024: “سوف تتوصل الأنظمة إلى أهدافها الخاصة وتتولى السيطرة على البشرية، وهو أمر غير معقول، إنه أمر مثير للسخرية”، مشيرًا إلى أننا بعيدون جدًا عن تطوير أنظمة الذكاء الاصطناعي فائقة الذكاء. “هناك الكثير والكثير من الطرق للبناء [any technology] بطرق ستكون خطرة، أو خاطئة، أو تقتل الناس، وما إلى ذلك… ولكن طالما أن هناك طريقة واحدة للقيام بذلك بشكل صحيح، فهذا كل ما نحتاجه.

وفي الوقت نفسه، حول صناع السياسات اهتمامهم إلى مجموعة جديدة من مشاكل سلامة الذكاء الاصطناعي.

المعركة المقبلة في عام 2025

وقد ألمح صناع السياسات الذين يقفون وراء SB 1047 إلى أنهم قد يعودون في عام 2025 بمشروع قانون معدل لمعالجة مخاطر الذكاء الاصطناعي طويلة المدى. يقول أحد رعاة مشروع القانون، Encode، إن الاهتمام الوطني الذي جذبه SB 1047 كان بمثابة إشارة إيجابية.

قال صني غاندي، نائب رئيس الشؤون السياسية في Encode، في رسالة بالبريد الإلكتروني إلى TechCrunch: “لقد حققت حركة سلامة الذكاء الاصطناعي تقدمًا مشجعًا للغاية في عام 2024، على الرغم من الاعتراض على SB 1047”. “نحن متفائلون بأن وعي الجمهور بمخاطر الذكاء الاصطناعي على المدى الطويل آخذ في التزايد، وهناك رغبة متزايدة بين صناع السياسات لمعالجة هذه التحديات المعقدة.”

تقول غاندي إن شركة إنكود تتوقع بذل “جهود كبيرة” في عام 2025 لتنظيم المخاطر الكارثية المدعومة بالذكاء الاصطناعي، على الرغم من أنها لم تكشف عن أي مخاطر محددة.

على الجانب الآخر، يعد مارتن كاسادو، الشريك العام لشركة a16z، أحد الأشخاص الذين يقودون المعركة ضد تنظيم مخاطر الذكاء الاصطناعي الكارثية. وفي مقال رأي نُشر في ديسمبر/كانون الأول حول سياسة الذكاء الاصطناعي، زعم كاسادو أننا بحاجة إلى سياسة أكثر عقلانية للمضي قدمًا، معلنًا أن “الذكاء الاصطناعي يبدو آمنًا إلى حد كبير”.

قال كاسادو في تغريدة في ديسمبر/كانون الأول: “لقد تجاوزنا الموجة الأولى من الجهود الغبية في مجال سياسات الذكاء الاصطناعي إلى حد كبير”. “نأمل أن نكون أكثر ذكاءً للمضي قدمًا.”

إن وصف الذكاء الاصطناعي بأنه “آمن للغاية” ومحاولات تنظيمه بأنه “غبي” هو نوع من المبالغة في التبسيط. على سبيل المثال، تتم حاليًا مقاضاة شركة Character.AI – وهي شركة ناشئة استثمرت فيها شركة a16z – والتحقيق فيها بشأن مخاوف تتعلق بسلامة الأطفال. في إحدى الدعاوى القضائية الجارية، قتل صبي من فلوريدا يبلغ من العمر 14 عامًا نفسه بعد أن زعم ​​أنه أفصح عن أفكاره الانتحارية إلى برنامج Chatbot الخاص بـ Character.AI والذي أجرى معه محادثات رومانسية وجنسية. توضح هذه الحالة، في حد ذاتها، كيف يتعين على مجتمعنا الاستعداد لأنواع جديدة من المخاطر المتعلقة بالذكاء الاصطناعي والتي ربما كانت تبدو سخيفة قبل بضع سنوات فقط.

هناك المزيد من مشاريع القوانين التي تعالج مخاطر الذكاء الاصطناعي على المدى الطويل ــ بما في ذلك مشروع قانون قدمه للتو السيناتور مِت رومني على المستوى الفيدرالي. ولكن الآن، يبدو أن منتقدي الذكاء الاصطناعي سيخوضون معركة شاقة في عام 2025.


نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.

اقرأ على الموقع الرسمي


اكتشاف المزيد من اشراق العالم 24

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق العالم 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading