علوم وتكنولوجيامنوعات التقنية

تفقد شركة OpenAI باحثًا رئيسيًا آخر في مجال السلامة، وهو ليليان ونغ

اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “تفقد شركة OpenAI باحثًا رئيسيًا آخر في مجال السلامة، وهو ليليان ونغ
” نترككم مع محتوى الخبر

أعلنت ليليان وينغ، إحدى كبار الباحثين في مجال السلامة في OpenAI، يوم الجمعة أنها ستغادر الشركة الناشئة. شغل وينج منصب نائب الرئيس للأبحاث والسلامة منذ أغسطس، وقبل ذلك كان رئيسًا لفريق أنظمة السلامة في OpenAI.

في منشور على X، قال Weng إنه “بعد 7 سنوات في OpenAI، أشعر أنني مستعد لإعادة ضبط واستكشاف شيء جديد.” وقالت ونج إن آخر يوم لها سيكون يوم 15 نوفمبر، لكنها لم تحدد المكان الذي ستذهب إليه بعد ذلك.

قال Weng في المنشور: “لقد اتخذت قرارًا صعبًا للغاية بمغادرة OpenAI”. “بالنظر إلى ما حققناه، أنا فخور جدًا بكل فرد في فريق أنظمة السلامة ولدي ثقة كبيرة للغاية في أن الفريق سيواصل الازدهار.”

يمثل رحيل Weng الأحدث في سلسلة طويلة من الباحثين في مجال سلامة الذكاء الاصطناعي، وباحثي السياسات، وغيرهم من المديرين التنفيذيين الذين غادروا الشركة في العام الماضي، واتهم العديد منهم OpenAI بإعطاء الأولوية للمنتجات التجارية على سلامة الذكاء الاصطناعي. ينضم Weng إلى Ilya Sutskever وJan Leike – قادة فريق Superalignment الذي تم حله الآن في OpenAI، والذي حاول تطوير طرق لتوجيه أنظمة الذكاء الاصطناعي فائقة الذكاء – اللذين تركا أيضًا الشركة الناشئة هذا العام للعمل على سلامة الذكاء الاصطناعي في مكان آخر.

انضمت Weng لأول مرة إلى OpenAI في عام 2018، وفقًا لموقع LinkedIn الخاص بها، حيث عملت مع فريق الروبوتات في الشركة الناشئة الذي انتهى به الأمر إلى بناء يد روبوتية يمكنها حل مكعب روبيك – وهي مهمة استغرق تحقيقها عامين، وفقًا لمنشورها.

عندما بدأت شركة OpenAI في التركيز بشكل أكبر على نموذج GPT، كذلك فعل Weng. انتقل الباحث للمساعدة في بناء فريق أبحاث الذكاء الاصطناعي التطبيقي للشركة الناشئة في عام 2021. وبعد إطلاق GPT-4، تم تكليف Weng بإنشاء فريق مخصص لبناء أنظمة السلامة للشركة الناشئة في عام 2023. واليوم، تضم وحدة أنظمة السلامة في OpenAI أكثر من 80 عالمًا وباحثًا وخبيرًا في السياسة، بحسب ما نشره ونغ.

هذا كثير من الأشخاص المعنيين بسلامة الذكاء الاصطناعي، لكن العديد منهم أثاروا مخاوف بشأن تركيز OpenAI على السلامة أثناء محاولتها بناء أنظمة ذكاء اصطناعي قوية بشكل متزايد. غادر مايلز بروندج، وهو باحث في مجال السياسات منذ فترة طويلة، الشركة الناشئة في أكتوبر وأعلن أن شركة OpenAI كانت تقوم بحل فريق الاستعداد للذكاء الاصطناعي العام (AGI)، والذي كان قد نصحه. في نفس اليوم، قدمت صحيفة نيويورك تايمز لمحة عن الباحث السابق في OpenAI، سوشير بالاجي، الذي قال إنه ترك OpenAI لأنه يعتقد أن تكنولوجيا الشركة الناشئة ستجلب ضررًا أكبر من نفعها للمجتمع.

أخبر OpenAI موقع TechCrunch أن المديرين التنفيذيين والباحثين في مجال السلامة يعملون على عملية انتقالية لتحل محل Weng.

قال متحدث باسم OpenAI في بيان أرسل عبر البريد الإلكتروني: “نحن نقدر بشدة مساهمات ليليان في أبحاث السلامة المتقدمة وبناء ضمانات تقنية صارمة”. “نحن واثقون من أن فريق أنظمة السلامة سيواصل لعب دور رئيسي في ضمان أن أنظمتنا آمنة وموثوقة، وتخدم مئات الملايين من الأشخاص حول العالم.”

ومن بين المديرين التنفيذيين الآخرين الذين تركوا OpenAI في الأشهر الأخيرة CTO Mira Murati، وكبير مسؤولي الأبحاث Bob McGrew، ونائب رئيس الأبحاث Barret Zoph. وفي أغسطس، أعلن الباحث البارز أندريه كارباثي والمؤسس المشارك جون شولمان أيضًا عن ترك الشركة الناشئة. بعض هؤلاء الأشخاص، بما في ذلك Leike وSchulman، غادروا للانضمام إلى منافس OpenAI، Anthropic، بينما بدأ آخرون في بدء مشاريعهم الخاصة.


نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.

اقرأ على الموقع الرسمي


اكتشاف المزيد من اشراق العالم 24

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق العالم 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading