يقول الرئيس التنفيذي لشركة Nvidia إن رقائق الذكاء الاصطناعي الخاصة به تتحسن بشكل أسرع من قانون مور
اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “يقول الرئيس التنفيذي لشركة Nvidia إن رقائق الذكاء الاصطناعي الخاصة به تتحسن بشكل أسرع من قانون مور
” نترككم مع محتوى الخبر
يقول الرئيس التنفيذي لشركة Nvidia Jensen Huang إن أداء رقائق الذكاء الاصطناعي الخاصة بشركته يتقدم بشكل أسرع من المعدلات التاريخية التي حددها قانون مور، وهو المبدأ الذي قاد تقدم الحوسبة لعقود من الزمن.
قال هوانغ في مقابلة مع موقع TechCrunch يوم الثلاثاء، في الصباح التالي لإلقاء خطاب رئيسي أمام حشد من 10000 شخص في معرض CES في لاس فيجاس: “إن أنظمتنا تتقدم بشكل أسرع من قانون مور”.
تنبأ جوردون مور، المؤسس المشارك لشركة إنتل، في عام 1965، بقانون مور الذي تنبأ بأن عدد الترانزستورات الموجودة على رقائق الكمبيوتر سوف يتضاعف تقريبًا كل عام، مما يؤدي بشكل أساسي إلى مضاعفة أداء تلك الرقائق. وقد نجح هذا التنبؤ في الغالب، وأدى إلى تقدم سريع في القدرات وانخفاض التكاليف على مدى عقود.
في السنوات الأخيرة، تباطأ قانون مور. ومع ذلك، يدعي هوانغ أن رقائق الذكاء الاصطناعي الخاصة بشركة Nvidia تتحرك بوتيرة متسارعة خاصة بها؛ تقول الشركة إن أحدث شريحة فائقة لمركز البيانات لديها أسرع بأكثر من 30 مرة من الجيل السابق لتشغيل أعباء عمل استدلال الذكاء الاصطناعي.
وقال هوانغ: “يمكننا بناء البنية والرقاقة والنظام والمكتبات والخوارزميات في نفس الوقت”. “إذا قمت بذلك، فيمكنك التحرك بشكل أسرع من قانون مور، لأنه يمكنك الابتكار عبر المجموعة بأكملها.”
يأتي هذا الادعاء الجريء من الرئيس التنفيذي لشركة Nvidia في وقت يتساءل فيه الكثيرون عما إذا كان تقدم الذكاء الاصطناعي قد توقف. تستخدم مختبرات الذكاء الاصطناعي الرائدة – مثل Google وOpenAI وAnthropic – شرائح الذكاء الاصطناعي من Nvidia لتدريب نماذج الذكاء الاصطناعي الخاصة بها وتشغيلها، ومن المرجح أن يُترجم التقدم في هذه الرقائق إلى مزيد من التقدم في قدرات نماذج الذكاء الاصطناعي.
ليست هذه هي المرة الأولى التي يقترح فيها هوانغ أن نفيديا تتجاوز قانون مور. وفي بث صوتي في نوفمبر/تشرين الثاني، أشار هوانج إلى أن عالم الذكاء الاصطناعي يسير بخطى سريعة نحو “قانون مور المفرط”.
يرفض هوانغ فكرة تباطؤ تقدم الذكاء الاصطناعي. بدلاً من ذلك، يدعي أن هناك الآن ثلاثة قوانين نشطة لتوسيع نطاق الذكاء الاصطناعي: التدريب المسبق، مرحلة التدريب الأولية حيث تتعلم نماذج الذكاء الاصطناعي الأنماط من كميات كبيرة من البيانات؛ وبعد التدريب، الذي يضبط إجابات نموذج الذكاء الاصطناعي باستخدام أساليب مثل ردود الفعل البشرية؛ وحساب وقت الاختبار، والذي يحدث أثناء مرحلة الاستدلال ويمنح نموذج الذكاء الاصطناعي مزيدًا من الوقت “للتفكير” بعد كل سؤال.
وقال هوانغ لـ TechCrunch: “كان قانون مور مهمًا جدًا في تاريخ الحوسبة لأنه أدى إلى خفض تكاليف الحوسبة”. “سوف يحدث نفس الشيء مع الاستدلال حيث نرفع الأداء، ونتيجة لذلك، ستكون تكلفة الاستدلال أقل.”
(بالطبع، تطورت شركة Nvidia لتصبح الشركة الأكثر قيمة على وجه الأرض من خلال الاستفادة من طفرة الذكاء الاصطناعي، لذا فمن المفيد لهوانغ أن يقول ذلك.)
كانت Nvidia’s H100s هي الشريحة المفضلة لشركات التكنولوجيا التي تتطلع إلى تدريب نماذج الذكاء الاصطناعي، ولكن الآن بعد أن أصبحت شركات التكنولوجيا تركز أكثر على الاستدلال، تساءل البعض عما إذا كانت شرائح Nvidia الباهظة الثمن ستظل في المقدمة.
تعد نماذج الذكاء الاصطناعي التي تستخدم حوسبة وقت الاختبار مكلفة للتشغيل اليوم. هناك قلق من أن نموذج o3 الخاص بـ OpenAI، والذي يستخدم نسخة موسعة من حساب وقت الاختبار، سيكون مكلفًا للغاية بالنسبة لمعظم الناس لاستخدامه. على سبيل المثال، أنفقت شركة OpenAI ما يقرب من 20 دولارًا لكل مهمة باستخدام o3 لتحقيق درجات على المستوى البشري في اختبار الذكاء العام. تبلغ تكلفة الاشتراك في ChatGPT Plus 20 دولارًا لمدة شهر كامل من الاستخدام.
حمل هوانغ أحدث شريحة فائقة السرعة لمركز البيانات من Nvidia، وهي GB200 NVL72، على خشبة المسرح مثل الدرع خلال الكلمة الرئيسية يوم الاثنين. تعد هذه الشريحة أسرع بمعدل 30 إلى 40 مرة في تشغيل أحمال عمل استدلال الذكاء الاصطناعي مقارنة برقائق Nvidia الأكثر مبيعًا السابقة، H100. يقول هوانغ إن هذه القفزة في الأداء تعني أن نماذج الذكاء الاصطناعي المنطقي مثل OpenAI’s o3، والتي تستخدم قدرًا كبيرًا من الحوسبة خلال مرحلة الاستدلال، ستصبح أرخص بمرور الوقت.
يقول هوانغ إنه يركز بشكل عام على إنشاء شرائح أكثر أداءً، وأن الرقائق الأكثر أداءً تؤدي إلى انخفاض الأسعار على المدى الطويل.
وقال هوانغ لـ TechCrunch: “إن الحل المباشر والفوري لحساب وقت الاختبار، سواء من حيث الأداء أو القدرة على تحمل التكاليف، هو زيادة قدرتنا على الحوسبة”. وأشار إلى أنه يمكن استخدام نماذج استدلال الذكاء الاصطناعي على المدى الطويل لإنشاء بيانات أفضل للتدريب المسبق وبعد التدريب على نماذج الذكاء الاصطناعي.
لقد شهدنا بالتأكيد انخفاضًا حادًا في أسعار نماذج الذكاء الاصطناعي في العام الماضي، ويرجع ذلك جزئيًا إلى الإنجازات الحاسوبية التي حققتها شركات الأجهزة مثل Nvidia. يقول هوانغ إن هذا هو الاتجاه الذي يتوقع استمراره مع نماذج الاستدلال الخاصة بالذكاء الاصطناعي، على الرغم من أن الإصدارات الأولى التي رأيناها من OpenAI كانت باهظة الثمن إلى حد ما.
على نطاق أوسع، ادعى هوانغ أن رقائق الذكاء الاصطناعي الخاصة به اليوم أفضل بـ 1000 مرة مما كانت تنتجه قبل 10 سنوات. وهذه وتيرة أسرع بكثير من المعيار الذي حدده مور لو، والذي يقول هوانغ إنه لا يرى أي علامة على التوقف قريبًا.
لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! سجل هنا لتحصل عليه في بريدك الوارد كل يوم أربعاء.
نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.
اقرأ على الموقع الرسمي
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من اشراق العالم 24
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.