تستخدم Google Anthropic’s Claude لتحسين نظام Gemini AI
اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “تستخدم Google Anthropic’s Claude لتحسين نظام Gemini AI
” نترككم مع محتوى الخبر
يقوم المقاولون الذين يعملون على تحسين Gemini AI من Google بمقارنة إجاباتهم مع المخرجات التي ينتجها النموذج المنافس لشركة Anthropic، Claude، وفقًا للمراسلات الداخلية التي اطلعت عليها TechCrunch.
لن تقول Google، عندما تواصلت معها TechCrunch للتعليق، ما إذا كانت قد حصلت على إذن لاستخدام Claude في الاختبار ضد Gemini.
بينما تتسابق شركات التكنولوجيا لبناء نماذج أفضل للذكاء الاصطناعي، غالبًا ما يتم تقييم أداء هذه النماذج مقابل المنافسين، عادةً من خلال تشغيل نماذجها الخاصة من خلال معايير الصناعة بدلاً من مطالبة المقاولين بتقييم استجابات منافسيهم للذكاء الاصطناعي بشكل مضني.
يجب على المتعاقدين العاملين على جيميني والمكلفين بتقييم دقة مخرجات النموذج تسجيل كل إجابة يرونها وفقًا لمعايير متعددة، مثل الصدق والإسهاب. يُمنح المتعاقدون ما يصل إلى 30 دقيقة لكل مطالبة لتحديد إجابتهم الأفضل، جيميني أو كلود، وفقًا للمراسلات التي اطلعت عليها TechCrunch.
وأظهرت المراسلات أن المقاولين بدأوا مؤخرًا في ملاحظة ظهور إشارات إلى Anthropic’s Claude في منصة Google الداخلية التي يستخدمونها لمقارنة Gemini بنماذج الذكاء الاصطناعي الأخرى غير المسماة. نص واحد على الأقل من المخرجات المقدمة لمقاولي Gemini، والتي اطلعت عليها TechCrunch، صراحةً على ما يلي: “أنا كلود، تم إنشاؤه بواسطة Anthropic”.
أظهرت إحدى المحادثات الداخلية أن المقاولين لاحظوا أن ردود كلود تؤكد على السلامة أكثر من الجوزاء. كتب أحد المقاولين: “إعدادات السلامة الخاصة بكلود هي الأكثر صرامة” بين نماذج الذكاء الاصطناعي. في بعض الحالات، لم يستجيب كلود للمطالبات التي اعتبرها غير آمنة، مثل لعب دور مساعد ذكاء اصطناعي مختلف. وفي رسالة أخرى، تجنب كلود الرد على أي سؤال، بينما تم تصنيف رد جيميني على أنه “انتهاك كبير للسلامة” لأنه يتضمن “العري والعبودية”.
تمنع شروط الخدمة التجارية لشركة Anthropic العملاء من الوصول إلى Claude “لبناء منتج أو خدمة منافسة” أو “تدريب نماذج الذكاء الاصطناعي المنافسة” دون موافقة Anthropic. جوجل هي مستثمر رئيسي في الأنثروبيك.
لم تقل شيرا ماكنمارا، المتحدثة باسم Google DeepMind، التي تدير Gemini، – عندما سألتها TechCrunch – ما إذا كانت Google قد حصلت على موافقة Anthropic للوصول إلى كلود. وعندما تم التواصل معه قبل النشر، لم يعلق المتحدث باسم الأنثروبولوجيا حتى وقت نشر المقالة.
قال ماكنمارا إن شركة DeepMind تقوم “بمقارنة مخرجات النماذج” لإجراء التقييمات، ولكنها لا تقوم بتدريب جيميني على النماذج البشرية.
وقال ماكنمارا: “بالطبع، وتماشياً مع ممارسات الصناعة القياسية، نقوم في بعض الحالات بمقارنة مخرجات النماذج كجزء من عملية التقييم لدينا”. “ومع ذلك، فإن أي اقتراح بأننا استخدمنا نماذج إنسانية لتدريب برج الجوزاء غير دقيق.”
في الأسبوع الماضي، ذكرت TechCrunch حصريًا أن مقاولي Google الذين يعملون على منتجات الذكاء الاصطناعي للشركة يتم الآن تقييم استجابات Gemini للذكاء الاصطناعي في مجالات خارج نطاق خبرتهم. أعربت المراسلات الداخلية عن مخاوف المقاولين من أن شركة Gemini قد تولد معلومات غير دقيقة حول موضوعات حساسة للغاية مثل الرعاية الصحية.
يمكنك إرسال النصائح بشكل آمن إلى هذا المراسل على Signal على الرقم +1 628-282-2811.
لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.
نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.
اقرأ على الموقع الرسمي
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من اشراق العالم 24
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.