علوم وتكنولوجيامنوعات التقنية

تقول شركة Meta إنها تجعل نماذج Llama الخاصة بها متاحة لتطبيقات الأمن القومي الأمريكي

اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “تقول شركة Meta إنها تجعل نماذج Llama الخاصة بها متاحة لتطبيقات الأمن القومي الأمريكي
” نترككم مع محتوى الخبر

لمحاربة التصور بأن الذكاء الاصطناعي “المفتوح” الخاص بها يساعد الخصوم الأجانب، قالت شركة Meta اليوم إنها تجعل سلسلة Llama من نماذج الذكاء الاصطناعي متاحة للوكالات الحكومية الأمريكية والمقاولين في مجال الأمن القومي.

وكتب ميتا في منشور بالمدونة: “يسعدنا أن نؤكد أننا نجعل اللاما متاحة للوكالات الحكومية الأمريكية، بما في ذلك تلك التي تعمل في تطبيقات الدفاع والأمن القومي، وشركاء القطاع الخاص الذين يدعمون عملهم”. “نحن نعقد شراكات مع شركات تشمل Accenture، وAmazon Web Services، وAnduril، وBooz Allen، وDatabricks، وDeloitte، وIBM، وLeidos، وLockheed Martin، وMicrosoft، وOracle، وPalantir، وScale AI، وSnowflake لجلب Llama إلى الوكالات الحكومية.”

يقول ميتا إن أوراكل، على سبيل المثال، تستخدم اللاما لمعالجة وثائق صيانة الطائرات. يعمل Scale AI على ضبط اللاما لدعم مهام محددة لفريق الأمن القومي. وتقدم شركة لوكهيد مارتن اللاما لعملائها في مجال الدفاع لحالات الاستخدام مثل إنشاء كود الكمبيوتر.

تمنع سياسة Meta عادةً المطورين من استخدام Llama في أي مشاريع تتعلق بالمهام العسكرية أو الحربية أو التجسسية. لكن الشركة قدمت استثناءً في هذه الحالة، كما قالت لبلومبرج، واستثناءات للوكالات الحكومية المماثلة (والمقاولين) في المملكة المتحدة وكندا وأستراليا ونيوزيلندا.

في الأسبوع الماضي، ذكرت رويترز أن علماء الأبحاث الصينيين المرتبطين بجيش التحرير الشعبي (PLA)، الجناح العسكري للحزب الحاكم في الصين، استخدموا نموذج اللاما الأقدم، اللاما 2، لتطوير أداة للتطبيقات الدفاعية. أنشأ باحثون صينيون، بما في ذلك اثنان ينتمون إلى مجموعة البحث والتطوير التابعة لجيش التحرير الشعبي، روبوت دردشة يركز على الجيش مصمم لجمع ومعالجة المعلومات الاستخبارية، فضلاً عن تقديم المعلومات لاتخاذ القرارات التشغيلية.

وقالت ميتا لرويترز في بيان إن استخدام نموذج اللاما “المفرد والقديم” كان “غير مصرح به” ويتعارض مع سياسة الاستخدام المقبولة. لكن التقرير أضاف الكثير إلى النقاش الدائر حول مزايا ومخاطر الذكاء الاصطناعي المفتوح.

إن استخدام الذكاء الاصطناعي، سواء كان مفتوحًا أو “مغلقًا”، للدفاع أمر مثير للجدل.

وفقا لدراسة حديثة أجراها معهد AI Now غير الربحي، فإن الذكاء الاصطناعي المنتشر اليوم في الاستخبارات العسكرية والمراقبة والاستطلاع يشكل مخاطر لأنه يعتمد على البيانات الشخصية التي يمكن للخصوم تسريبها واستخدامها كسلاح. كما أن لديها أيضًا نقاط ضعف، مثل التحيزات والميل إلى الهلوسة، والتي لا يوجد علاج لها حاليًا، كما يكتب المؤلفون المشاركون، الذين يوصون بإنشاء ذكاء اصطناعي منفصل ومعزول عن النماذج “التجارية”.

احتج الموظفون في العديد من شركات التكنولوجيا الكبرى، بما في ذلك جوجل ومايكروسوفت، على العقود التي أبرمها أصحاب عملهم لبناء أدوات الذكاء الاصطناعي والبنية التحتية للجيش الأمريكي.

ويؤكد ميتا أن الذكاء الاصطناعي المفتوح يمكنه تسريع أبحاث الدفاع مع تعزيز “المصالح الاقتصادية والأمنية” لأمريكا. لكن الجيش الأمريكي كان بطيئا في تبني هذه التكنولوجيا، وكان متشككا في العائد على الاستثمار. حتى الآن، يعد الجيش الأمريكي الفرع الوحيد من القوات المسلحة الأمريكية الذي يستخدم الذكاء الاصطناعي بشكل مولد.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.


نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.

اقرأ على الموقع الرسمي


اكتشاف المزيد من اشراق العالم 24

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق العالم 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading