علوم وتكنولوجيامنوعات التقنية

في حركة رفض ، تدعي حرف chatbot منصة الذكاء الاصطناعي أنها محمية بموجب التعديل الأول

اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “في حركة رفض ، تدعي حرف chatbot منصة الذكاء الاصطناعي أنها محمية بموجب التعديل الأول
” نترككم مع محتوى الخبر

قدمت AI ، وهي منصة تتيح للمستخدمين الانخراط في لعب الأدوار مع AI chatbots ، اقتراحًا لرفض قضية قدمها والد أحد المراهق الذي انتحر ، بزعم أنه تم توصيله بتكنولوجيا الشركة.

في شهر أكتوبر ، رفعت ميغان جارسيا دعوى قضائية ضد شخصية الذكاء الاصطناعي في محكمة المقاطعة الأمريكية للمنطقة الوسطى في فلوريدا ، فرقة أورلاندو ، على وفاة ابنها ، سيويل سيتزر الثالث. وفقًا لـ Garcia ، طور ابنها البالغ من العمر 14 عامًا ارتباطًا عاطفيًا بدردشة على شخصية AI ، “Dany” ، التي أرسلها باستمرار-إلى درجة بدأ الابتعاد عن العالم الحقيقي.

بعد وفاة Setzer ، قالت الشخصية AI إنها ستطرح عددًا من ميزات السلامة الجديدة ، بما في ذلك تحسين الكشف والاستجابة والتدخل المتعلق بالدردشات التي تنتهك شروط الخدمة. لكن جارسيا تقاتل من أجل الدرابزين الإضافي ، بما في ذلك التغييرات التي قد تؤدي إلى فقدان الدردشة على الشخصية التي تفقد قدرتها على سرد القصص والحكايات الشخصية.

في اقتراح الإقالة ، يؤكد محامي الشخصية AI على أن النظام الأساسي محمي ضد المسؤولية بموجب التعديل الأول ، تمامًا كما هو الحال في رمز الكمبيوتر. قد لا يقنع الاقتراح القاضي ، وقد تتغير مبررات الشخصية الذكرية مع استمرار القضية. لكن الحركة ربما تلمح إلى العناصر المبكرة من الدفاع عن الذكاء الاصطناعي.

“إن التعديل الأول يحظر مسؤولية الأضرار ضد شركات وسائل الإعلام والتكنولوجيا الناشئة عن الكلام الضار المزعوم ، بما في ذلك الكلام الذي يُزعم أنه ينتج عن الانتحار” ، هذا ما يقرأ الإيداع. “الفرق الوحيد بين هذه القضية وتلك التي جاءت من قبل هو أن بعض الخطاب هنا ينطوي على الذكاء الاصطناعي. لكن سياق الخطاب التعبيري – سواء كانت محادثة مع chatbot منظمة العفو الدولية أو التفاعل مع شخصية لعبة الفيديو – لا يغير تحليل التعديل الأول. “

لتوضيح ذلك ، لا يؤكد محامي الذكاء الاصطناعي لحقوق التعديل الأول للشركة. بدلا من ذلك ، يجادل الحركة بأن الشخصية الذكاء الاصطناعي المستخدمون هل قد تنتهك حقوق التعديل الأولى إذا نجحت الدعوى ضد المنصة.

لا تتناول الاقتراح ما إذا كانت الشخصية AI قد تكون غير ضارة بموجب المادة 230 من قانون حشمة الاتصالات ، وقانون آمن آمن ، الذي يحمي وسائل التواصل الاجتماعي والمنصات الأخرى عبر الإنترنت من المسؤولية عن محتوى الطرف الثالث. لقد ضمنت مؤلفو القانون أن القسم 230 لا يحمي الناتج من AI مثل chatbots من الذكاء الاصطناعي ، لكنه أبعد ما يكون عن مسألة قانونية مستقرة.

يزعم محامي الشخصية الذكاء الاصطناعي أيضًا أن نية جارسيا الحقيقية هي “إغلاق” الذكاء الاصطناعي والتشريعات السريعة التي تنظم التقنيات مثلها. إذا كان المدعون ناجحين ، فسيكون لها “تأثير تقشعر لها الأبدان على كل من الذكاء الاصطناعي وصناعة الذكاء الاصطناعي الناشئ بأكمله ، كما يقول محامي المنصة.

“بصرف النظر عن نية المحامي المعلنة” لإغلاق “شخصية AI ، [their complaint] يبحث عن تغييرات جذرية من شأنها أن تحد ماديًا من طبيعة وحجم الكلام على المنصة. “هذه التغييرات من شأنها أن تقيد بشكل جذري قدرة الشخصية على ملايين المستخدمين من الذكاء الاصطناعي على توليد والمشاركة في المحادثات مع الشخصيات.”

الدعوى ، التي تسمي أيضًا الشخصيات المتبرعة من AI للشركات كمدعى عليه ، ليست سوى واحدة من العديد من الدعاوى القضائية التي تواجهها الذكاء الاصطناعي فيما يتعلق بكيفية تفاعل القصر مع المحتوى الذي تم إنشاؤه من الذكاء الاصطناعى على نظامه الأساسي. تدعي الدعاوى الأخرى أن الشخصية التي تعرضت لها AI البالغة من العمر 9 سنوات عن “محتوى فرط جنسياً” وترويج إيذاء الذات لمستخدم يبلغ من العمر 17 عامًا.

في ديسمبر / كانون الأول ، أعلن المدعي العام في تكساس كين باكستون أنه سيطلق تحقيقًا في شخصية الذكاء الاصطناعى و 14 شركة تقنية أخرى بسبب الانتهاكات المزعومة لقوانين الخصوصية والسلامة على الإنترنت في الولاية. وقال باكستون في بيان صحفي “هذه التحقيقات هي خطوة مهمة نحو ضمان امتثال وسائل التواصل الاجتماعي وشركات الذكاء الاصطناعي لقوانيننا المصممة لحماية الأطفال من الاستغلال والأذى”.

الشخصية الذكاء الاصطناعي هي جزء من صناعة مزدهرة لتطبيقات الرفقة الذكاء الاصطناعي – الآثار الصحية العقلية غير مدروسة إلى حد كبير. أعرب بعض الخبراء عن مخاوفهم من أن هذه التطبيقات يمكن أن تؤدي إلى تفاقم مشاعر الوحدة والقلق.

الشخصية AI ، التي تأسست في عام 2021 من قبل باحث Google AI Noam Shazeer ، والتي ورد أن Google دفعت 2.7 مليار دولار لـ “Recized Accihire” ، فقدت أنها تستمر في اتخاذ خطوات لتحسين السلامة والاعتدال. في ديسمبر / كانون الأول ، قامت الشركة بتقديم أدوات أمان جديدة ، ونموذج منفصل لمنظمة العفو الدولية للمراهقين ، ومحتوى على محتوى حساس ، وإخلاء أكثر بروزًا لإخطار المستخدمين بأن شخصيات AI ليست أشخاصًا حقيقيين.

لقد مرلت AI بالعدد من التغييرات بعد أن غادر Shazeer والمؤسس الآخر للشركة ، Daniel De Freitas ، إلى Google. استأجرت المنصة Exec السابقة على YouTube ، Erin Teague ، كرئيس للمنتجات ، ودعا Dominic Perella ، الذي كان المستشار العام لشخصية AI ، الرئيس التنفيذي المؤقت.

بدأت الشخصية AI مؤخرًا في اختبار الألعاب على الويب في محاولة لتعزيز مشاركة المستخدم والاحتفاظ به.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! اشترك هنا للحصول عليه في صندوق الوارد الخاص بك كل يوم أربعاء.


نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.

اقرأ على الموقع الرسمي


اكتشاف المزيد من اشراق العالم 24

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق العالم 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading