تشفير

تتخذ الأنثروبيك خطوات لمنع المعلومات الخاطئة عن الانتخابات

عشية الانتخابات الرئاسية الأمريكية لعام 2024، أنثروبيك، ممولة بشكل جيد تقوم شركة الذكاء الاصطناعي الناشئة باختبار التكنولوجيا لاكتشاف متى يطرح مستخدمو برنامج الدردشة GenAI الخاص بها أسئلة حول مواضيع سياسية ويعيدون توجيه هؤلاء المستخدمين إلى مصادر “موثوقة” لمعلومات التصويت.

التكنولوجيا التي تسمى Prompt Shield، والتي تعتمد على مجموعة من نماذج وقواعد اكتشاف الذكاء الاصطناعي، تعرض نافذة منبثقة إذا كان المستخدم مقيمًا في الولايات المتحدة كلود، chatbot الخاص بـ Anthropic، يطلب معلومات حول التصويت. تعرض النافذة المنبثقة إعادة توجيه المستخدم إلى TurboVote، وهو مورد من منظمة Democracy Works غير الحزبية، حيث يمكنهم العثور على معلومات تصويت محدثة ودقيقة.

تقول أنثروبيك أن الدرع الفوري كان ضروريًا بسبب عيوب كلود في المعلومات السياسية والانتخابية. لم يتم تدريب كلود بشكل متكرر بما يكفي لتقديم معلومات في الوقت الفعلي حول انتخابات محددة، كما تعترف الأنثروبيك، ولذلك فهو عرضة للخطأ. العصف الذهني – أي اختلاق الحقائق – حول هذه الانتخابات.

قال متحدث باسم TechCrunch عبر البريد الإلكتروني: “لقد وضعنا “درعًا سريعًا” منذ أن أطلقنا Claude – فهو يشير إلى عدد من أنواع الضرر المختلفة، بناءً على سياسة الاستخدام المقبولة لدينا”. “سنطلق استجابة Rapid Shield الخاصة بالانتخابات في الأسابيع المقبلة ونعتزم مراقبة استخدامها والقيود … لقد تحدثنا إلى مجموعة متنوعة من أصحاب المصلحة، بما في ذلك صناع السياسات والشركات الأخرى والوكالات المجتمعية المدنية وغير الحكومية والهيئات المعنية بالانتخابات. ممثلين. الاستشاريين (في تطوير هذا).

ويبدو أن هذا اختبار محدود في هذا الوقت. لم يقدم كلود النافذة المنبثقة عندما سألته عن كيفية التصويت في الانتخابات المقبلة، ولكن بدلاً من ذلك قام بإخراج دليل تصويت عام. تقول Anthropic إنها تقوم بتعديل Prompt Shield بينما تستعد لطرحه لمزيد من المستخدمين.

تعد Anthropic، التي تحظر استخدام أدواتها في الحملات السياسية وممارسة الضغط، أحدث بائع GenAI لتنفيذ السياسات والتقنيات لمحاولة منع التدخل في الانتخابات.

التوقيت ليس من قبيل الصدفة. هذا العام، على مستوى العالم، سيذهب عدد أكبر من الناخبين إلى صناديق الاقتراع أكثر من أي وقت مضى في التاريخ، حيث من المتوقع أن تجري انتخابات وطنية في 64 دولة على الأقل تمثل مجتمعة ما يقرب من 49٪ من سكان العالم.

في شهر يناير، أعلنت شركة OpenAI أنها ستمنع الأشخاص من استخدام ChatGPT، برنامج الدردشة الآلي الفيروسي الذي يعمل بالذكاء الاصطناعي، لإنشاء روبوتات تنتحل شخصية المرشحين الحقيقيين أو الحكومات، أو تحريف كيفية عمل التصويت، أو تثبيط الناس عن التصويت. مثل Anthropic، لا تسمح OpenAI حاليًا للمستخدمين بإنشاء تطبيقات باستخدام أدواتها لأغراض الحملات السياسية أو الضغط – وهي سياسة كررتها الشركة الشهر الماضي.

في نهج تقني مشابه لـ Prompt Shield، تستخدم OpenAI أيضًا أنظمة الكشف لتوجيه مستخدمي ChatGPT الذين يطرحون أسئلة لوجستية حول التصويت لموقع ويب غير حزبي، CanIVote.org، الذي تديره رابطة وزراء الخارجية الوطنيين.

وفي الولايات المتحدة، لم يصدر الكونجرس بعد تشريعًا لتنظيم الدور السياسي لصناعة الذكاء الاصطناعي، على الرغم من بعض الدعم من الحزبين. وفي الوقت نفسه، أقرت أكثر من ثلث الولايات الأمريكية أو قدمت مشاريع قوانين لمكافحة التزييف العميق في الحملات السياسية بينما تعثر التشريع الفيدرالي.

وبدلا من التشريع، تتخذ بعض المنصات ــ تحت ضغط من الهيئات الرقابية والهيئات التنظيمية ــ خطوات لمنع إساءة استخدام GenAI لتضليل الناخبين أو التلاعب بهم.

جوجل قال في سبتمبر/أيلول الماضي، طلبت الشركة أن تكون الإعلانات السياسية التي تستخدم GenAI على موقع YouTube ومنصاته الأخرى، مثل بحث Google، مصحوبة بإفصاح بارز إذا تم تعديل الصور أو الأصوات بشكل صناعي. كما حظرت Meta أيضًا الحملات السياسية من استخدام أدوات GenAI – بما في ذلك الأدوات الخاصة بها – للإعلان على ممتلكاتها.


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى