جوجل تعلن عن نظام الفريق الأحمر الجديد لجيل الذكاء الاصطناعي
مثل جوجل يضع مولده المحسن منظمة العفو الدولية كمدرس ومساعد وخبير توصيات، تحاول الشركة أيضًا جعل نماذجها أسوأ عدو للممثلين السيئين.
“Il est clair que l’IA aide déjà les gens”, a déclaré James Manyika, vice-président senior de la recherche, de la technologie et de la société de Google, devant le public présent à la conférence Google I/O 2024 de مقاولة. “ومع ذلك، كما هو الحال مع أي تكنولوجيا ناشئة، هناك دائمًا مخاطر، وستنشأ أسئلة جديدة مع تقدم الذكاء الاصطناعي وتطور استخداماته.”
وأعلن مانيكا بعد ذلك عن أحدث تطورات الشركة في مجال التعاون الأحمر، وهو معيار صناعي. عملية الاختبار للعثور على نقاط الضعف في الذكاء الاصطناعي التوليدي. يقوم “الفريق الأحمر المدعوم بالذكاء الاصطناعي” الجديد من Google بتدريب العديد من عملاء الذكاء الاصطناعي للتنافس مع بعضهم البعض لاكتشاف التهديدات المحتملة. ويمكن لهذه النماذج المدربة بعد ذلك أن تحدد بشكل أكثر دقة ما تسميه جوجل “الحوافز المتضاربة” والحد من النتائج المثيرة للمشاكل.
سرعة الضوء قابلة للسحق
هذه العملية هي خطة الشركة الجديدة لإنشاء ذكاء اصطناعي أكثر مسؤولية وإنسانية، ولكن يتم وصفها أيضًا كوسيلة لمعالجة المخاوف المتزايدة بشأن الأمن السيبراني والمعلومات المضللة.
وقالت جوجل إن الإجراءات الأمنية الجديدة تتضمن تعليقات من فريق من الخبراء من التكنولوجيا والأوساط الأكاديمية والمجتمع المدني، بالإضافة إلى مبادئها السبعة لتطوير الذكاء الاصطناعي: أن تكون مفيدة اجتماعيًا، وتجنب التحيز، وبناء واختبار الأمن، والمسؤولية الإنسانية، والسرية. تصميم وصيانة التميز العلمي وإمكانية الوصول العام. ومن خلال هذه الجهود الاختبارية الجديدة والالتزامات على مستوى الصناعة، تحاول Google وضع المنتج في مكانه الصحيح.