يقوم Google DeepMind بإنشاء مؤسسة جديدة تركز على أمان الذكاء الاصطناعي
إذا سألت تَوأَمنموذج GenAI الرائد من Google، لـ كتابة محتوى مضلل حول الانتخابات الرئاسية الأمريكية المقبلة، سيتم ذلك، إذا تلقيت المطالبة الصحيحة. اسأل عن لعبة Super Bowl المستقبلية وستكون كذلك يخترع اللعب عن طريق اللعب. أو اسأل عن تيتان الانفجار الغاطس و سيكون بمثابة معلومات مضللةكاملة مع اقتباسات مقنعة ولكن كاذبة.
وغني عن القول أن هذه صورة سيئة بالنسبة لجوجل ــ وهي تثير غضب صناع السياسات الذين فعلوا ذلك بالفعل وأعربوا عن استيائهم في السهولة التي يمكن استغلال أدوات GenAI للتضليل والتضليل بشكل عام.
لذلك رد جوجل… الآلاف ل وظائف ولاعة مما كان عليه في الربع المالي الماضي – يتم توجيه الاستثمارات نحو أمن الذكاء الاصطناعي. على الأقل هذه هي القصة الرسمية.
هذا الصباح، جوجل ديب مايندأعلن قسم البحث والتطوير في مجال الذكاء الاصطناعي وراء Gemini والعديد من مشاريع GenAI الأحدث من Google، عن إنشاء منظمة جديدة، AI Safety and Alignment، تتألف من فرق حالية تعمل على سلامة الذكاء الاصطناعي، ولكنها توسعت أيضًا لتشمل مجموعات متخصصة جديدة من GenAI الباحثين. والمهندسين.
وَرَاءَ وظيفة إعلان على موقع DeepMind الإلكتروني، لم تحدد Google عدد الموظفين الذين سينتجون عن إنشاء المنظمة الجديدة. لكنه كشف أن محاذاة الأمن والذكاء الاصطناعي ستشمل فريقًا جديدًا يركز على الأمن حول الذكاء العام الاصطناعي (AGI)، أو الأنظمة الافتراضية القادرة على أداء أي مهمة يمكن للإنسان تحقيقها.
مهمة مشابهة لمهمة OpenAI المنافسة في قسم Superalignment. شكل في يوليو/تموز من هذا العام، سيعمل الفريق الجديد ضمن AI Safety and Alignment جنبًا إلى جنب مع فريق البحث الحالي الذي يركز على سلامة الذكاء الاصطناعي التابع لشركة DeepMind في لندن، Scalable Alignment – والذي يستكشف أيضًا حلولاً للتحدي التقني المتمثل في التحكم في الذكاء الاصطناعي الفائق الذي لم يتم تحقيقه بعد.
لماذا تعمل مجموعتان على نفس المشكلة؟ سؤال وجيه – وهو سؤال يدعو إلى التكهنات نظراً لإحجام Google عن الكشف عن العديد من التفاصيل في هذه المرحلة. ولكن يبدو من اللافت للنظر أن الفريق الجديد – الفريق المعني بسلامة ومواءمة الذكاء الاصطناعي – موجود في الولايات المتحدة وليس عبر المحيط الأطلسي، بالقرب من مقر جوجل في وقت تتحرك فيه الشركة بقوة لمواكبة منافسيها في مجال الذكاء الاصطناعي. أثناء محاولته إبراز نهج مسؤول. ، النهج المقاس للذكاء الاصطناعي.
تتولى الفرق الأخرى في منظمة AI Safety and Alignment مسؤولية تطوير ودمج وسائل الحماية الواقعية في نماذج Gemini الحالية والمتطورة من Google. الأمن واسع النطاق. لكن بعض أولويات المنظمة على المدى القصير ستكون تجنب النصائح الطبية السيئة، والحفاظ على سلامة الأطفال، و”منع تضخيم التحيز وغيره من أشكال الظلم”.
ستقود الفريق أنكا دراجان، عالمة أبحاث سابقة في فريق Waymo وأستاذة علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي.
قال دراجان لـ TechCrunch عبر البريد الإلكتروني: “يهدف عملنا (في منظمة AI Safety and Alignment) إلى تمكين النماذج من فهم التفضيلات والقيم البشرية بشكل أفضل، ومعرفة ما لا يعرفونه، والعمل مع الناس لفهمه”. ” تلبية احتياجاتهم والحصول على مراقبة مستنيرة، وتكون أكثر قوة ضد هجمات الخصم وتأخذ في الاعتبار التعددية والطبيعة الديناميكية للقيم الإنسانية ووجهات النظر.
قد تثير الأعمال الاستشارية التي أجراها دراغان مع شركة Waymo بشأن أنظمة السلامة بالذكاء الاصطناعي الدهشة، نظرًا لمشروع السيارات ذاتية القيادة الذي أطلقته شركة Google. سجل القيادة الصعب في الآونة الأخيرة.
وكذلك قرارها بتقسيم وقتها بين DeepMind وجامعة كاليفورنيا في بيركلي، حيث تدير مختبرًا يركز على خوارزميات التفاعل بين الإنسان والذكاء الاصطناعي والروبوت. يمكن للمرء أن يفترض أن قضايا خطيرة مثل أمن الذكاء الاصطناعي العام – والمخاطر طويلة المدى التي تنوي منظمة سلامة الذكاء الاصطناعي والمواءمة دراستها، بما في ذلك منع الذكاء الاصطناعي من “المساهمة في الإرهاب” و”زعزعة استقرار المجتمع” – تتطلب التفرغ الكامل. انتباه المخرج.
ومع ذلك، يصر دراغان على أن الأبحاث التي أجراها مختبره في جامعة كاليفورنيا في بيركلي وديب مايند هي أبحاث مترابطة ومتكاملة.
“لقد عملت أنا ومختبري على… مواءمة القيمة تحسبًا للتقدم في قدرات الذكاء الاصطناعي، (و) على درجة الدكتوراه الخاصة بي. وقالت: “لقد كانت الروبوتات هي التي تستنتج الأهداف البشرية وكانت شفافة بشأن أهدافها تجاه البشر، ومن هنا بدأ اهتمامي بهذا المجال”. “أعتقد أن السبب الذي جعل (الرئيس التنفيذي لشركة DeepMind) ديميس هاسابيس و(كبير العلماء في AGI) شين ليغ متحمسين لتوظيفي كان جزئيًا هو الخبرة البحثية وجزئيًا موقفي بأن حل المخاوف الحالية والمخاطر الكارثية لا يستبعد أحدهما الآخر – وذلك على المستوى الفني. على المستوى، غالبًا ما تندمج عمليات التخفيف وتعمل على تحسين الحاضر على المدى الطويل، والعكس صحيح.
إن القول بأن دراغان قد قطع عمله بالنسبة له هو بخس.
وصلت الشكوك تجاه أدوات GenAI إلى مستوى غير مسبوق، خاصة عندما يتعلق الأمر بالتزييف العميق والمعلومات المضللة. في إستفتاء الرآي العام وفقًا لـ YouGov، يقول 85% من الأمريكيين إنهم قلقون للغاية أو إلى حد ما بشأن انتشار مقاطع الفيديو والصوت المضللة. منفصل تحقيق وجدت دراسة من مركز Associated Press-NORC لأبحاث الشؤون العامة أن ما يقرب من 60% من البالغين يعتقدون أن أدوات الذكاء الاصطناعي ستزيد من حجم المعلومات الكاذبة والمضللة خلال الدورة الانتخابية الأمريكية لعام 2024.
والشركات أيضاً ــ وهي السمكة الكبيرة التي تأمل شركة جوجل ومنافسوها في اجتذابها من خلال ابتكارات GenAI ــ تشعر بالقلق إزاء أوجه القصور في التكنولوجيا والآثار المترتبة عليها.
أجرت Cnvrg.io، وهي إحدى الشركات التابعة لشركة Intel، مؤخرًا تجربة تحقيق للشركات التي تقوم بتجريب أو نشر تطبيقات GenAI. وجدت الدراسة أن حوالي ربع المشاركين لديهم تحفظات بشأن امتثال GenAI وخصوصيته وموثوقيته وارتفاع تكلفة التنفيذ ونقص المهارات التقنية اللازمة لاستخدام الأدوات بشكل كامل.
في منفصلة إستفتاء الرآي العام وفقاً لـ Riskonnect، مزود برامج إدارة المخاطر، قال أكثر من نصف المديرين التنفيذيين إنهم قلقون بشأن اتخاذ الموظفين قرارات بناءً على معلومات غير دقيقة من تطبيقات GenAI.
وهذه المخاوف ليست غير مبررة. الاسبوع الماضي لصحيفة وول ستريت جورنال ذكرت أن مايكروسوفت مساعد طيار غالبًا ما ترتكب المجموعة، المدعومة بنماذج GenAI المشابهة معماريًا لـ Gemini، أخطاء في ملخصات الاجتماعات وصيغ جداول البيانات. اللوم هو هلوسة – المصطلح الشامل لاتجاهات تصنيع GenAI – ويعتقد العديد من الخبراء أن هذه المشكلة لا يمكن حلها بالكامل أبدًا.
واعترافًا بمدى صعوبة التحدي الأمني للذكاء الاصطناعي، لا يَعِد دراجان بنموذج مثالي – فقط يقول إن DeepMind تعتزم استثمار المزيد من الموارد في هذا المجال في المستقبل والالتزام “قريبًا” ضمن إطار تقييم المخاطر الأمنية لنموذج GenAI.
“أعتقد أن المفتاح هو… (أن نأخذ في الاعتبار) التحيزات المعرفية البشرية المتبقية في البيانات التي نستخدمها لتشكيل التقديرات الجيدة لعدم اليقين لمعرفة أين توجد الفجوات، وإضافة مراقبة الوقت. والاستدلال الذي يمكنه اكتشاف حالات الفشل وحوارات التأكيد للقرارات الناتجة ومتابعتها. حيث (أ) تتمثل قدرات النموذج في الانخراط في سلوك يحتمل أن يكون خطيرًا. “لكن هذا لا يزال يترك مشكلة مفتوحة تتمثل في كيفية التأكد من أن النموذج لن يسيء التصرف في جزء صغير من الوقت، وهو أمر يصعب العثور عليه تجريبيًا، ولكنه قد يصبح واضحًا في وقت النشر”.
لست مقتنعًا بأن العملاء والجمهور والمنظمين سيكونون متفهمين بنفس القدر. أعتقد أن الأمر سيعتمد على مدى خطورة هذه السلوكيات السيئة، وعلى من يعاني منها على وجه التحديد.
وقال دراغان: “نأمل أن يستفيد مستخدمونا من نموذج مفيد وآمن بشكل متزايد بمرور الوقت”. في الواقع.
Source link