يقول Meta إنه يمكن أن يمنع تطوير أنظمة الذكاء الاصطناعى التي يراها محفوفة بالمخاطر للغاية

التزم Meta -PDG Mark Zuckerberg بصنع الذكاء الاصطناعي العام (AG) – والذي يتم تعريفه تقريبًا على أنه منظمة العفو الدولية التي يمكن أن تنجز أي مهمة يمكن للإنسان – متاحًا بشكل علني في يوم من الأيام. ولكن في وثيقة السياسة الجديدةيقترح Meta أن هناك سيناريوهات معينة قد لا يتم فيها إطلاق نظام AI المختص للغاية الذي طوره داخليًا.
تحدد الوثيقة ، التي تدعو Meta إطارها الحدودي IA ، نوعين من أنظمة الذكاء الاصطناعى التي تعتبرها الشركة محفوفة بالمخاطر للغاية: أنظمة “المخاطر العالية” و “المخاطر الحرجة”.
في حين أن META يحددها ، فإن الأنظمة “المعرضة للخطر العالي” و “في خطر حرج” قادرة على المساعدة في هجمات الأمن السيبراني والمواد الكيميائية والمنتجات البيولوجية ، والفرق هو أن أنظمة “المخاطر الحرجة” يمكن أن تؤدي إلى “نتيجة كارثية ( هذا) لا يمكن تخفيفه في (أ) سياق النشر المقترح. من ناحية أخرى ، يمكن أن تجعل الأنظمة ذات المخاطر العالية هجومًا أسهل ولكن ليس بشكل موثوق أو موثوق من نظام المخاطر الحرج.
ما نوع الهجمات التي نتحدث عنها هنا؟ يقدم Meta بعض الأمثلة ، مثل “التسوية الآلية من البداية إلى النهاية من بيئة على نطاق الشركات في أفضل الممارسات” و “انتشار الأسلحة البيولوجية ذات التأثير العالي”. تعترف قائمة الكوارث المحتملة في وثيقة META بعيدة عن شاملة ، ولكنها تتضمن تلك التي تعتقد Meta أنها “الأكثر إلحاحًا” ومعقولة تحدث بسبب نشر نظام قوي لـ IA.
وفقًا للوثيقة ، فإن الفئة الوصفية التي لا يصنفها خطر النظام في اختبار تجريبي ولكنها أبلغت بمساهمة الباحثين الداخليين والخارجيين الذين يخضعون لفحص “صانعي القرار الكبار”. لماذا؟ يقول ميتا إنه لا يعتقد أن علم التقييم “قوي بما فيه الكفاية لتوفير تدابير كمية دائمة” لاتخاذ قرار بشأن خطر النظام.
إذا قرر Meta أن النظام معرض لخطر كبير ، فإن الشركة تدعي أنها ستقتصر على الوصول إلى النظام داخليًا ولن يحرره طالما أنه ينفذ الموهبة “لخفض المخاطر إلى مستويات معتدلة”. إذا ، من ناحية أخرى ، يعتبر النظام بمثابة خطر حاسم ، يقول Meta إنه سيقوم بتنفيذ حماية أمنية غير محددة لمنع النظام من التخلص من التنمية وتوقف التطوير حتى يمكن أن يصبح النظام أقل خطورة.
يبدو أن إطار منظمة العفو الدولية للحدود الفوقية ، والتي ، وفقًا للمجتمع ، ستتطور مع تطور المشهد الذكري ، يبدو استجابة لنقد النهج “المفتوح” لتطوير النظام . اعتمدت Meta استراتيجية لجعل التكنولوجيا الخاصة بها متاحة بصراحة – على الرغم من ذلك ليس مفتوح المصدر من خلال التعريف المفهومة عادة – على عكس شركات مثل Openai التي تختار مواجهة أنظمتها وراء واجهة برمجة التطبيقات.
بالنسبة إلى Meta ، تحول نهج التحرير المفتوح إلى نعمة ولعنة. تسمى عائلة نماذج الذكاء الاصطناعي للشركة لاماوقد تراكمت مئات الملايين من التنزيلات. لكن لاما لديه أيضا سيكون تم استخدامه من قبل خصم أمريكي واحد على الأقل لتطوير chatbot الدفاع.
من خلال نشر Frontier IA Framework ، يمكن أن تهدف Meta أيضًا إلى مقارنة استراتيجية AI المفتوحة مع شركة IA الصينية Deepseek. بعمق كما يجعل أنظمتها متاحة علانية. لكن منظمة العفو الدولية للشركة لديها ضمانات قليلة ويمكن توجيهها بسهولة توليد مباريات سامة وضارة.
“(ث) يعتقد أن النظر في كل من المزايا والمخاطر في اتخاذ القرارات حول كيفية تطوير ونشر الذكاء الاصطناعى المتقدمة” ، يكتب Meta في المستند: “من الممكن توفير هذه التكنولوجيا للشركة بطريقة تحافظ على المزايا من مزايا مزايا هذه التكنولوجيا للشركة مع الحفاظ على مستوى مناسب من المخاطر. »»
Source link