تشفير

يقول المصدر إن OpenAI أنشأت فريقًا للتحكم في الذكاء الاصطناعي “الفائق الذكاء” – ثم تركته يتلاشى

OpenAI فريق المحاذاة الفائقة، المسؤولة عن تطوير طرق التحكم في أنظمة الذكاء الاصطناعي “فائقة الذكاء” وقيادتها، وقد حصلت على وعود بالحصول على 20% من موارد الحوسبة في الشركة، وفقًا لشخص في ذلك الفريق. لكن طلبات الحصول على جزء من هذا الحساب كانت تُرفض في كثير من الأحيان، مما يمنع الفريق من القيام بعمله.

تسببت هذه المشكلة وغيرها في استقالة العديد من أعضاء الفريق هذا الأسبوع، بما في ذلك القائد المشارك جان ليك، وهو باحث سابق في DeepMind ساعد في تطوير ChatGPT وGPT-4 وسابقه من ChatGPT، InstructGPT.

أعلن ليك عن بعض أسباب استقالته صباح الجمعة. “لقد اختلفت مع المديرين التنفيذيين لشركة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار،” كتب Leike في سلسلة من المقالات حول X. “أعتقد أنه يجب تخصيص المزيد من النطاق الترددي لدينا للتحضير. الأجيال القادمة من النماذج، بشأن الأمن، والمراقبة، والإعداد، والسلامة، وقوة الخصومة، والاصطفاف (الفائق)، والخصوصية، والتأثير المجتمعي والمواضيع ذات الصلة. من الصعب جدًا حل هذه القضايا، وأخشى أننا لسنا على الطريق الصحيح للقيام بذلك .

ولم ترد OpenAI على الفور على طلب للتعليق على الموارد التي وعدت بها وخصصتها لهذا الفريق.

شكلت OpenAI فريق Superalignment في يوليو الماضي، بقيادة إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI، في يوليو الماضي. الذي استقال أيضًا من الشركة هذا الأسبوع. كان هدفها الطموح هو حل التحديات التقنية الرئيسية للتحكم في الذكاء الاصطناعي الفائق على مدى السنوات الأربع المقبلة. انضم إلى الفريق علماء ومهندسون من قسم المحاذاة السابق في OpenAI بالإضافة إلى باحثين من مؤسسات أخرى داخل الشركة، وكان من المتوقع أن يساهم الفريق بأبحاث تسلط الضوء على أمان النماذج الداخلية وغير التابعة لـ OpenAI، من خلال مبادرات تشمل برنامج المنح البحثية. والتماس ومشاركة العمل مع صناعة الذكاء الاصطناعي بأكملها.

نجح فريق Superalignment في نشر مجموعة من الأبحاث الأمنية ومنح ملايين الدولارات على شكل منح لباحثين خارجيين. ولكن مع بدء إطلاق المنتجات في الحصول على حصة متزايدة من النطاق الترددي القيادي لشركة OpenAI، وجد فريق Superalignment نفسه مضطرًا إلى النضال من أجل المزيد من الاستثمارات الأولية – وهي الاستثمارات التي اعتبرها ضرورية لمهمة الشركة المعلنة المتمثلة في تطوير الذكاء الاصطناعي الفائق لصالح الجميع. . إنسانية.

وتابع لايكي: “إن بناء آلات أكثر ذكاءً من البشر هو مسعى خطير بطبيعته”. “ولكن في السنوات الأخيرة، تراجعت ثقافة السلامة وعملياتها في المرتبة الثانية أمام المنتجات اللامعة. »

كانت معركة Sutskever مع الرئيس التنفيذي لشركة OpenAI Sam Altman مصدر إلهاء إضافي كبير.

قرر Sutskever، جنبًا إلى جنب مع مجلس إدارة OpenAI السابق، إقالة Altman بشكل مفاجئ في أواخر العام الماضي بسبب مخاوف من أن Altman لم يكن “صريحًا دائمًا” مع أعضاء مجلس الإدارة. وتحت ضغط من مستثمري OpenAI، بما في ذلك مايكروسوفت والعديد من موظفي الشركة، أعيد ألتمان في النهاية إلى منصبه، واستقال معظم أعضاء مجلس الإدارة، واستقال سوتسكيفر. سيكون لم يعد إلى العمل قط.

وفقًا للمصدر، كان لـ Sutskever دورًا فعالًا في فريق Superalignment، حيث لم يساهم في البحث فحسب، بل كان بمثابة جسر للأقسام الأخرى داخل OpenAI. وسيكون بمثابة سفير من نوع ما، مع التركيز على أهمية عمل الفريق لصانعي القرار الرئيسيين في OpenAI.

بعد رحيل Leike وSutskever، تم تعيين جون شولمان، وهو مؤسس مشارك آخر لـ OpenAI، لقيادة نوع العمل الذي يقوم به فريق Superalignment، ولكن لن يكون هناك فريق متخصص بعد الآن – بل سيكون هناك فريقًا فضفاضًا الفريق المرتبط. مجموعة من الباحثين المدمجين في أقسام الشركة. ووصف متحدث باسم OpenAI ذلك بأنه “تكامل أعمق (للفريق).”

والخوف هو أنه نتيجة لذلك، فإن تطوير الذكاء الاصطناعي في OpenAI قد لا يركز على الأمن كما كان من الممكن أن يكون.


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى