تقنية

يدعو المسؤولون التنفيذيون السابقون في OpenAI إلى مزيد من التنظيم، ويسلطون الضوء على القيادة السامة


عتيق OpenAI يدعو أعضاء مجلس الإدارة إلى تنظيم حكومي أكبر للشركة، حيث تتعرض قيادة الرئيس التنفيذي سام ألتمان لانتقادات.

هيلين تونر وتاشا مكولي – اثنان من الموظفين السابقين الذين شكلوا من الشخصيات ان أطيح بألتمان في نوفمبر – الادعاء بأن قرارهم بإقالة القائد و”إنقاذ” الهيكل التنظيمي لـ OpenAI كان مدفوعًا “بأنماط السلوك طويلة الأمد التي أظهرها السيد ألتمان”، والتي “قوضت الرقابة من قبل مجلس إدارة” القرارات الرئيسية وبروتوكولات الأمن الداخلي “. .

اكتب في افتتاحية نشرتها الإيكونوميست في 26 مايو، أكد تونر وماكولي أن سلوك ألتمان، جنبًا إلى جنب مع الاعتماد على الحكم الذاتي، يعد بمثابة وصفة لكارثة الذكاء الاصطناعي العام.

في حين يقول كلا الرجلين إنهما انضما إلى الشركة “بتفاؤل حذر” بشأن مستقبل OpenAI، مدعومين بدوافع الشركة التي تبدو غير ربحية في ذلك الوقت كونها غير ربحية على وجه الحصر، فقد شكك كلاهما منذ ذلك الحين في تصرفات ألتمان والشركة. يكتبون: “أعرب العديد من كبار المسؤولين التنفيذيين بشكل خاص عن مخاوف جدية لمجلس الإدارة، قائلين إنهم يعتقدون أن السيد ألتمان كان يزرع” ثقافة الكذب السامة “وينخرط في” السلوك (الذي) يمكن وصفه بأنه عنف نفسي”.

“إن التطورات التي حدثت منذ عودته إلى الشركة – بما في ذلك إعادته إلى مجلس الإدارة ورحيل كبار المواهب التي تركز على الأمن – لا تبشر بالخير بالنسبة لتجربة الحكم الذاتي لشركة OpenAI”، كما يتابعون. “وحتى مع وجود أفضل النوايا، ومن دون إشراف خارجي، فإن هذا النوع من التنظيم الذاتي سوف يصبح في نهاية المطاف غير قابل للتطبيق، وخاصة تحت ضغط حوافز الربح الهائلة. ويتعين على الحكومات أن تلعب دوراً نشطاً”.

إذا نظرنا إلى الوراء، كتب تونر وماكولي: “إذا كان بإمكان الشركة أن تحكم نفسها بينما تقوم بتطوير أنظمة الذكاء الاصطناعي المتقدمة بشكل آمن وأخلاقي، لكان من الممكن أن تفعل ذلك”. OpenAI“.

سرعة الضوء قابلة للسحق

يعارض أعضاء مجلس الإدارة السابقون الدفع الحالي للإبلاغ الذاتي والحد الأدنى نسبيًا من التنظيم الخارجي لشركات الذكاء الاصطناعي في ظل ركود القوانين الفيدرالية. وفي الخارج، وجدت فرق عمل الذكاء الاصطناعي خطأً بالفعل في الاعتماد على عمالقة التكنولوجيا لقيادة الجهود الأمنية. وفي الأسبوع الماضي، نشر الاتحاد الأوروبي أ تحذير بقيمة مليار دولار لمايكروسوفت بعد الفشل في الكشف عن المخاطر المحتملة لبرنامج CoPilot وImage Creator القائمين على الذكاء الاصطناعي. وجد تقرير حديث صادر عن معهد سلامة الذكاء الاصطناعي في المملكة المتحدة أن إجراءات الحماية للعديد من أكبر نماذج اللغات العامة الموسعة (LLMs) يمكن كسرها بسهولة عن طريق المطالبات الضارة.

في الأسابيع الأخيرة، كانت OpenAI في مركز المناقشات حول تنظيم الذكاء الاصطناعي بعد سلسلة من الاستقالات رفيعة المستوى من الموظفين رفيعي المستوى الذين أشاروا إلى وجهات نظر متباينة حول مستقبلها. بعد أن ترك المؤسس المشارك ورئيس فريق التنسيق الفائق إيليا سوتسكيفر والقائد المشارك جان لايكي الشركة، قامت OpenAI بحل فريق الأمن الداخلي الخاص بها.

قال Leike إنه يشعر بالقلق بشأن مستقبل OpenAI لأن “الثقافة والعمليات الأمنية أخذت المقعد الخلفي أمام المنتجات اللامعة”.

تعرض ألتمان لانتقادات بسبب عمل تم الكشف عنه آنذاك سياسة النزول وهذا يتطلب من الموظفين المغادرين التوقيع على اتفاقيات عدم الإفصاح التي تمنعهم من قول أي شيء سلبي حول OpenAI أو المخاطرة بخسارة أي أسهم لديهم في الشركة.

بعد فترة وجيزة، ألتمان والرئيس والمؤسس المشارك جريج بروكمان رد على الجدلالكتابة عن X: “المستقبل سيكون أصعب من الماضي. يجب أن نستمر في رفع مستوى عملنا الأمني ​​لمواجهة تحديات كل نموذج جديد… كما نواصل التعاون مع الحكومات والعديد من أصحاب المصلحة في مجال الأمن. لا يوجد دليل مثبت حول كيفية التعامل مع الذكاء الاصطناعي العام (AGI). »

في نظر العديد من موظفي شركة OpenAI السابقين، فإن فلسفة “اللمسة الخفيفة” التاريخية لتنظيم الإنترنت لن تكون كافية.

المواضيع
ذكاء إصطناعي
OpenAI




Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى