تقنية

رد فعل سام ألتمان وجريج بروكمان من OpenAI على استقالة رئيس الأمن


هذا الأسبوع، OpenAIوقد استقال جان لايكي، الرئيس المشارك لفريق Superalignment (الذي يشرف على القضايا الأمنية للشركة). في موضوع مناقشة على X (Twitter سابقًا)، تم العثور على وأوضح القائد الأمني ​​سبب تركه لـ OpenAIبما في ذلك انه على خلاف مع إدارة الشركة على “أولوياته الأساسية” لفترة من الوقت، حتى وصل إلى “نقطة الانهيار”.

في اليوم التالي، رد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، وجريج بروكمان، الرئيس والمؤسس المشارك، على ادعاءات Leike بأن الشركة لم تركز على الأمن.

ومن بين نقاط أخرى، قال ليك إن “الثقافة والعمليات الأمنية في OpenAI قد تراجعت عن المنتجات اللامعة” في السنوات الأخيرة، وأن فريقه كان يكافح من أجل الحصول على الموارد التي يحتاجها للقيام بعمله الأمني.

وكتب لايكي: “لقد حان الوقت لأن نأخذ آثار AGI (الذكاء العام الاصطناعي) على محمل الجد”. “نحن بحاجة إلى إعطاء الأولوية لإعدادهم بأفضل ما نستطيع.”

أجاب ألتمان أولا في إعادة نشر من Leike يوم الجمعة، ذكر أن Leike على حق في أن OpenAI “لديها الكثير لتفعله” وأنها “ملتزمة بالقيام بذلك”. ووعد بمقالة أطول قادمة.

في يوم السبت، نشر بروكمان ردًا شاركه هو وألتمان على X:

وبعد الإعراب عن الامتنان لعمل لايكي، قال بروكمان وألتمان إنهما تلقيا أسئلة بعد الاستقالة. وقد تقاسموا ثلاث نقاط، الأولى هي أن OpenAI قامت برفع مستوى الوعي حول الذكاء الاصطناعي العام “حتى يتمكن العالم من الاستعداد له بشكل أفضل”.

سرعة الضوء قابلة للسحق

“لقد أظهرنا مرارًا وتكرارًا الإمكانيات المذهلة التي يوفرها توسيع نطاق التعلم العميق وحللنا آثارها؛ ودعونا إلى الحوكمة الدولية للذكاء الاصطناعي العام قبل أن تحظى هذه الدعوات بشعبية؛ وساعدنا في القيام بعمل رائد في علم تقييم أنظمة الذكاء الاصطناعي للكشف عن المخاطر الكارثية. “كتبوا.

النقطة الثانية هي أنهم يضعون الأساس للنشر الآمن لهذه التقنيات ويستخدمون العمل الذي قام به الموظفون “لجلب (Chat) GPT-4 إلى العالم بأمان” كمثال. وكلاهما يدعي أنه منذ ذلك الحين … أصدرت OpenAI ChatGPT-4 اعتبارًا من مارس 2023، قامت الشركة “بتحسين مراقبة السلوك النموذجي وإساءة الاستخدام باستمرار استجابةً للدروس المستفادة من النشر”.

النقطة الثالثة؟ وكتبوا: “المستقبل سيكون أصعب من الماضي”. وأوضح بروك وألتمان أن OpenAI يجب أن تستمر في رفع مستوى عملها الأمني ​​أثناء إطلاقها لنماذج جديدة، واستشهدا بتوصيات الشركة. إطار التحضير كوسيلة للمساعدة في تحقيق ذلك. وبحسب صفحته على موقع OpenAI، يتنبأ هذا الإطار بـ “المخاطر الكارثية” التي قد تنشأ ويسعى إلى التخفيف منها.

ثم يناقش بروكمان وألتمان المستقبل، حيث ستكون نماذج OpenAI أكثر اندماجًا في العالم وسيتفاعل معها المزيد من الأشخاص. إنهم يعتبرون هذا أمرًا مفيدًا ويعتقدون أنه من الممكن القيام بذلك بأمان – “لكن الأمر سيتطلب قدرًا كبيرًا من العمل الأساسي”. لهذا السبب، قد تقوم الشركة بتأخير أوقات الإصدار حتى تصل النماذج إلى شريط الأمان.

وقالوا: “نعلم أننا لا نستطيع تصور كل السيناريوهات المستقبلية المحتملة”. “لذلك نحن بحاجة إلى حلقة ردود فعل ضيقة للغاية، واختبارات صارمة، ودراسة متأنية في كل خطوة، وأمن على مستوى عالمي، وانسجام بين الأمن والقدرات.”

وقال المسؤولون التنفيذيون إن OpenAI ستواصل البحث والعمل مع الحكومات وأصحاب المصلحة بشأن الأمن.

وخلصوا إلى أنه “لا يوجد دليل مثبت حول كيفية التعامل مع الذكاء الاصطناعي العام. ونحن نعتقد أن الفهم التجريبي يمكن أن يساعد في إلقاء الضوء على الطريق إلى الأمام”. “نحن نؤمن بأهمية تحقيق الفوائد الهائلة والعمل على التخفيف من المخاطر الجسيمة؛ ونحن نأخذ دورنا هنا على محمل الجد ونقوم بتقييم ردود الفعل على أفعالنا بعناية.”

تتفاقم استقالة ليك وتعليقاته بسبب حقيقة ذلك إيليا سوتسكيفر، كبير العلماء في OpenAI كما استقال هذا الأسبوع. “#WhatDidIlyaSee” أصبح موضوعًا شائعًا على X، مما يشير إلى تكهنات حول ما يعرفه كبار المسؤولين التنفيذيين في OpenAI. اذا حكمنا من خلال سلبي رد فعل الى اليوم إفادة بواسطة بروكمان وألتمان، فإنه لم يبدد أيًا من هذه التكهنات.

اعتبارًا من الآن، تمضي الشركة قدمًا في إصدارها التالي: ChatGPT-4oمساعد صوت.

المواضيع
ذكاء إصطناعي
OpenAI




Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى