استقال أحد مديري الأمن في OpenAI يوم الثلاثاء. لقد شرح فقط السبب.
OpenAI شرق عادة ليس كل ذلك يفتح. تظهر منتجات الذكاء الاصطناعي المبهرة والمتطورة دون سابق إنذار، مما يولد قدرًا متساويًا من الإثارة والقلق (مع وجود العديد من هذه المنتجات). ازدراء). ولكن كما هو الحال مع تطوير منتجاتها، فإن الثقافة الداخلية للشركة مبهمة على نحو غير عادي، مما يجعل الأمر أكثر إثارة للقلق أن جان ليك، القائد المشارك المنتهية ولايته لفريق “superalignment” – وهو الموقف الذي يهمل المخاوف الأمنية لـ OpenAI – تحدث للتو ضد الشركة.
ربما تم حذف التغريدة
شيء من هذا القبيل كان متوقعًا جزئيًا من قبل أولئك الذين يراقبون OpenAI عن كثب. كما استقال كبير العلماء السابق في الشركة، إيليا سوتسكيفر، بشكل مفاجئ يوم الثلاثاء، وأصبح “#WhatDidIlyaSee” وسمًا رائجًا. مرة أخرى. الصياغة المتعجرفة للهاشتاج – نشأت في مارس، عندما سوتسكيفر شارك في مكائد الشركة أدى هذا إلى طرد الرئيس التنفيذي سام ألتمان لفترة وجيزة – مما جعل الأمر يبدو وكأن Sutskever قد ألمح العالم من خلال زجاج الذكاء الاصطناعي ثم هرب وهو يصرخ.
وفي سلسلة من المنشورات على موقع X (تويتر سابقًا) يوم الجمعة، أعطى Leike للجمهور بعض الأدلة حول سبب مغادرته.
وادعى أنه كان “على خلاف مع قيادة OpenAI بشأن الأولويات الأساسية للشركة لبعض الوقت” وقد وصل إلى “نقطة الانهيار”. ويعتقد أن الشركة يجب أن تركز أكثر على “الأمن، والمراقبة، والاستعداد، والسلامة، وقوة الخصم، والتوافق (الفائق)، والخصوصية، والتأثير المجتمعي والمواضيع ذات الصلة”.
سرعة الضوء قابلة للسحق
ربما تم حذف التغريدة
وقال لايكي: “من الصعب للغاية حل هذه المشاكل، وأخشى أننا لسنا على المسار الصحيح للوصول إلى هناك”، مشيراً إلى أنه شعر وكأنه وفريقه “يبحرون ضد الريح” عندما كانوا يحاولون تأمين الموارد التي يحتاجون إليها. اللازمة للقيام بعملهم الأمني.
ربما تم حذف التغريدة
ويبدو أن ليك يرى أن OpenAI تتحمل مسؤولية هائلة، حيث كتب: “إن بناء آلات أكثر ذكاءً من البشر هو مسعى خطير بطبيعته. » من المحتمل أن يجعل هذا الأمر أكثر إثارة للخوف لأنه، وفقًا لما قاله ليك، “على مدى السنوات القليلة الماضية، كانت للثقافة والعمليات الأمنية الأسبقية على المنتجات اللامعة.”
من الواضح أن Leike يأخذ على محمل الجد السرد الداخلي للشركة حول السعي وراء الذكاء العام الاصطناعي، المعروف أيضًا باسم AGI، وهي الأنظمة التي تعالج المعلومات حقًا مثل البشر، بما يتجاوز القدرات الضيقة لنوع LLM. وكتب لايكي: “لقد حان الوقت لأن نأخذ آثار الذكاء الاصطناعي العام على محمل الجد”. “يجب أن نعطي الأولوية لإعدادهم بأفضل ما نستطيع. وعندها فقط يمكننا ضمان أن الذكاء الاصطناعي العام يفيد البشرية جمعاء.”
وفقًا لـ Leike، يجب أن تصبح OpenAI “شركة AGI تركز على الأمن” وحث موظفيه المتبقين على “التصرف بالجدية المناسبة لما تقوم ببنائه”.
إن هذا الرحيل، ناهيك عن هذه التعليقات، لن يؤدي إلا إلى تأجيج الوضع المنتشر بالفعل. تخوف عام حول التزام OpenAI، أو عدمه، بأمن الذكاء الاصطناعي. ومع ذلك، أشار نقاد آخرون إلى أن الترويج للخوف حول القوة الهائلة المفترضة للذكاء الاصطناعي. يعمل أيضًا كنوع من برامج التسويق الخلفي لهذه التكنولوجيا التي لا تزال غير مثبتة إلى حد كبير.
المواضيع
ذكاء إصطناعي