أطلق إيليا سوتسكيفر، أحد مؤسسي OpenAI، شركة جديدة، Safe Superintelligence Inc. (SSI)، بعد شهر واحد فقط من ترك OpenAI.
Sutskever، الذي شغل منصب كبير العلماء في OpenAI لفترة طويلة، أسس SSI مع شريك YC السابق دانييل جروس ومهندس OpenAI السابق دانييل ليفي.
في OpenAI، كان Sutskever جزءًا لا يتجزأ من جهود الشركة لتحسين أمان الذكاء الاصطناعي مع ظهور أنظمة الذكاء الاصطناعي “فائقة الذكاء”، وهو المجال الذي عمل فيه جنبًا إلى جنب مع جان لايكي. ومع ذلك كلاهما سوتسكيفير و بعد لايك غادر الشركة بشكل كبير في شهر مايو بعد الخلاف مع إدارة OpenAI حول كيفية التعامل مع أمن الذكاء الاصطناعي. يقود Leike الآن فريقًا في Anthropic.
لطالما كان Sutskever مهتمًا بالجوانب الشائكة لأمن الذكاء الاصطناعي. في مشاركة مدونة نُشر في عام 2023، وتوقع (يكتب مع لايكي) أن الذكاء الاصطناعي الذي يتمتع بذكاء أكبر من ذكاء البشر يمكن أن يصل في غضون عقد من الزمن – وعندما يحدث ذلك، فلن يكون بالضرورة خيرًا، مما يتطلب البحث عن طرق للسيطرة عليه وتقييده.
“SSI هي مهمتنا، واسمنا، وخارطة طريق منتجاتنا بأكملها، لأنها هدفنا الوحيد. إن فريقنا ومستثمرينا ونموذج أعمالنا جميعهم متوافقون لتحقيق مباحث أمن الدولة. نحن نتعامل مع الأمن والقدرات جنبًا إلى جنب، حيث يتم حل المشكلات التقنية من خلال الهندسة الثورية والإنجازات العلمية.
“نحن نخطط لتعزيز قدراتنا في أسرع وقت ممكن مع ضمان بقاء أمننا دائمًا في المقدمة. بهذه الطريقة يمكننا المضي قدمًا براحة البال الكاملة. إن تركيزنا المنفرد يعني عدم وجود أي عوامل تشتيت الانتباه عن النفقات الإدارية العامة أو دورات المنتج، ويعني نموذج أعمالنا أن السلامة والأمن والتقدم كلها محصنة ضد ضغوط الأعمال على المدى القصير.
لدى SSI مكاتب في بالو ألتو وتل أبيب، حيث تقوم حاليًا بتوظيف المواهب التقنية.