دافع سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بقوة عن أمن تقنية الذكاء الاصطناعي الخاصة بالشركة وسط مخاوف متزايدة بشأن المخاطر المحتملة ونقص الضمانات الكافية لأنظمة الذكاء الاصطناعي مثل ChatGPT. تم إلقاء تصريحات ألتمان في حدث لشركة مايكروسوفت في سياتل، بالتزامن مع الجدل الجديد الدائر حول صوت OpenAI AI الذي يشبه إلى حد كبير صوت الممثلة سكارليت جوهانسون.
الرئيس التنفيذي، الذي صعد إلى الصدارة العالمية بعد أن أطلقت OpenAI ChatGPT في عام 2022، يجد نفسه يتصارع مع المطالب المتعلقة بأمن الذكاء الاصطناعي للشركة بعد أن تم تكليف الفريق بإدارة المخاطر المرتبطة بالذكاء الاصطناعي على المدى الطويل.
تصدر سكارليت جوهانسون بيانًا على OpenAI تنسخ فيه صوتها لـ ChatGPT
• حاولت سام ألتمان تعيينها لأداء الصوت في سبتمبر الماضي – لكنها رفضت
• شعرت “بالصدمة” و”الغضب” لأنهما استخدما صوتًا مشابهًا لصوتها
• اضطررت إلى توكيل محامين، مما أدى إلى ظهور الصوت… pic.twitter.com/tsgOksDosN
– اشتهي الثقافة 🍿 (@CultureCrave) 20 مايو 2024
اقرأ أيضا : يجب أن يكون “Meta Quest 3 Lite” الجديد قيد التنفيذ. كل ما نعرفه
وأكد ألتمان للمطورين في هذا الحدث أن OpenAI استثمرت جهدًا كبيرًا لضمان أمان نماذجها. وشجع المطورين على عدم تأخير مشاريعهم، مسلطًا الضوء على الوقت المناسب حاليًا للاستفادة من تكنولوجيا الذكاء الاصطناعي.
توفر OpenAI، المتعاون الوثيق مع Microsoft، التكنولوجيا الأساسية، بما في ذلك نموذج اللغة الكبير GPT-4، لتطوير أدوات الذكاء الاصطناعي. أكد ألتمان على متانة GPT-4 وأمنه النسبي لمجموعة واسعة من التطبيقات، مع الاعتراف بعيوبه.
سام التمان هو مجرد رجل آخر يرفض قبول “لا” من المرأة. إنه ليس مميزًا، ولا مميزًا، ولا رائعًا، إنه مثير للاشمئزاز ومبتذل. أي شخص يستثمر في @OpenAI يؤيد كراهية النساء https://t.co/QXi81fRbTQ
-لورا شابيرو (@Psychopomp_Ink) 21 مايو 2024
وسط التطورات الأخيرة، أثيرت أسئلة حول التزام OpenAI بالأمن، وخاصة بعد حل مجموعة “superalignment” التابعة لها، وهو فريق مكلف بتخفيف المخاطر طويلة المدى المتعلقة بالذكاء الاصطناعي. وقد أدى رحيل قائد الفريق المشارك جان ليك، الذي انتقد تركيز OpenAI على “المنتجات الجديدة اللامعة” بدلاً من الأمن، إلى إثارة المخاوف بشأن مسار الشركة في معالجة القضايا الأمنية.
أنا ممتن جدا ل @janleikeمساهماته في أبحاث المحاذاة وثقافة السلامة في openai، وأنا حزين جدًا لرؤيته يرحل. وهو على حق، فلا يزال أمامنا الكثير لنفعله؛ نحن ملتزمون بالقيام بذلك. سيكون لدي مقال أطول في الأيام القادمة.
🧡 https://t.co/t2yexKtQEk
– سام التمان (@sama) 17 مايو 2024
تفاقمت هذه المخاوف بسبب بيان عام من سكارليت جوهانسون أعربت فيه عن فزعها من صوت OpenAI ChatGPT الذي يبدو مثل صوتها في فيلم “Her”. رد ألتمان سريعًا باعتذار، قائلاً إن الصوت الملقب بـ “Sky” والذي ظهر في نموذج GPT-4o الخاص بشركة OpenAI، لم يكن مبنيًا على صوت جوهانسون.
ومع تكثيف التدقيق، تجد OpenAI نفسها في لحظة حاسمة لتحقيق التوازن بين التقدم التكنولوجي والاعتبارات الأخلاقية وضمان سلامة أنظمة الذكاء الاصطناعي في مواجهة التحديات والخلافات المتطورة.
اقرأ أيضا : تؤثر العيوب الأمنية العديدة في Google Chrome على مليارات المستخدمين