تشفير

هذا الأسبوع في الذكاء الاصطناعي: OpenAI يبتعد عن الأمن

اتبع تطور الصناعة بأسرع ما يمكن منظمة العفو الدولية يمثل تحديا كبيرا. وإلى أن يتمكن الذكاء الاصطناعي من القيام بذلك نيابةً عنك، إليك ملخصًا مفيدًا للقصص الحديثة في عالم التعلم الآلي، بالإضافة إلى الأبحاث والتجارب البارزة التي لم نقم بتغطيتها بمفردنا.

بالمناسبة، تخطط TechCrunch لإطلاق نشرة إخبارية خاصة بالذكاء الاصطناعي قريبًا. ابق في الاستماع. في هذه الأثناء، نعمل على زيادة إيقاع عمود الذكاء الاصطناعي شبه العادي لدينا من مرتين في الشهر (أو نحو ذلك) إلى أسبوعيًا – لذا ترقب المزيد من الإصدارات.

هذا الأسبوع في مجال الذكاء الاصطناعي، هيمنت OpenAI مرة أخرى على دورة الأخبار (على الرغم من الجهود الحثيثة التي بذلتها Google) من خلال إطلاق منتج، ولكن أيضًا بعض مؤامرات القصر. كشفت الشركة النقاب عن GPT-4o، وهو نموذجها التوليدي الأكثر قدرة حتى الآن، وبعد أيام قامت فعليًا بحل فريق يعمل على مشكلة تطوير عناصر التحكم لمنع أنظمة الذكاء الاصطناعي “فائقة الذكاء” من أن تصبح بلطجية.

تصدرت عملية تفكيك الفريق عناوين الأخبار، كما قد يتوقع المرء. التقارير – بما في ذلك لنا – يشير إلى أن OpenAI قللت من أولوية الأبحاث الأمنية للفريق لصالح إطلاق منتجات جديدة مثل GPT-4o المذكورة أعلاه، مما أدى في النهاية إلى استقالة من القائدين المشاركين للفريق، جان لايكي وإيليا سوتسكيفر، المؤسس المشارك لشركة OpenAI.

يعتبر الذكاء الاصطناعي الفائق نظريًا أكثر منه حقيقيًا في هذه المرحلة؛ ليس من الواضح متى – أو ما إذا كانت – صناعة التكنولوجيا ستحقق الاختراقات اللازمة لإنشاء ذكاء اصطناعي قادر على أداء أي مهمة يستطيع الإنسان القيام بها. ولكن يبدو أن التغطية الإعلامية لهذا الأسبوع تؤكد شيئًا واحدًا: لقد اختار المسؤولون التنفيذيون في OpenAI، وخاصة الرئيس التنفيذي سام ألتمان، بشكل متزايد إعطاء الأولوية للمنتجات على الضمانات.

ألتمان قد “حانِق» Sutskever من خلال الإسراع في إطلاق الميزات المستندة إلى الذكاء الاصطناعي في مؤتمر مطوري OpenAI الأول في نوفمبر الماضي. وهو قيل أنه كان مراجعة أجرتها هيلين تونر، مديرة مركز جورج تاون للأمن والتقنيات الناشئة وعضو سابق في مجلس إدارة OpenAI، حول ورقة بحثية شاركت في تأليفها والتي قدمت النهج المتبع في أمن OpenAI في ضوء نقدي – إلى درجة أنها حاولت دفعه بعيدًا عن المألوف. طاولة.

خلال العام الماضي، سمحت شركة OpenAI لروبوتات الدردشة الخاصة بها بالتخزين ملء البريد العشوائي و (زعما) البيانات المستردة من يوتيوب ضد شروط خدمة النظام الأساسي مع التعبير عن طموحها للسماح للذكاء الاصطناعي الخاص بها بإنشاء تمثيلات إباحية وجور. من المؤكد أن الأمن يبدو أنه احتل مقعدًا خلفيًا في الشركة – وقد توصل عدد متزايد من الباحثين الأمنيين في OpenAI إلى استنتاج مفاده أن عملهم سيكون مدعومًا بشكل أفضل في مكان آخر.

فيما يلي بعض قصص الذكاء الاصطناعي الأخرى المثيرة للاهتمام من الأيام الأخيرة:

  • أوبن آي + رديت: لمعرفة المزيد عن OpenAI، أبرمت الشركة صفقة مع Reddit لاستخدام البيانات من الموقع الاجتماعي لتدريب نماذج الذكاء الاصطناعي. رحبت وول ستريت بالصفقة بأذرع مفتوحة – لكن مستخدمي Reddit قد لا يكونوا سعداء للغاية.
  • جوجل الذكاء الاصطناعي: عقدت Google مؤتمرها السنوي للمطورين I/O هذا الأسبوع، حيث ظهرت لأول مرة عليه من منتجات الذكاء الاصطناعي. لقد جمعناها هنابدءًا من منشئ فيديو Veo وحتى النتائج المنسقة بواسطة الذكاء الاصطناعي في بحث Google وحتى ترقيات تطبيقات Gemini chatbot من Google.
  • الأنثروبي يستأجر كريجر: مايك كريجر، أحد مؤسسي Instagram، ومؤخرًا، أحد مؤسسي تطبيق إخباري مخصص الأداة (التي استحوذت عليها شركة Yahoo الأم TechCrunch مؤخرًا)، ينضم إلى Anthropic كأول مدير منتج للشركة. وسيشرف على جهود الشركة الاستهلاكية والتجارية.
  • الذكاء الاصطناعي للأطفال: أعلنت شركة Anthropic الأسبوع الماضي أنها ستبدأ في السماح للمطورين بإنشاء تطبيقات وأدوات تستهدف الأطفال بناءً على نماذج الذكاء الاصطناعي الخاصة بها، طالما أنهم يتبعون قواعد معينة. وعلى وجه الخصوص، يحظر المنافسون مثل جوجل دمج الذكاء الاصطناعي الخاص بهم في التطبيقات المخصصة للشباب.
  • مهرجان أفلام الذكاء الاصطناعي: أقامت شركة Runway الناشئة للذكاء الاصطناعي مهرجانها الثاني لأفلام الذكاء الاصطناعي في وقت سابق من هذا الشهر. الوجبات الجاهزة؟ بعض أقوى اللحظات في العرض لم تأت من الذكاء الاصطناعي، بل من عناصر أكثر إنسانية.

المزيد من التعلم الآلي

من الواضح أن سلامة الذكاء الاصطناعي تمثل أولوية هذا الأسبوع مع مغادرة OpenAI، لكن Google Deepmind يمضي قدمًا. مع “إطار أمن الحدود” الجديد. في الأساس، تتمثل استراتيجية المنظمة في تحديد القدرات غير الخاضعة للرقابة ومنعها على أمل: ليس من الضروري أن تكون الذكاء الاصطناعي العام، بل يمكن أن يكون “مولد برامج ضارة أصبح مجنونًا أو شيء من هذا القبيل”.

اعتمادات الصورة: جوجل العقل العميق

يتكون إطار العمل من ثلاث خطوات: 1. تحديد القدرات الضارة المحتملة في النموذج من خلال محاكاة مسارات التطوير الخاصة به. 2. قم بتقييم النماذج بانتظام لاكتشاف متى وصلت إلى “مستويات القدرة الحرجة” المعروفة. 3. تطبيق خطة تخفيف لمنع التسلل (من قبل شخص آخر أو من نفسه) أو النشر الإشكالي. هناك المزيد من التفاصيل هنا. قد يبدو هذا كسلسلة من الإجراءات الواضحة، لكن من المهم إضفاء الطابع الرسمي عليها، وإلا فسوف يزعج الجميع. هذه هي الطريقة التي تحصل بها على الذكاء الاصطناعي السيئ.

وقد تم تحديد خطر مختلف إلى حد ما من قبل الباحثين في كامبريدج، الذين يشعرون بالقلق بحق بشأن انتشار روبوتات الدردشة التي يتم تدريبها على بيانات الشخص المتوفى من أجل توفير محاكاة سطحية لذلك الشخص. قد تجد (مثلي) أن المفهوم برمته بغيض إلى حد ما، ولكن يمكن استخدامه في إدارة الحزن وسيناريوهات أخرى إذا كنا حذرين. المشكلة هي أننا لا ننتبه.

اعتمادات الصورة: جامعة كامبريدج / ت. هولانيك

“هذا المجال من الذكاء الاصطناعي هو حقل ألغام أخلاقي” قالت الباحثة الرئيسية كاتارزينا نواتشيك-باسينسكا. “نحن بحاجة إلى البدء في التفكير الآن في كيفية التخفيف من المخاطر الاجتماعية والنفسية للخلود الرقمي، لأن التكنولوجيا موجودة بالفعل.” يحدد الفريق العديد من عمليات الاحتيال والنتائج الإيجابية والسلبية المحتملة، ويناقش المفهوم بشكل عام (بما في ذلك الخدمات المزيفة) بشكل عام. مقال منشور في الفلسفة والتكنولوجيا. Black Mirror تتنبأ بالمستقبل مرة أخرى!

في تطبيقات أقل رعبًا للذكاء الاصطناعي، الفيزيائيون في معهد ماساتشوستس للتكنولوجيا يبحثون عن أداة مفيدة (لهم) للتنبؤ بمرحلة أو حالة النظام المادي، وهي عادة مهمة إحصائية يمكن أن تصبح مرهقة مع الأنظمة الأكثر تعقيدًا. ولكن من خلال تدريب نموذج التعلم الآلي على البيانات الصحيحة واعتماده على بعض خصائص الأجهزة المعروفة للنظام، يكون لديك طريقة أكثر كفاءة للقيام بذلك. مجرد مثال آخر لكيفية العثور على تعلم الآلة في مجالات متخصصة حتى في العلوم المتقدمة.

في جامعة كولورادو بولدر، يناقشون كيفية استخدام الذكاء الاصطناعي في إدارة الكوارث. يمكن أن تكون هذه التكنولوجيا مفيدة للتنبؤ بسرعة بالأماكن التي ستكون هناك حاجة إلى الموارد، ورسم خرائط للأضرار، وحتى المساعدة في تدريب المستجيبين، ولكن الناس (وهو أمر مفهوم) مترددون في تطبيقها في سيناريوهات الحياة أو الموت.

المشاركون في الورشة.
اعتمادات الصورة: بولدر سي يو

البروفيسور أمير بهزادان يحاول تحريك الأمور في هذا الصدد، مؤكدا أن “الذكاء الاصطناعي الذي يركز على الإنسان يؤدي إلى ممارسات أكثر فعالية للاستجابة للكوارث والتعافي من خلال تعزيز التعاون والتفاهم والشمول بين أعضاء الفريق والناجين وأصحاب المصلحة”. ما زالوا في مرحلة ورشة العمل، ولكن من المهم التفكير بعمق في هذا الأمر قبل محاولة، على سبيل المثال، أتمتة توزيع المساعدات بعد الإعصار.

أخيرًا بعض الأعمال المثيرة للاهتمام من Disney Research، والتي سعت إلى تنويع مخرجات نماذج توليد صور البث، والتي يمكن أن تنتج نتائج مماثلة مرارًا وتكرارًا لمطالبات معينة. الحل؟ “إن إستراتيجية أخذ العينات لدينا تعمل على تليين إشارة التكييف عن طريق إضافة ضوضاء غاوسية مبرمجة ومتحللة بشكل رتيب إلى ناقل التكييف أثناء الاستدلال لتحقيق التوازن بين التنوع ومواءمة الظروف.” أنا ببساطة لا أستطيع أن أقول ذلك بشكل أفضل بنفسي.

اعتمادات الصورة: بحث ديزني

والنتيجة هي تنوع أكبر بكثير في الزوايا والإعدادات والمظهر العام في إخراج الصورة. في بعض الأحيان تريد ذلك، وأحيانًا لا تريده، ولكن من الجيد أن يكون لديك الخيار.


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى