OpenAI وأكد أن الجهات الفاعلة السيئة التابعة للدولة تستخدم تكنولوجيا الشركة لأغراض خبيثة، وهو تأكيد لما كان يخشاه الكثيرون منذ صعود الشركة إلى مكانة بارزة في القطاع التوليدي منظمة العفو الدولية سباق.
الاكتشاف هو جزء من التعاون مع معلومات التهديد الخاصة بشركة Microsoftمجتمع يضم الآلاف من خبراء الأمن والباحثين وصائدي التهديدات الذين يقومون بتحليل واكتشاف التهديدات السيبرانية.
وأوضحت الشركة أنه من خلال جمع معلومات الشبكة، اكتشفت OpenAI ما لا يقل عن خمسة جهات فاعلة مؤكدة تابعة للدولة تستخدم خدمات OpenAI للاستعلام عن معلومات مفتوحة المصدر، والترجمة، والعثور على أخطاء الترميز، وتنفيذ مهام الترميز الأساسية. وكان من بين الممثلين ممثلين تابعين للصين معروفين باسم Charcoal Typhoon وSalmon Typhoon؛ ممثل إيراني معروف باسم Crimson Sandstorm؛ ممثل تابع لكوريا الشمالية يُعرف باسم إميرالد سليت؛ وممثل روسي معروف باسم فورست بليزارد.
وستعتمد الحسابات على خدمات OpenAI لتعزيز الهجمات الإلكترونية المحتملة، ولكن مايكروسوفت لم يتم الكشف عن أي استخدام كبير للمواد الأكثر مراقبة ماجستير.
وأوضحت مايكروسوفت: “يشمل ذلك الاستطلاع، مثل اكتشاف الصناعات والمواقع والعلاقات مع الضحايا المحتملين، والمساعدة في البرمجة، بما في ذلك تحسين أشياء مثل البرامج النصية وتطوير البرامج الضارة، ودعم التعلم واستخدام اللغات الأصلية”. “يعد دعم اللغة سمة طبيعية للماجستير في القانون وهو جذاب للجهات الفاعلة في مجال التهديد التي تركز باستمرار على الهندسة الاجتماعية وغيرها من التقنيات التي تعتمد على الاتصالات الكاذبة والمضللة المصممة خصيصًا للوظائف والشبكات المهنية والعلاقات الأخرى لأهدافها. »
ووصفت مايكروسوفت هذا الإعلان بأنه جهد كشف مبكر، يهدف إلى الكشف عن “التحركات الإضافية المبكرة التي نلاحظ أنها تحاول القيام بالتهديدات المعروفة”.
ويتماشى هذا التعاون مع التحركات الأخيرة التي اتخذها البيت الأبيض من أجل تتطلب اختبارات أمنية ورقابة حكومية لأنظمة الذكاء الاصطناعي التي يمكن أن تؤثر على الأمن الوطني والاقتصادي والصحة العامة والسلامة العامة. “على الرغم من أن المهاجمين سيظلون مهتمين بالقدرات الأمنية الحالية وضوابط الذكاء الاصطناعي وتقنيات التحقيق، فمن المهم إبقاء هذه المخاطر في سياقها. كما هو الحال دائمًا، فإن ممارسات النظافة مثل المصادقة متعددة العوامل (MFA) و الثقة صفر تعد الدفاعات ضرورية لأن المهاجمين يمكنهم استخدام الأدوات المستندة إلى الذكاء الاصطناعي لتعزيز هجماتهم الإلكترونية الحالية التي تعتمد على الهندسة الاجتماعية واكتشاف الأجهزة والحسابات غير الآمنة.
على الرغم من أن OpenAI تعترف بأن نماذجها الحالية محدودة في قدرتها على اكتشاف الهجمات الإلكترونية، فقد التزمت الشركة بالاستثمارات الأمنية المستقبلية، بما في ذلك:
- الاستثمارات في التكنولوجيا والفرق، بما في ذلك فرق الاستخبارات والتحقيقات والسلامة والأمن والنزاهة، لاكتشاف التهديدات.
- التعاون مع شركاء الصناعة وأصحاب المصلحة الآخرين لتبادل المعلومات حول سوء الاستخدام.
- الإبلاغ العام المستمر عن التهديدات الأمنية والحلول.
وكتب OpenAI: “بينما نسعى جاهدين لتقليل الانتهاكات المحتملة من قبل مثل هذه الجهات الفاعلة، لن نكون قادرين على إيقاف كل حالة”. “ولكن من خلال الاستمرار في الابتكار والتحقيق والتعاون والمشاركة، فإننا نجعل من الصعب على الجهات الفاعلة السيئة عدم اكتشافها في النظام البيئي الرقمي وتحسين تجربة الجميع.”
Source link