على مدار العقد الماضي، شهدنا تطورًا سريعًا في التهديدات الأمنية، والتي كانت أكثر تجذرًا في مجموعة التكنولوجيا. ما بدأ بالبرمجيات والتطبيقات توسع إلى أنظمة التشغيل والبرمجيات الوسيطة، ثم إلى البرامج الثابتة والأجهزة، والآن عبر مسارات مدفوعة بأدوات وتقنيات الذكاء الاصطناعي. ليس سرا أن الذكاء الاصطناعي يعطل المشهد التكنولوجي؛ أصبح ضمان أمان البيانات والنماذج أمرًا بالغ الأهمية للمؤسسات والشركات ومجتمعنا ككل.
واليوم، تستفيد مجموعة واسعة من المؤسسات من الذكاء الاصطناعي لتحليل واستخدام كميات هائلة من البيانات. في الواقع، بلومبرج المخابرات وتتوقع أن يصل سوق الذكاء الاصطناعي إلى 1.3 تريليون دولار في السنوات العشر المقبلة. ولكن وفقا ل بحث فوريستر86% من المؤسسات تشعر بالقلق الشديد أو القلق بشأن أمان نموذج الذكاء الاصطناعي الخاص بها.
هذا الرقم ليس مفاجئًا نظرًا للمجموعة الواسعة من الهجمات الضارة ضد نماذج الذكاء الاصطناعي، بما في ذلك تسميم بيانات التدريب، وسرقة نماذج الذكاء الاصطناعي، وأخذ العينات العدائية، والمزيد. حتى الآن، MITRE ATLAS™ (مشهد التهديدات العدائية لأنظمة الذكاء الاصطناعي) أدرج إطار العمل أكثر من 60 طريقة لمهاجمة نموذج الذكاء الاصطناعي.
ونتيجة لذلك، تصدر الحكومات في جميع أنحاء العالم لوائح جديدة للمساعدة في ضمان أمان وموثوقية وخصوصية عمليات نشر الذكاء الاصطناعي. وتشمل هذه القوانين قانون الذكاء الاصطناعي للاتحاد الأوروبي والأمر التنفيذي الأمريكي للذكاء الاصطناعي الآمن والمأمون. عندما يتم دمج هذه اللوائح الجديدة مع اللوائح الحالية مثل القانون العام لحماية البيانات (GDPR) وقانون HIPAA، فإنها تقدم مشهدًا تنظيميًا أكثر تعقيدًا للأمن السيبراني والخصوصية والذي يجب على الشركات إدارته عند تصميم أنظمة الأمان وتشغيلها.
طوال دورة حياتها، يمكن أن يؤدي ترك نماذج الذكاء الاصطناعي ومجموعات تدريب البيانات الخاصة بها غير مُدارة وغير خاضعة للرقابة وغير محمية إلى تعريض المؤسسة لخطر سرقة البيانات والغرامات وغير ذلك الكثير. ففي نهاية المطاف، تشكل النماذج في كثير من الأحيان تعريفاً للملكية الفكرية البالغة الأهمية، وتكون البيانات في كثير من الأحيان حساسة، أو خاصة، أو خاضعة للتنظيم. تتضمن عمليات نشر الذكاء الاصطناعي مجموعة من الأنشطة بدءًا من الحصول على البيانات الأولية وحتى النتائج النهائية. وفي كل خطوة، يمكن للخصم أن يتخذ خطوات للتلاعب بسلوك النموذج أو سرقة ملكية فكرية قيمة. وبدلاً من ذلك، يمكن أن تؤدي ممارسات البيانات التي تتم إدارتها بشكل سيء إلى انتهاكات مكلفة للامتثال أو خرق للبيانات يجب الكشف عنه للعملاء.
ونظرًا للحاجة إلى حماية هذه النماذج وبياناتها مع التوافق مع متطلبات الامتثال، كيف يتم ذلك؟ إحدى الأدوات المتاحة هي الذكاء الاصطناعي السري. الذكاء الاصطناعي السري هو نشر أنظمة الذكاء الاصطناعي في بيئات التنفيذ الموثوقة (TEEs) لحماية البيانات الحساسة ونماذج الذكاء الاصطناعي القيمة أثناء الاستخدام النشط. حسب التصميم، تمنع TEEs رؤية نماذج وبيانات الذكاء الاصطناعي غير مشفرة من قبل أي تطبيق أو مستخدم غير مصرح به. ويجب التصديق على جميع عناصر TEE (بما في ذلك TEE نفسها) من قبل أي مشغل محايد قبل إرسال هذه المفاتيح للتعلم والاستدلال داخل TEE. توفر هذه السمات لمالك البيانات أو النموذج تحكمًا متزايدًا في عنوان IP الخاص به وبياناته (نظرًا لأن لديه القدرة على فرض التصديق والامتثال لسياسة العميل قبل تحرير المفاتيح).
يعد تشفير البيانات غير النشطة أو المخزنة أو المنقولة عبر الشبكة ممارسة راسخة. لكن حماية البيانات المستخدمة بشكل نشط يمثل تحديًا. تساعد الحوسبة السرية في حل هذه المشكلة من خلال وسائل الحماية المستندة إلى الأجهزة لبيانات وحدة المعالجة المركزية (CPU) ووحدة معالجة الرسومات (GPU) والذاكرة. الآن، يستخدم الذكاء الاصطناعي السري تقنيات الذكاء الاصطناعي الحديثة، بما في ذلك التعلم الآلي والتعلم العميق، ويضعها فوق تكنولوجيا الحوسبة السرية التقليدية.
ما هي بعض حالات الاستخدام؟ دعونا ننظر إلى ثلاثة. لكن ضع في اعتبارك أن حالات استخدام الذكاء الاصطناعي السري يمكن أن تنطبق على أي مرحلة من مراحل مسار الذكاء الاصطناعي، بدءًا من استيعاب البيانات والتدريب وحتى الاستدلال وربط النتائج.
الأول هو الذكاء الاصطناعي التعاوني. عند تحليل البيانات من أطراف متعددة، سيقوم كل طرف في التعاون بتشفير مجموعات البيانات الخاصة به، مما يوفر الحماية بحيث لا يتمكن كل طرف من رؤية بيانات الطرف الآخر. يتيح استخدام غرفة الأبحاث السرية للبيانات التي تدعم الحوسبة، والتي يتم تأمينها بواسطة بيئة تنفيذ موثوقة، للمؤسسات التعاون في مشاريع تحليل البيانات مع الحفاظ على خصوصية البيانات وأمنها ونماذجها. أصبحت غرف البيانات النظيفة أكثر أهمية في سياق الذكاء الاصطناعي والتعلم الآلي. يمكن لهذا النوع من تحليل بيانات أصحاب المصلحة المتعددين والذكاء الاصطناعي/تعلم الآلة أن يمكّن المؤسسات من التعاون في أبحاث الذكاء الاصطناعي المستندة إلى البيانات.
المثال التالي هو التعلم الموحد، وهو شكل من أشكال الذكاء الاصطناعي التعاوني. في هذه الحالة، افترض أن البيانات كبيرة جدًا أو حساسة أو منظمة بحيث لا يمكن نقلها خارج الموقع. وبدلاً من ذلك، يتم نقل الحساب إلى البيانات. يتم نشر العقدة التي تم تكوينها باستخدام TEE والنموذج في موقع كل جزء. يتم استخدام البيانات لتدريب النموذج محليًا، بينما تتم حماية أي عناوين IP خاصة بالنموذج داخل TEE. يتم تشفير الأوزان المحدثة ومن ثم إرسالها إلى نموذج رئيسي في السحابة، حيث يتم دمجها مع أوزان الأطراف الأخرى.
سيتم نشر المثال الأخير بشكل متزايد حيث تستخدم المؤسسات نماذج اللغة الموسعة (LLMs) لمعالجة الاستعلامات الحساسة أو تنفيذ المهام باستخدام البيانات السرية. في هذا النموذج، يكون محرك الاستعلام النموذجي محميًا داخل TEE. يتم تشفير الاستعلامات أثناء النقل إلى LLM خاص، ويتم نشرها أيضًا في TEE. يتم تشفير نتائج النموذج وإعادتها إلى الطالب. تم تصميم الاستعلام أو نتائجه بحيث لا يكون متاحًا في نص عادي خارج TEE، مما يوفر حماية شاملة.
مع استمرار الشركات بجميع أحجامها في اعتماد الذكاء الاصطناعي، فمن الواضح أنها ستحتاج إلى حماية بياناتها وملكيتها الفكرية ونزاهتها. ويتطلب ذلك أن تتضمن المنتجات الأمنية نماذج وأطر عمل لعلم البيانات، بالإضافة إلى التطبيقات المتصلة التي تعمل في “العالم الحقيقي” الذي يمكن الوصول إليه بشكل عام. يجب أن يمكّن وضع الأمان والامتثال الشامل والاستباقي للذكاء الاصطناعي المؤسسة من تصميم وتطوير ونشر نماذج التعلم الآلي من اليوم الأول في بيئة آمنة، مع سهولة الوصول إليها والرؤية والفهم والعمل في الوقت الفعلي.
عن المؤلف
ريك إتشيفاريا، نائب الرئيس، مركز التميز الأمني، شركة انتل
قم بالتسجيل مجانًا في insideBIGDATA النشرة الإخبارية.
انضم إلينا على تويتر: https://twitter.com/InsideBigData1
انضم إلينا على لينكد إن: https://www.linkedin.com/company/insidebigdata/
انضم إلينا على فيس بوك: https://www.facebook.com/insideBIGDATANOW