تعد المبادئ التوجيهية الأمنية هي الطبقة الأولى الضرورية لحماية البيانات في ذروة حمى الذكاء الاصطناعي
ستوفر الأطر الأمنية الطبقة الأولى الضرورية لحماية البيانات، خاصة في المحادثات حولها ذكاء إصطناعي (الذكاء الاصطناعي) أصبح أكثر تعقيدًا.
هؤلاء الأطر والمبادئ سيساعد في تخفيف المخاطر المحتملة مع استغلال الفرص التي توفرها التقنيات الناشئة، بما في ذلك الذكاء الاصطناعي التوليدي (Gen AI)، قال دينيس وونغ، نائب مفوض لجنة حماية البيانات الشخصية (PDPC)، التي تشرف على قانون حماية البيانات الشخصية في سنغافورة (PDPA). وهي أيضًا نائب المدير العام للهيئة المنظمة للصناعة، هيئة تطوير وسائل الإعلام المعلوماتية (IMDA).
أيضا: تم تحديث مجموعة أدوات أخلاقيات الذكاء الاصطناعي لتشمل المزيد من مكونات التقييم
أصبحت المحادثات حول نشر التكنولوجيا أكثر معقدة مع الذكاء الاصطناعي التوليديقال وونغ، خلال حلقة نقاش في مؤتمر أسبوع حماية البيانات الشخصية 2024 الذي عقد في سنغافورة هذا الأسبوع. يجب على المؤسسات أن تحدد، من بين أمور أخرى، ما تستلزمه التكنولوجيا، وما تعنيه بالنسبة لأعمالها، وما هي الضمانات اللازمة.
وقالت إن توفير الأطر الأساسية يمكن أن يساعد في تقليل التأثير. يمكن أن توفر مجموعات الأدوات نقطة انطلاق والتي يمكن للشركات من خلالها تجربة واختبار تطبيقات الذكاء الاصطناعي التوليدية، بما في ذلك مجموعات أدوات مفتوحة المصدر وهي مجانية ومتوفرة على GitHub. وأضافت أن حكومة سنغافورة ستواصل العمل مع شركاء الصناعة لتوفير مثل هذه الأدوات.
وقال وونغ إن هذا التعاون سيدعم أيضًا تجربة الذكاء الاصطناعي التوليدي، حتى تتمكن البلاد من فهم ما يستلزمه أمن الذكاء الاصطناعي. تشمل الجهود هنا اختبار وفريق نماذج اللغة الكبيرة (LLM) للسياق المحلي والإقليمي، مثل اللغة والثقافة.
وقالت إن المعلومات الواردة من هذه الشراكات ستكون مفيدة للمنظمات والجهات التنظيمية، مثل PDPC وIMDA، لفهم كيفية عمل LLMs المختلفة وفعالية التدابير الأمنية.
سنغافورة وقعت اتفاقيات مع آي بي إم و جوجل للاختبار والتقييم والتحسين درجة الماجستير في قانون جنوب شرق آسيا من منظمة AI سنغافورة، تسمى SEA-LIONخلال العام الماضي. تهدف هذه المبادرات إلى مساعدة المطورين على إنشاء تطبيقات ذكاء اصطناعي مخصصة على SEA-LION وتحسين الوعي بالسياق الثقافي لبرامج LLM التي تم إنشاؤها للمنطقة.
أيضا: مع تطور نماذج الذكاء الاصطناعي التوليدية، يعد اختبار المعايير المخصصة والانفتاح أمرًا ضروريًا
مع تزايد عدد حاملي شهادات LLM حول العالم، بما في ذلك نماذج OpenAI الرئيسية ومفتوحة المصدر، قد تجد المؤسسات صعوبة في فهم الأنظمة الأساسية المختلفة. قال جيسون تمارا ويدجايا، المدير التنفيذي للذكاء الاصطناعي في مركز سنغافورة للتكنولوجيا التابع لشركة MSD للأدوية، والذي كان يتحدث في نفس اللجنة، إن كل ماجستير في القانون يأتي مع نماذج وطرق للوصول إلى نموذج الذكاء الاصطناعي.
ويقول إن الشركات بحاجة إلى فهم كيفية عمل نماذج الذكاء الاصطناعي المدربة مسبقًا لتحديد المخاطر المحتملة للبيانات. تتعقد الأمور عندما تضيف المؤسسات بياناتها إلى LLMs وتعمل على تحسين نماذج التدريب. وأضاف أن الاستفادة من التقنيات مثل الجيل المعزز للاسترجاع (RAG) يسلط الضوء بشكل أكبر على حاجة الشركات لضمان إدخال البيانات الصحيحة في النموذج والحفاظ على ضوابط الوصول إلى البيانات القائمة على الأدوار.
وفي الوقت نفسه، يجب على الشركات أيضًا تقييم مقاييس تصفية المحتوى التي يمكن أن تعمل عليها نماذج الذكاء الاصطناعي، لأنها يمكن أن تؤثر على النتائج الناتجة. على سبيل المثال، قد يتم حظر البيانات المتعلقة بالرعاية الصحية للمرأة، على الرغم من أن هذه المعلومات توفر المعرفة الأساسية للبحوث الطبية.
وقال ويجاجا إن إدارة هذه القضايا تنطوي على توازن دقيق وتمثل تحديًا. دراسة F5 وجدت أن 72% من المؤسسات التي تنشر الذكاء الاصطناعي أشارت إلى مشكلات جودة البيانات وعدم القدرة على توسيع نطاق ممارسات البيانات باعتبارها تحديات رئيسية أمام توسيع نطاق تطبيقات الذكاء الاصطناعي الخاصة بها.
أيضا: 7 طرق للتأكد من أن بياناتك جاهزة للذكاء الاصطناعي التوليدي
وبحسب التقرير، الذي حلل بيانات من أكثر من 700 من صناع القرار في مجال تكنولوجيا المعلومات حول العالم، قالت 77% من الشركات إنها لا تملك مصدراً واحداً للبيانات الموثوقة. وقال 24% فقط إنهم قاموا بنشر الذكاء الاصطناعي على نطاق واسع، وأشار 53% إلى الافتقار إلى الذكاء الاصطناعي ومهارات البيانات باعتباره عائقًا رئيسيًا.
وتسعى سنغافورة إلى المساعدة في معالجة بعض هذه التحديات من خلال مبادرات جديدة في حوكمة الذكاء الاصطناعي وتوليد البيانات.
وقالت وزيرة التنمية الرقمية والمعلومات جوزفين تيو خلال كلمتها الافتتاحية للمؤتمر: “ستظل الشركات في حاجة إلى البيانات لنشر التطبيقات بالإضافة إلى ماجستير إدارة الأعمال الحالي”. “تحتاج النماذج إلى التحسين لأداء أفضل وتحقيق نتائج ذات جودة أعلى لتطبيقات محددة. وهذا يتطلب مجموعات بيانات عالية الجودة. »
وقال تيو إنه على الرغم من أنه يمكن استخدام تقنيات مثل RAG، إلا أن هذه الأساليب تعمل فقط مع مصادر البيانات الإضافية التي لم يتم استخدامها لتدريب النموذج الأساسي. وأضافت أن هناك حاجة أيضًا إلى مجموعات بيانات جيدة لتقييم ومقارنة أداء النموذج.
أيضا: تدريب نماذج الذكاء الاصطناعي باستخدام بياناتك الخاصة للتخفيف من المخاطر
“ومع ذلك، فإن مجموعات البيانات عالية الجودة ليست بالضرورة متاحة بسهولة أو يمكن الوصول إليها لجميع تطورات الذكاء الاصطناعي. وقالت: “حتى لو كان الأمر كذلك، فهناك مخاطر قد لا تكون فيها مجموعات البيانات ممثلة، وقد تؤدي النماذج المبنية عليها إلى نتائج متحيزة”. بالإضافة إلى ذلك، قال تيو إن مجموعات البيانات قد تحتوي على معلومات تعريف شخصية، والتي يمكن أن تؤدي إلى قيام نماذج الذكاء الاصطناعي التوليدية بتجديد تلك المعلومات عند المطالبة بذلك.
ضع علامة أمان على الذكاء الاصطناعي
وقال تيو إن سنغافورة ستطلق سراحه إرشادات السلامة لنماذج الذكاء الاصطناعي التوليدية ومطوري التطبيقات لحل المشكلات. سيتم وضع هذه المبادئ التوجيهية تحت إطار التحقق من الذكاء الاصطناعي في الدولةوالتي تهدف إلى توفير معايير أساسية مشتركة من خلال الشفافية والاختبار.
“ستوصي إرشاداتنا بأن يكون المطورون والناشرون شفافين مع المستخدمين من خلال توفير معلومات حول كيفية عمل نماذج وتطبيقات Gen AI، مثل البيانات المستخدمة ونتائج الاختبار والتقييم، والمخاطر المتبقية والقيود التي قد يقدمها النموذج أو التطبيق، “أوضحت.
وأعلنت أن المبادئ التوجيهية ستصف أيضًا سمات الأمان والموثوقية التي يجب اختبارها قبل نشر نماذج أو تطبيقات الذكاء الاصطناعي، ومعالجة مشكلات مثل الهلوسة والبيانات السامة والمحتوى المتحيز. “يبدو الأمر كما لو أننا نشتري الأجهزة المنزلية. سيكون هناك ملصق يشير إلى أنه قد تم اختباره، ولكن ما الذي يجب اختباره حتى يحصل مطور المنتج على هذا الملصق؟ »
كما نشرت PDPC أ دليل مقترح لتوليد البيانات الاصطناعيةبما فيه دعم تقنيات تعزيز الخصوصيةأو PET، لمعالجة المخاوف بشأن استخدام البيانات الحساسة والشخصية في الذكاء الاصطناعي التوليدي.
أيضا: هناك افتقار شديد للشفافية وسط الاهتمام المتزايد بالذكاء الاصطناعي
وفي إشارة إلى أن توليد البيانات الاصطناعية آخذ في الظهور باعتباره PET، قال تيو إن الدليل المقترح يجب أن يساعد الشركات على “فهم البيانات الاصطناعية”، بما في ذلك كيفية استخدامها.
وأشارت إلى أنه “من خلال إزالة معلومات التعريف الشخصية أو حمايتها، يمكن لـ PETs مساعدة الشركات على تحسين استخدام البيانات دون المساس بالبيانات الشخصية”.
“تعالج اختبارات PET العديد من القيود المفروضة على العمل مع البيانات الحساسة والشخصية وتفتح إمكانيات جديدة من خلال جعل الوصول إلى البيانات ومشاركتها والتحليل الجماعي أكثر أمانًا. »