أصدر معهد السلامة في المملكة المتحدة، وهو الهيئة التي تم إنشاؤها مؤخرًا في المملكة المتحدة لسلامة الذكاء الاصطناعي، مجموعة من الأدوات المصممة “لتعزيز سلامة الذكاء الاصطناعي” من خلال تمكين الصناعة والمنظمات البحثية والجامعات من تطوير تقييمات الذكاء الاصطناعي بسهولة أكبر.
تسمى Inspect، وهي مجموعة من الأدوات، متاحة بموجب ترخيص مفتوح المصدر، على وجه التحديد رخصة معهد ماساتشوستس للتكنولوجيا — يهدف إلى تقييم قدرات معينة لنماذج الذكاء الاصطناعي، بما في ذلك المعرفة الأساسية للنماذج وقدرتها على التفكير، وإنشاء درجة بناءً على النتائج.
في بيان صحفي اعلان وفي الأخبار يوم الجمعة، ادعى معهد السلامة أن Inspect يمثل “المرة الأولى التي يتم فيها إطلاق منصة اختبار سلامة الذكاء الاصطناعي، بقيادة منظمة مدعومة من الدولة، للاستخدام على نطاق أوسع”.
وقال إيان هوغارث، رئيس معهد السلامة، في بيان: “إن التعاون الناجح في اختبار سلامة الذكاء الاصطناعي يعني وجود نهج مشترك وسهل الوصول إليه في التقييمات، ونأمل أن يكون Inspect لبنة أساسية”. «Nous espérons voir la communauté mondiale de l’IA utiliser Inspect non seulement pour effectuer ses propres tests de sécurité des modèles, mais aussi pour aider à adapter et à développer la plate-forme open source afin que nous puissions produire des évaluations de haute qualité في كل المستويات.”
وكما كتبنا بالفعل، معايير الذكاء الاصطناعي من الصعب ــ لأسباب ليس أقلها أن نماذج الذكاء الاصطناعي الأكثر تطورا اليوم هي عبارة عن صناديق سوداء تظل بنيتها التحتية وبياناتها التدريبية وغيرها من التفاصيل الرئيسية سرية من قبل الشركات التي تصنعها. إذًا كيف يمكن لـ Inspect مواجهة هذا التحدي؟ من خلال كونها قابلة للتوسيع والتوسيع إلى تقنيات الاختبار الجديدة بشكل أساسي.
يتكون Inspect من ثلاثة مكونات أساسية: مجموعات البيانات، وأدوات الحل، والعلامات. توفر مجموعات البيانات عينات للاختبار المعياري. يقوم المحلولون بمهمة إجراء الاختبارات. ويقوم طلاب الصف بتقييم عمل أدوات الحل وتجميع درجات الاختبار في مقاييس.
يمكن استكمال مكونات Inspect المضمنة عبر حزم الطرف الثالث المكتوبة بلغة Python.
في مقال عن
طرح كليمنت ديلانج، الرئيس التنفيذي لشركة Hugging Face الناشئة للذكاء الاصطناعي، فكرة دمج Inspect مع مكتبة نماذج Hugging Face أو إنشاء لوحة صدارة عامة مع نتائج تقييمات مجموعة الأدوات.
ويأتي نشر Inspect بعد أن قامت وكالة حكومية أمريكية – المعهد الوطني للمعايير والتكنولوجيا (NIST) – رمح NIST GenAI، هو برنامج يهدف إلى تقييم مختلف تقنيات الذكاء الاصطناعي التوليدي، بما في ذلك الذكاء الاصطناعي المولد للنصوص والصور. تخطط NIST GenAI لنشر اختبارات قياس الأداء، والمساعدة في إنشاء أنظمة للكشف عن صحة المحتوى، وتشجيع تطوير البرامج لاكتشاف المعلومات الخاطئة أو المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
في إبريل/نيسان، أعلنت الولايات المتحدة والمملكة المتحدة عن شراكة لتطوير اختبارات متقدمة لنماذج الذكاء الاصطناعي بشكل مشترك، في أعقاب الالتزامات المعلنة في كونغرس المملكة المتحدة. قمة أمن الذكاء الاصطناعي في بلتشلي بارك في نوفمبر من العام الماضي. وكجزء من هذا التعاون، تعتزم الولايات المتحدة إطلاق معهد سلامة الذكاء الاصطناعي الخاص بها، والذي سيكون مسؤولاً إلى حد كبير عن تقييم المخاطر المتعلقة بالذكاء الاصطناعي والذكاء الاصطناعي التوليدي.
Source link