أعلن المعهد الوطني للمعايير والتكنولوجيا (NIST)، وهو وكالة تابعة لوزارة التجارة الأمريكية تعمل على تطوير واختبار التقنيات للحكومة الأمريكية والشركات وعامة الناس، يوم الاثنين عن إطلاق NIST GenAI، وهو برنامج جديد موجه من NIST إلى تقييم التقنيات التوليدية. تقنيات الذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي لإنشاء النصوص والصور.
منصة مصممة لتقييم أشكال مختلفة من تكنولوجيا الذكاء الاصطناعي التوليدية، ستقوم NIST GenAI بنشر المعايير، والمساعدة في إنشاء أنظمة الكشف عن “أصالة المحتوى” (أي التحقق المتعمق من التزييف) وستشجع تطوير البرامج لاكتشاف مصدر الكاذبة أو المضللة. المعلومات، ويقول NIST. عليه موقع NIST GenAI الجديد وفي أ بيان صحفي.
جاء في البيان الصحفي: “سيطلق برنامج NIST GenAI سلسلة من المشكلات المصممة لتقييم وقياس قدرات وقيود تقنيات الذكاء الاصطناعي التوليدية”. “سيتم استخدام هذه التقييمات لتحديد الاستراتيجيات لتعزيز سلامة المعلومات وتوجيه الاستخدام الآمن والمسؤول للمحتوى الرقمي.”
أول مشروع لـ NIST GenAI هو دراسة تجريبية لإنشاء أنظمة يمكنها التمييز بشكل موثوق بين الوسائط التي أنشأها الإنسان وتلك التي أنشأها الذكاء الاصطناعي، بدءًا من النص. (في حين تدعي العديد من الخدمات أنها تكتشف التزييف العميق، فقد أظهرت الدراسات ــ واختباراتنا الخاصة ــ أنها كذلك غير موثوق بهاخاصة عند التعامل مع النص.) يدعو NIST GenAI فرقًا من الأوساط الأكاديمية والصناعة ومختبرات البحث إلى تقديم إما “المولدات” – أنظمة الذكاء الاصطناعي لتوليد المحتوى – أو “أنظمة التمييز” – التي تحاول تحديد المحتوى الناتج عن الذكاء الاصطناعي.
يجب على مولدي الدراسة إنشاء ملخصات بشرط أن يكون لديهم موضوع ومجموعة من المستندات، بينما يجب على القائمين على التمييز اكتشاف ما إذا كان ملخص معين مكتوبًا بواسطة الذكاء الاصطناعي أم لا. ولضمان العدالة، ستوفر NIST GenAI البيانات اللازمة لتدريب المولدين والتمييز؛ لن يتم قبول الأنظمة المدربة على البيانات المتاحة للعامة، بما في ذلك على سبيل المثال لا الحصر النماذج المفتوحة مثل Meta اللاما 3.
سيبدأ التسجيل للبرنامج التجريبي في الأول من مايو، ومن المتوقع أن يتم إصدار النتائج في فبراير 2025.
يأتي إطلاق NIST GenAI – ودراسة تركز على التزييف العميق – في ظل نمو التزييف العميق بشكل كبير.
وفقا لبيانات من وضوح، وهي شركة للكشف عن التزييف العميق، تم إنشاء المزيد من التزييف العميق بنسبة 900% هذا العام مقارنة بالفترة نفسها من العام الماضي. وهذا يثير القلق، وهو أمر مفهوم. أ مؤخرًا إستفتاء الرآي العام وجدت مؤسسة YouGov أن 85% من الأمريكيين قالوا إنهم يشعرون بالقلق إزاء انتشار التزييف العميق المضلل عبر الإنترنت.
يعد إطلاق NIST GenAI جزءًا من استجابة NIST للأمر التنفيذي للرئيس جو بايدن بشأن الذكاء الاصطناعي، والذي وضع قواعد تتطلب قدرًا أكبر من الشفافية من شركات الذكاء الاصطناعي حول كيفية عمل نماذجها ووضع سلسلة من المعايير الجديدة، لا سيما لتصنيف المحتوى الناتج عن الذكاء الاصطناعي. . .
يعد هذا أيضًا أول إعلان يتعلق بالذكاء الاصطناعي من NIST بعد تعيين الباحث السابق في OpenAI بول كريستيانو في معهد سلامة الذكاء الاصطناعي التابع للوكالة.
كان اختيار كريستيانو مثيرًا للجدل بسبب آرائه “الكارثية”. كان ياما كان وتوقع أن “هناك احتمال بنسبة 50% أن يؤدي تطور الذكاء الاصطناعي إلى (تدمير البشرية)” التعليقات يبدو أن – بما في ذلك علماء NIST – يشعرون بالقلق من أن كريستيانو يشجع معهد سلامة الذكاء الاصطناعي على التركيز على “سيناريوهات خيالية” بدلاً من مخاطر الذكاء الاصطناعي الواقعية الأكثر إلحاحاً.
يقول NIST أن NIST GenAI سيرشد عمل معهد سلامة الذكاء الاصطناعي.
Source link