الدكاء الاصطناعي

تقوم شركة Vero AI بتقييم 10 نماذج رائدة للذكاء الاصطناعي التوليدي باستخدام إطار عمل VIOLET الشامل الخاص بها لتقييم الذكاء الاصطناعي المسؤول

فيرو منظمة العفو الدوليةأعلن محرك تحليلي ولوحة معلومات تساعد الشركات على تحقيق الإمكانات الكاملة للتقنيات المتطورة، بما في ذلك الذكاء الاصطناعي، مع تقليل المخاطر، عن نتائج دراستها الافتتاحية.توليد المساءلة: تقييم الذكاء الاصطناعي باستخدام الذكاء الاصطناعيتقرير. يقدم تقرير Vero AI تقييماً شاملاً بدرجات قابلة للقياس لـ 10 نماذج مهمة للذكاء الاصطناعي التوليدي، لمساعدة الشركات على فهم كيفية توافق هذه الأدوات مع معايير الذكاء الاصطناعي المسؤولة على النحو الذي تحدده Vero AI. نموذج التأثير VIOLET™. تم إنشاء النموذج من قبل علماء نفس I/O وخبراء تكنولوجيا الذكاء الاصطناعي.

قال إريك سيدل، دكتوراه، الرئيس التنفيذي والمؤسس المشارك: “مع استمرار الذكاء الاصطناعي التوليدي في التطور بسرعة، تواجه المؤسسات بشكل متزايد التحدي المتمثل في فهم فوائده ومخاطره المحتملة”. “في حين كانت هناك بعض المحاولات لتحديد وتقييم مكونات نماذج الذكاء الاصطناعي التوليدية الشائعة من حيث العدالة والامتثال، فإن المعايير في هذه الدراسات كانت ضيقة النطاق للغاية بحيث لا يمكنها تقديم توصيات قيمة. ومن أجل استغلال الذكاء الاصطناعي بشكل مسؤول، وخاصة مع ظهور لوائح تنظيمية جديدة للذكاء الاصطناعي، فمن الضروري اتباع نهج واسع مصحوب بطريقة علمية لقياس أنظمة الذكاء الاصطناعي واسعة النطاق.

باستخدام محرك Iris™ التحليلي المدعوم بالذكاء الاصطناعي، جنبًا إلى جنب مع خبراء بشريين، قامت Vero AI بتقييم الوثائق المتاحة للجمهور لبعض أشهر برامج LLM والنماذج التوليدية، بما في ذلك Gemini من Google، وGPT-4 من Open AI، وLLMA2 من Meta، والمزيد . تتيح Iris المعالجة التلقائية لكميات كبيرة من المعلومات غير المنظمة. ثم تم تخصيص درجات للنماذج بناءً على العناصر الرئيسية لنموذج التأثير VIOLET، بما في ذلك الرؤية والنزاهة والتحسين والاستعداد التشريعي والكفاءة والشفافية. نموذج تأثير Vero AI VIOLET هو إطار عمل شامل يركز على الإنسان من العناصر والمنهجيات التي توفر رؤية شاملة وموضوعية لتأثير خوارزميات وبنيات الذكاء الاصطناعي المتقدمة.

أظهرت نماذج الذكاء الاصطناعي التوليدية التي تم تحليلها نقاط قوة ونقاط ضعف متفاوتة اعتمادًا على المعايير التي تم تقييمها

  • وكان متوسط ​​درجة الفعالية 81%.
  • وكان أدنى متوسط ​​للدرجات هو التحسين (بنسبة 69%)، في حين كانت الرؤية (76%) والشفافية (77%) أعلى بأقل من 10 نقاط. تسلط هذه النتائج الضوء على أهمية إعطاء البائعين وزنًا متساويًا لجميع مكونات الخوارزمية عند تصميم وبناء نماذجهم، ومواصلة مراقبتها للتأكد من استيفائها لمتطلبات الذكاء الاصطناعي المسؤولة.

تهدف نماذج الذكاء الاصطناعي التوليدية إلى اتباع نهج مسؤول في التعامل مع الذكاء الاصطناعي، لكن المهمة التي تنتظرنا كبيرة

  • نشرت معظم نماذج الذكاء الاصطناعي المنتجة على مواقعها الإلكترونية ردودًا على دعوات البيت الأبيض لمعالجة المخاطر التي يشكلها الذكاء الاصطناعي. بالإضافة إلى ذلك، لدى العديد منها قنوات تعليقات واضحة للمستخدمين للتواصل مع التعليقات حول تجربة النموذج أو الأسئلة أو المخاوف المتعلقة بالخصوصية والبيانات.
  • ومع ذلك، يمكن لغالبية بائعي الذكاء الاصطناعي التوليدي الاستفادة من الجهود المتزايدة المتعلقة بالشفافية حول خوارزمياتهم النموذجية، ومصادر بيانات التدريب وجودة البيانات، بالإضافة إلى التوثيق حول كيفية ضمان العدالة وتجنب النتائج المتحيزة.
  • على الرغم من أن الدرجات الفردية تراوحت بين 56% في بعض الفئات إلى 86%، إلا أنه كانت هناك نقاط قوة معينة برزت في كل نموذج من النماذج التي تم تقييمها. مثلا:
    • حصلت كل من Gemini من Google، وLLAMA2 من Meta، وINFLECTION2 من Inflection، وBLOOM من Big Science على درجات عالية في المساءلة.
    • بذلت GPT-4 من OpenAI وCOMMAND من Cohere وTITAN TEXT من Amazon وJURASSIC 2 من AI21Labs جهودًا ملحوظة في إدارة المخاطر

هناك طريق واضح للمضي قدمًا لتحقيق الذكاء الاصطناعي المسؤول، مع إعطاء الأولوية للتقييم والشفافية.
هناك العديد من أطر عمل الذكاء الاصطناعي في جميع أنحاء العالم، حتى أفضل نماذج الذكاء الاصطناعي التوليدية لم تحقق نتائج مثالية على نموذج التأثير VIOLET وأظهرت مجالًا للنمو. يؤدي الذكاء الاصطناعي المسؤول إلى الاستخدام العادل والمفيد والتأثيرات النهائية للذكاء الاصطناعي على البشرية جمعاء. بينما تفكر الشركات في دمج الذكاء الاصطناعي في عملياتها، تقدم Vero AI التوصيات التالية:

  • قم بتقييم فعالية النموذج الخاص بك بشكل مستقل واجعل هذه النتائج في متناول المستخدمين النهائيين بشكل واضح وسهل.
  • توفير معلومات واضحة فيما يتعلق بقواعد الشرح البشري المتبعة في تطوير النظام والمعلومات التي تصف حجم الشرح البشري.
  • كن شفافًا بشأن مصادر البيانات: ما هي الأساليب المستخدمة لضمان جودة البيانات؟ كيف شارك البشر؟

مستمدة من نهج شامل لأخلاقيات وتنظيم الذكاء الاصطناعي، ودمج أطر وتشريعات أفضل الممارسات من مختلف البلدان والثقافات بالإضافة إلى الممارسات العلمية، تضمن VIOLET خدمة الفعالية التجارية والمصالح الإنسانية.

قم بالتسجيل مجانًا في insideBIGDATA النشرة الإخبارية.

انضم إلينا على تويتر: https://twitter.com/InsideBigData1

انضم إلينا على لينكد إن: https://www.linkedin.com/company/insidebigdata/

انضم إلينا على فيس بوك: https://www.facebook.com/insideBIGDATANOW




Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى