تطلق Nvidia المزيد من الأدوات والضمانات لتشجيع الشركات على اعتماد وكلاء الذكاء الاصطناعي
تطلق Nvidia ثلاث خدمات صغيرة جديدة لـ NIM، أو خدمات مستقلة صغيرة تشكل جزءًا من تطبيقات أكبر، لمساعدة الشركات على توفير إجراءات تحكم وأمان إضافية لعملاء الذكاء الاصطناعي لديها.
تستهدف إحدى خدمات NIM الجديدة أمان المحتوى وتهدف إلى منع وكيل الذكاء الاصطناعي من توليد مخرجات ضارة أو متحيزة. وتساعد الخدمة الأخرى على تركيز المحادثات على المواضيع المعتمدة فقط، بينما تساعد الخدمة الجديدة الثالثة على منع وكيل الذكاء الاصطناعي من محاولة كسر الحماية أو إزالة قيود البرامج.
تعد خدمات NIM الثلاث الجديدة هذه جزءًا من نفيديا نيمو الدرابزينمجموعة Nvidia الحالية مفتوحة المصدر من الأدوات البرمجية والخدمات الصغيرة التي تهدف إلى مساعدة الشركات على تحسين تطبيقات الذكاء الاصطناعي الخاصة بها.
“من خلال تطبيق العديد من النماذج المتخصصة وخفيفة الوزن كحواجز حماية، يمكن للمطورين سد الثغرات التي يمكن أن تنشأ عند وجود سياسات وإجراءات حماية أكثر عمومية وشاملة – لأن النهج الواحد الذي يناسب الجميع لا يؤمن العمل المعقد أو يتحكم فيه بشكل كافٍ من الذكاء الاصطناعي الوكيل. ” ال بيان صحفي قال.
يبدو أن شركات الذكاء الاصطناعي بدأت تدرك أن إقناع الشركات بتبني تقنية وكيل الذكاء الاصطناعي الخاصة بها لن يكون سهلاً كما اعتقدوا في البداية. بينما قام أشخاص مثل مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، مؤخرًا بذلك توقع سيكون هناك أكثر من مليار وكيل يستخدم Salesforce في الأشهر الـ 12 المقبلة وحدها، ومن المرجح أن يكون الواقع مختلفًا بعض الشيء.
دراسة حديثة أجرتها شركة ديلويت توقع أن حوالي 25% من الشركات تستخدم بالفعل وكلاء الذكاء الاصطناعي أو تخطط للقيام بذلك في عام 2025. ويتوقع التقرير أيضًا أنه بحلول عام 2027، ستستخدم حوالي نصف الشركات الوكلاء. وهذا يوضح أنه على الرغم من اهتمام الشركات بشكل واضح بوكلاء الذكاء الاصطناعي، إلا أنها لا تتبنى تكنولوجيا الذكاء الاصطناعي بنفس معدل حدوث الابتكار في الذكاء الاصطناعي.
من المحتمل أن تأمل Nvidia أن تؤدي مثل هذه المبادرات إلى جعل اعتماد عوامل الذكاء الاصطناعي أكثر أمانًا وأقل تجريبية. سيحدد الوقت ما إذا كان هذا صحيحًا بالفعل.
Source link