الهند تلغي خطة لطلب الموافقة على إطلاق نماذج الذكاء الاصطناعي
الهند تعود إلى أ الرأي الأخير حول منظمة العفو الدولية بعد تلقيه انتقادات من العديد من رجال الأعمال والمستثمرين المحليين والعالميين.
شاركت وزارة الإلكترونيات وتكنولوجيا المعلومات يوم الجمعة استشارة محدثة بشأن الذكاء الاصطناعي مع أصحاب المصلحة في الصناعة، والتي لم تعد تتطلب منهم الحصول على موافقة الحكومة قبل الإطلاق أو نشر نموذج الذكاء الاصطناعي للمستخدمين في سوق جنوب آسيا.
وبموجب المبادئ التوجيهية المنقحة، تُنصح الشركات بدلاً من ذلك بتسمية نماذج الذكاء الاصطناعي التي لم يتم اختبارها بعد وغير الموثوقة لإبلاغ المستخدمين باحتمالية تعرضهم للخطأ أو عدم موثوقيتهم.
وتأتي المراجعة بعد انتقادات شديدة وجهتها إلى وزارة تكنولوجيا المعلومات الهندية في وقت سابق من هذا الشهر من قبل العديد من الشخصيات البارزة. ووصف مارتن كاسادو، الشريك في شركة رأس المال الاستثماري أندريسن هورويتز، قرار الهند بأنه “محاكاة ساخرة”.
يمثل إشعار الأول من مارس أيضًا تراجعًا عن نهج عدم التدخل الذي اتبعته الهند في تنظيم الذكاء الاصطناعي. منذ أقل من عام، كانت الوزارة رفض تنظيم نمو الذكاء الاصطناعيتحديد القطاع باعتباره حيويا للمصالح الاستراتيجية للهند.
لم يتم نشر الإشعار الجديد، مثل الإشعار الأصلي الذي صدر في وقت سابق من هذا الشهر، عبر الإنترنت، ولكن قامت TechCrunch بمراجعة نسخة.
وقالت الوزارة في وقت سابق من هذا الشهر إنه على الرغم من أن النصيحة ليست ملزمة قانونا، إلا أنها تشير إلى أنها “مستقبل التنظيم” وأن الحكومة تطلب تنفيذها.
تؤكد الاستشارة على أنه لا ينبغي استخدام نماذج الذكاء الاصطناعي لمشاركة محتوى غير قانوني بموجب القانون الهندي، ويجب ألا تتيح التحيز أو التمييز أو التهديد لنزاهة العملية الانتخابية. يُنصح الوسطاء أيضًا باستخدام “النوافذ المنبثقة للموافقة” أو آليات مماثلة لإبلاغ المستخدمين صراحةً بعدم موثوقية النتائج الناتجة عن الذكاء الاصطناعي.
وواصلت الوزارة ضمان سهولة التعرف على التزييف العميق والمعلومات المضللة، ونصحت الوسطاء بوضع علامات أو تضمين المحتوى باستخدام البيانات الوصفية أو المعرفات الفريدة. ولم يعد هذا يتطلب من الشركات ابتكار تقنية لتحديد “مؤلف” رسالة معينة.
Source link