أرسلت المفوضية الأوروبية سلسلة من الطلبات الرسمية للحصول على معلومات (RFI) إلى Google وMeta وMicrosoft وSnap وTikTok وX حول كيفية إدارة المخاطر المرتبطة باستخدام الذكاء الاصطناعي التوليدي.
الطلبات المتعلقة بـ Bing وFacebook وGoogle Search وInstagram وSnapchat وTikTok وYouTube والحظر. تم تصنيف المنصات الثمانية على أنها منصات كبيرة جدًا عبر الإنترنت (VLOPs) بموجب اللائحة، مما يعني أنها مطالبة بتقييم وتخفيف المخاطر النظامية، بالإضافة إلى الامتثال لبقية القواعد.
في بيان صحفي يوم الخميس، قالت المفوضية إنها طلبت منهم تقديم مزيد من المعلومات حول تدابير التخفيف من المخاطر المتعلقة بالذكاء الاصطناعي التوليدي على خدماتهم – بما في ذلك ما يتعلق بما يسمى “الهلوسة” حيث تولد تقنيات الذكاء الاصطناعي معلومات كاذبة؛ والانتشار الفيروسي للتزييف العميق؛ والتلاعب الآلي بالخدمات التي يمكن أن تضلل الناخبين.
“تطلب المفوضية أيضًا معلومات ووثائق داخلية حول تقييمات المخاطر وتدابير التخفيف المتعلقة بتأثير الذكاء الاصطناعي التوليدي على العمليات الانتخابية، ونشر المحتوى غير القانوني، وحماية الحقوق الأساسية، والعنف القائم على النوع الاجتماعي، وحماية القاصرين والصحة العقلية. . وأضافت المفوضية، مؤكدة أن الأسئلة تتعلق “بنشر وإنشاء محتوى توليدي للذكاء الاصطناعي”.
وفي مؤتمر صحفي مع الصحفيين، أعلن الاتحاد الأوروبي أيضًا أنه يخطط لإجراء سلسلة من اختبارات التحمل، والتي من المتوقع إجراؤها بعد عيد الفصح. ستختبر هذه الاختبارات قدرة المنصات على التعامل مع المخاطر الناتجة عن الذكاء الاصطناعي، مثل احتمال حدوث طوفان من التزييف السياسي العميق قبل الانتخابات الأوروبية في يونيو.
وقال مسؤول كبير في الحكومة: “نريد أن ندفع المنصات لتخبرنا بما تفعله لتكون مستعدة قدر الإمكان… لأي حوادث قد نكتشفها والتي سيتعين علينا الرد عليها مع اقتراب الانتخابات”. اللجنة، متحدثة بشرط عدم الكشف عن هويتها.
وقد حدد الاتحاد الأوروبي، الذي يشرف على امتثال VLOPs لقواعد DSA الخاصة بالتكنولوجيا الكبيرة، أمن الانتخابات باعتباره أحد المجالات ذات الأولوية للتنفيذ. إنها تمت التشاور معه مؤخرًا بشأن قواعد أمن الانتخابات لـ VLOPs، حيث تعمل على إنتاج إرشادات رسمية.
وتهدف طلبات اليوم جزئياً إلى دعم هذه التوجهات، بحسب المفوضية. ومع ذلك، أمام المنصات مهلة حتى 3 أبريل/نيسان لتقديم المعلومات المتعلقة بحماية الانتخابات، وهو ما يوصف بأنه طلب “عاجل”. لكن الاتحاد الأوروبي قال إنه يأمل في وضع اللمسات الأخيرة على المبادئ التوجيهية لأمن الانتخابات قبل الموعد المحدد، بحلول 27 مارس/آذار.
ولاحظت اللجنة أن تكلفة إنتاج المحتوى الاصطناعي آخذة في الانخفاض بشكل كبير، مما يزيد من مخاطر التزييف المضلل أثناء الانتخابات. ولهذا السبب يلفت الانتباه إلى المنصات الرئيسية القادرة على نشر التزييف السياسي العميق على نطاق واسع.
صناعة تكنولوجية اتفاق إن معالجة الاستخدام المضلل للذكاء الاصطناعي في الانتخابات التي أعقبت مؤتمر ميونيخ الأمني الشهر الماضي، بدعم من عدد من المنصات التي ترسل المفوضية عليها حاليا طلبات المعلومات، لا يقطع شوطا كافيا في نظر الاتحاد الأوروبي.
وقال مسؤول في المفوضية إن توجيهاتها التالية بشأن أمن الانتخابات ستذهب “إلى أبعد من ذلك بكثير”، مما يسلط الضوء على الضربة الثلاثية للضمانات التي تخطط لاستغلالها: بدءاً من “قواعد العناية الواجبة الواضحة والمعقولة” لقانون ضمان الأداء، والتي تمنحها القدرة على استهداف “محددين” حالات الخطر”. ; مدموج مع أكثر من خمس سنوات من الخبرة للعمل مع المنصات عبر (غير ملزم قانونًا) مدونة الممارسات الجيدة لمكافحة التضليل والتي يريد الاتحاد الأوروبي أن تصبح مدونة سلوك بموجب قانون الإقامة اليومي؛ و- في الأفق- وضع العلامات على قواعد الشفافية/وضع العلامات على نماذج الذكاء الاصطناعي بموجب قانون الذكاء الاصطناعي الجديد.
وأضاف المسؤول أن هدف الاتحاد الأوروبي هو بناء “نظام بيئي لهياكل السيطرة” التي يمكن الاستفادة منها في الفترة التي تسبق الانتخابات.
تهدف طلبات المفوضية للحصول على المعلومات اليوم أيضًا إلى معالجة نطاق أوسع من مخاطر الذكاء الاصطناعي التوليدي أكثر من التلاعب بالناخبين، مثل الأضرار المرتبطة بالمواد الإباحية المزيفة أو الأنواع الأخرى من المحتوى الاصطناعي التوليدي الذي يعتمد على الذكاء الاصطناعي، سواء كان المحتوى المنتج عبارة عن صور/مقاطع فيديو أو صوت. تعكس هذه الطلبات مجالات الأولوية الأخرى لإنفاذ قانون DSA في الاتحاد الأوروبي على VLOPs، والتي تشمل المخاطر المتعلقة بالمحتوى غير القانوني (مثل خطاب الكراهية) وحماية الأطفال.
لدى المنصات مهلة حتى 24 أبريل لتقديم استجابات لهذه التساؤلات الأخرى المتعلقة بالذكاء الاصطناعي.
إن المنصات الصغيرة التي يمكن من خلالها توزيع مواد مزيفة خادعة وخبيثة وضارة، فضلا عن صانعي أدوات الذكاء الاصطناعي الصغيرة القادرة على تمكين توليد وسائط اصطناعية منخفضة التكلفة، هي أيضا على رادار الاتحاد الأوروبي فيما يتعلق بتخفيف المخاطر.
لن تندرج هذه المنصات والأدوات ضمن مراقبة DSA الصريحة لـ VLOPs. لكن استراتيجيتها لتوسيع تأثيرها تتلخص في ممارسة الضغوط بشكل غير مباشر، من خلال منصات أوسع (والتي يمكن أن تكون بمثابة مكبرات الصوت و/أو قنوات التوزيع في هذا السياق)؛ ومن خلال آليات التنظيم الذاتي، مثل قانون المعلومات الخاطئة المذكور أعلاه؛ و ال ميثاق منظمة العفو الدوليةوالتي ينبغي أن تدخل حيز التنفيذ قريبًا بمجرد (نفاذ القانون) قانون الذكاء الاصطناعي تم اعتماده (متوقع في غضون بضعة أشهر).
Source link