ميتا تعلق خطة تدريب الذكاء الاصطناعي باستخدام بيانات المستخدم الأوروبية، رضوخًا للضغوط التنظيمية
ميتا أ مؤكد أنها ستعلق خططها لبدء تدريب أنظمة الذكاء الاصطناعي الخاصة بها باستخدام بيانات من مستخدميها في الاتحاد الأوروبي والمملكة المتحدة
وتأتي هذه الخطوة في أعقاب إحجام لجنة حماية البيانات الأيرلندية (DPC)، الجهة التنظيمية الرئيسية لشركة Meta في الاتحاد الأوروبي، والتي تعمل نيابة عن العديد من سلطات حماية البيانات (DPAs) عبر الكتلة. مكتب مفوض المعلومات في المملكة المتحدة (ICO) سأل أيضا أن ميتا أوقف خططه حتى يتمكن من معالجة المخاوف التي أثارها.
وقالت DPC في بيان لها: “ترحب DPC بقرار Meta بتعليق خططها لتدريب نموذجها اللغوي الكبير باستخدام المحتوى العام الذي يشاركه البالغين على Facebook وInstagram في الاتحاد الأوروبي/المنطقة الاقتصادية الأوروبية”. إفادة اليوم. “يأتي هذا القرار بعد مشاركة مكثفة بين DPC وMeta. ستواصل DPC، بالتعاون مع سلطات حماية البيانات الأوروبية الأخرى، التعاون مع Meta بشأن هذه المشكلة.
بينما ميتا بالفعل الاستفادة من المحتوى الذي ينشئه المستخدم لتدريب الذكاء الاصطناعي الخاص به في الأسواق مثل الولايات المتحدة، والقواعد الصارمة في أوروبا لوائح اللائحة العامة لحماية البيانات خلقت عقبات أمام شركة ميتا – وغيرها من الشركات – التي تتطلع إلى تحسين أنظمة الذكاء الاصطناعي الخاصة بها من خلال مواد تدريبية أنشأها المستخدمون.
ومع ذلك، بدأت Meta في إخطار المستخدمين بـ التغيير في المستقبل لسياسة الخصوصية الخاصة بها الشهر الماضي، والتي تقول إنها ستمنحها الحق في استخدام المحتوى العام على Facebook وInstagram لتدريب الذكاء الاصطناعي الخاص بها، بما في ذلك محتوى التعليقات والتفاعلات مع الشركات وحالة التحديثات والصور والتسميات التوضيحية المرتبطة بها. مقاولة جادل بأنه ينبغي القيام به لتعكس “اللغات والجغرافيات والمراجع الثقافية المتنوعة لشعوب أوروبا”.
وكان من المقرر أن تدخل هذه التغييرات حيز التنفيذ في 26 يونيو 2024، بعد 12 يومًا. لكن الخطط حفز منظمة غير ربحية تدافع عن الخصوصية نويب (“ليس من شأنك”) تقديم 11 شكوى إلى الدول الأعضاء في الاتحاد الأوروبي، بحجة أن Meta تتعارض مع جوانب مختلفة من اللائحة العامة لحماية البيانات. إحداها تتعلق بمسألة العضوية أو عدم المشاركة، بالنسبة عند معالجة البيانات الشخصية، يجب أولاً مطالبة المستخدمين بالحصول على إذنهم بدلاً من المطالبة باتخاذ إجراء للرفض.
من جانبها، اعتمدت ميتا على بند في اللائحة العامة لحماية البيانات يسمى “المصلحة المشروعة” للتأكيد على أن أفعالها تتوافق مع اللوائح. وهذه ليست المرة الأولى التي تستخدم فيها ميتا هذا الأساس القانوني في الدفاع، لقد فعلت ذلك بالفعل لتبرير معالجة المستخدمين الأوروبيين لأغراض إعلانية مستهدفة.
بدا دائمًا من المحتمل أن يقوم المنظمون على الأقل بإيقاف تنفيذ التغييرات المخطط لها من قبل Meta، خاصة بالنظر إلى مدى الصعوبة التي جعلتها الشركة على المستخدمين “إلغاء الاشتراك” في استخدام بياناتهم. تدعي الشركة أنها أرسلت أكثر من 2 مليار إشعار لإعلام المستخدمين بالتغييرات القادمة، ولكن على عكس الرسائل العامة المهمة الأخرى الموضوعة في الجزء العلوي من خلاصات المستخدم، مثل يدعوكم للخروج والتصويت، ظهرت هذه الإشعارات جنبًا إلى جنب مع إشعارات المستخدم القياسية: أعياد ميلاد الأصدقاء، وتنبيهات علامات الصور، وإعلانات المجموعات، وما إلى ذلك. لذا، إذا لم يتحقق شخص ما من إشعاراته بانتظام، فمن السهل جدًا تفويتها.
وأولئك الذين يرون الإشعار لن يعرفوا تلقائيًا أن هناك طريقة لإلغاء الاشتراك أو إلغاء الاشتراك، لأنه ببساطة يطالب المستخدمين بالنقر لمعرفة كيفية استخدام Meta لمعلوماتهم. ليس هناك ما يشير إلى وجود خيار هنا.
بالإضافة إلى ذلك، لم يتمكن المستخدمون من الناحية الفنية من “إلغاء الاشتراك” في استخدام بياناتهم. بدلاً من ذلك، كان عليهم ملء نموذج اعتراض يوضحون فيه حججهم حول سبب رغبتهم في إلغاء الاشتراك – كان الأمر متروكًا تمامًا لتقدير Meta فيما إذا تم تلبية هذا الطلب، على الرغم من أن الشركة قالت إنها ستحترم كل طلب.
على الرغم من أن نموذج الاعتراض مرتبط بالإشعار نفسه، إلا أن أي شخص يبحث بشكل استباقي عن نموذج الاعتراض في إعدادات حسابه كان عليه النقر فوق ستة روابط منفصلة وغير واضحة للوصول إليه، ويتم وضع رابط “الحق في الاعتراض” بشكل سري في 1100 كلمة . في الذكاء الاصطناعي التوليدي صفحة السياسة.
عندما سئل لماذا تتطلب هذه العملية من المستخدم تقديم اعتراض، بدلا من التسجيل، مدير الاتصالات السياسية في ميتا مات بولارد أشار TechCrunch إلى موقعه مشاركة المدونة الحاليةوالتي تنص على ما يلي: “نعتقد أن هذا الأساس القانوني يوفر التوازن الأنسب لمعالجة البيانات العامة على النطاق اللازم لتدريب نماذج الذكاء الاصطناعي، مع احترام حقوق الأشخاص. »
لتفسير ذلك بطريقة أخرى، من المحتمل ألا يؤدي إجراء هذا الاختيار إلى توليد “نطاق” كافٍ من حيث الأشخاص الراغبين في تقديم بياناتهم. لذا يبدو أن أفضل طريقة للتغلب على هذه المشكلة هي إصدار إشعار واحد بين إشعارات المستخدم الأخرى؛ إخفاء نموذج الاعتراض خلف ست نقرات لأولئك الذين يسعون إلى “إلغاء الاشتراك” بشكل مستقل؛ ثم اطلب منهم تبرير اعتراضهم، بدلاً من منحهم حق الانسحاب المباشر.
في مشاركة مدونة محدثة اليوم، قال ستيفانو فراتا، المدير العالمي لسياسة الخصوصية في Meta، إنه يشعر “بخيبة الأمل” بسبب الطلب الذي تلقاه من DPC.
وكتب فراتا: “هذه خطوة إلى الوراء بالنسبة للابتكار الأوروبي، والمنافسة في تطوير الذكاء الاصطناعي، ومزيد من التأخير في جلب فوائد الذكاء الاصطناعي للمواطنين الأوروبيين”. “نحن واثقون من أن نهجنا يتوافق مع القوانين واللوائح الأوروبية. إن التدريب على الذكاء الاصطناعي لا يقتصر على خدماتنا، ونحن أكثر شفافية من العديد من أقراننا في الصناعة.
Source link