تشفير

يحذر خبراء الخصوصية من أن الذكاء الاصطناعي لتحليل المكالمات من Google قد يمكّن الرقابة بشكل افتراضي

إحدى ميزات جوجل تم عرضه في مؤتمر I/O أمس، باستخدام تقنية الذكاء الاصطناعي التوليدية الخاصة بها لتحليل المكالمات الصوتية في الوقت الفعلي لأنماط المحادثة المرتبطة بعمليات الاحتيال المالي، أرسلت الرعشات بشكل جماعي بين خبراء الخصوصية والأمن الذين حذروا من أن الميزة لا تمثل سوى نهاية الخندق. ويحذرون من أنه بمجرد دمج التحليلات من جانب العميل في البنية التحتية للهاتف المحمول، فقد يكون ذلك إيذانا بعصر من الرقابة المركزية.

عرض جوجل لميزة الكشف عن المكالمات الاحتيالية، والتي قال عملاق التكنولوجيا إنه سيتم دمجها في الإصدار المستقبلي من نظام التشغيل أندرويد الخاص بها – المتوقع أن يعمل على حوالي ثلاثة أرباع الهواتف الذكية في العالم – مدعوم من الجوزاء نانوأصغر جيل من نماذج الذكاء الاصطناعي الحالية المخصصة للتشغيل بالكامل على الجهاز.

هذا هو في الأساس تحليل من جانب العميل: وهي تقنية ناشئة أثارت جدلاً هائلاً في السنوات الأخيرة فيما يتعلق بالجهود المبذولة لاكتشاف محتوى الاعتداء الجنسي على الأطفال (CSAM) أو حتى نشاط الاستمالة على منصات المراسلة.

ألغت Apple خطة لنشر التحليلات من جانب العميل لـ CSAM في عام 2021 بعد رد الفعل العنيف بشأن الخصوصية. لكن وواصل صناع السياسات الضغط في صناعة التكنولوجيا لإيجاد طرق للكشف عن الأنشطة غير القانونية التي تحدث على منصاتهم. وبالتالي فإن أي تحرك في الصناعة لتطوير البنية التحتية للتحليلات على الجهاز يمكن أن يمهد الطريق لجميع أنواع تحليلات المحتوى الافتراضية، سواء كانت بقيادة الحكومة أو مرتبطة بأجندة تجارية معينة.

قم بالرد على العرض التوضيحي لتحليلات المكالمات من Google في نشر علىوحذرت ميريديث ويتاكر، رئيسة تطبيق المراسلة المشفرة Signal ومقره الولايات المتحدة، من أن هذا أمر خطير للغاية. إنه يمهد الطريق للتحليل المركزي من جانب العميل على مستوى الجهاز.

“إنها خطوة قصيرة من اكتشاف “عمليات الاحتيال” إلى “اكتشاف الأنماط المرتبطة عادةً بطلب الرعاية الإنجابية” أو “المرتبطة عادةً بتوفير موارد LGBTQ” أو “المرتبطة عادةً بإدانة العاملين في مجال التكنولوجيا”.

وخبير التشفير ماثيو جرين، والأستاذ بجامعة جونز هوبكنز أيضًا مأخوذ عند لرفع ناقوس الخطر. وحذر قائلاً: “في المستقبل، ستتوصل نماذج الذكاء الاصطناعي إلى استنتاجات حول رسائلك النصية ومكالماتك الصوتية لاكتشاف السلوك غير المشروع والإبلاغ عنه”. “لكي تمر بياناتك عبر مقدمي الخدمة، ستحتاج إلى إرفاق إثبات المعرفة الصفرية بأنه تم إجراء التحليل. سيؤدي هذا إلى حظر العملاء المفتوحين.

اقترح جرين أن هذا المستقبل البائس للرقابة بشكل افتراضي لن يكون ممكنًا من الناحية الفنية إلا في غضون سنوات قليلة. “لا نزال بعيدين عن أن تكون هذه التكنولوجيا فعالة بما يكفي ليتم تنفيذها، ولكن على بعد سنوات قليلة فقط. واقترح عقدًا على الأكثر.

وسارع خبراء الخصوصية والأمن الأوروبيون إلى الاعتراض.

الرد على العرض التوضيحي لجوجل على، أشاد Lukasz Olejnik، وهو باحث مستقل ومستشار مقيم في بولندا في قضايا الخصوصية والأمن، بميزة مكافحة الاحتيال التي تقدمها الشركة، لكنه حذر من إمكانية إعادة استخدام البنية التحتية لأغراض المراقبة الاجتماعية. “(ج) يعني أيضًا أن القدرات التقنية قد تم تطويرها بالفعل أو يجري تطويرها لمراقبة المكالمات أو إنشاء أو تنقيح النصوص أو المستندات، على سبيل المثال المحتوى غير القانوني أو الضار أو الذي يحض على الكراهية أو المحتوى غير المرغوب فيه أو الجائر – عندما يتعلق الأمر بمعايير شخص ما ،” هو كتب.

“للمضي قدمًا، يمكن لمثل هذا النموذج، على سبيل المثال، عرض تحذير. “أو منع إمكانية الاستمرار”، تابع أوليجنيك بشكل مؤكد. “أو أبلغ عنه في مكان ما.” التعديل التكنولوجي للسلوك الاجتماعي، أو ما شابه ذلك. ويشكل هذا تهديدًا كبيرًا للخصوصية، ولكن أيضًا لعدد من القيم والحريات الأساسية. القدرات موجودة بالفعل.

وفي توضيح لمخاوفه، قال أولينيك لـ TechCrunch: “لم أر التفاصيل الفنية ولكن جوجل تؤكد أن الكشف سيتم على الجهاز. وهذا شيء عظيم بالنسبة لخصوصية المستخدم. ومع ذلك، فإن القضايا تتجاوز الخصوصية. يوضح هذا كيف يمكن استخدام الذكاء الاصطناعي/LLMs المدمج في البرامج وأنظمة التشغيل لاكتشاف أشكال مختلفة من النشاط البشري أو التحكم فيها.

يوضح هذا كيف يمكن استخدام الذكاء الاصطناعي/LLMs المدمج في البرامج وأنظمة التشغيل لاكتشاف أشكال مختلفة من النشاط البشري أو التحكم فيها.

لوكاش أولينيك

“حتى الآن، لحسن الحظ، الأمور تسير على ما يرام. ولكن ماذا سيحدث إذا كانت القدرة الفنية موجودة ومتكاملة؟ تشير مثل هذه القدرات القوية إلى مخاطر مستقبلية محتملة تتعلق بالقدرة على استخدام الذكاء الاصطناعي للتحكم في سلوك الشركات على نطاق واسع أو بشكل انتقائي. ربما تكون هذه واحدة من أخطر قدرات الكمبيوتر التي تم تطويرها على الإطلاق. ونحن نقترب من هذه النقطة. كيف يمكننا إدارة هذا؟ هل نحن ذاهبون بعيدا جدا؟

كما أثار مايكل فيل، الأستاذ المساعد لقانون التكنولوجيا في جامعة كاليفورنيا، شبحًا مخيفًا للزحف الوظيفي الناشئ عن تحليل الذكاء الاصطناعي لمحادثات جوجل – وهو تحذير ردًا على ذلك. نشر على أنها “تبني بنية تحتية للتحليلات من جانب العميل على الجهاز لأغراض أخرى غير هذه، والتي سيرغب المنظمون والمشرعون في إساءة استخدامها”.

لدى خبراء الخصوصية الأوروبيين أسباب خاصة للقلق: فقد طرح الاتحاد الأوروبي على الطاولة اقتراحًا تشريعيًا مثيرًا للجدل بشأن تحليل الرسائل، منذ عام 2022ما التقييمات… بما في ذلك وحدة تحكم حماية البيانات الخاصة بالكتلة – يمثل التحذير نقطة تحول بالنسبة للحقوق الديمقراطية في المنطقة لأنه سيجبر المنصات على تحليل الرسائل الخاصة بشكل افتراضي.

على الرغم من أن الاقتراح التشريعي الحالي يدعي أنه لا يلتزم بالتكنولوجيا، فمن المتوقع على نطاق واسع أن مثل هذا القانون من شأنه أن يقود المنصات إلى نشر تحليلات من جانب العميل حتى تتمكن من الاستجابة لما يسمى “أمر الكشف” الذي يتطلب اكتشاف كل من المعلومات المعروفة. ومعلومات غير معروفة. CSAM ويلتقط أيضًا نشاط الاستمالة في الوقت الفعلي.

مسبقا في هذا الشهروقد كتب المئات من خبراء الخصوصية والأمن رسالة مفتوحة يحذرون فيها من أن الخطة يمكن أن تؤدي إلى ملايين من النتائج الإيجابية الكاذبة يوميًا، نظرًا لأن تقنيات التحليلات من جانب العميل التي من المحتمل أن يتم نشرها بواسطة المنصات استجابة لأمر قانوني، لم يتم اختبارها ومعيبة بشدة. ومعرضة للهجمات.

تم الاتصال بشركة Google لمعالجة المخاوف من أن الذكاء الاصطناعي لتحليل المحادثات الخاص بها قد ينتهك خصوصية الأشخاص، لكنها لم تستجب حتى وقت كتابة المقالة.




Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى