ينتشر المحتوى الإباحي للأطفال الذي أنشأه الذكاء الاصطناعي على شبكة الإنترنت المظلمة. التكنولوجيا الكبرى
الذكاء الاصطناعي التوليدي يؤدي إلى تفاقم مشكلة مواد الاعتداء الجنسي على الأطفال عبر الإنترنت (CSAM)، تقرير هيئات المراقبة انتشار المحتوى المزيف العميق يضم لقطات لضحايا حقيقيين.
نشرته المملكة المتحدة مؤسسة مراقبة الإنترنت (IWF)وأشار التقرير إلى زيادة كبيرة في الصور المعدلة رقميًا أو الاصطناعية بالكامل والتي تظهر الأطفال في سيناريوهات صريحة، حيث شارك أحد المنتديات 3512 صورة ومقطع فيديو على مدار 30 يومًا. وكان أغلبهم من الفتيات الصغيرات. وقد تم أيضًا توثيق المجرمين بشأن تبادل النصائح وحتى نماذج الذكاء الاصطناعي المدعومة بلقطات حقيقية مع بعضهم البعض.
كتبت سوزي هارجريفز، الرئيس التنفيذي للاتحاد الدولي لرفع الأثقال: “بدون الضوابط المناسبة، توفر أدوات الذكاء الاصطناعي التوليدية ملعبًا للمحتالين عبر الإنترنت لتحقيق خيالاتهم الأكثر انحرافًا ومثير للاشمئزاز”. “حتى الآن، بدأ IWF يرى المزيد والمزيد من هذا النوع من المواد يتم مشاركتها وبيعها على مواقع الاعتداء الجنسي على الأطفال التجارية عبر الإنترنت. »
ووفقًا للدراسة، زادت صور الاعتداء الجنسي على الأطفال المعدلة بواسطة الذكاء الاصطناعي بنسبة 17% منذ خريف عام 2023، إلى جانب زيادة مفاجئة في المحتوى الذي يعرض أفعالًا جنسية متطرفة وصريحة. يتضمن هذا المحتوى مواد إباحية للبالغين تم تحريرها لإظهار وجه طفل، بالإضافة إلى مواد الاعتداء الجنسي على الأطفال الموجودة والتي تم تحريرها رقميًا مع صورة طفل آخر فوقها.
وكتب IWF: “يسلط التقرير الضوء أيضًا على مدى سرعة تحسن التكنولوجيا في قدرتها على إنشاء مقاطع فيديو اصطناعية بالكامل تعمل بالذكاء الاصطناعي لمحتوى إباحي للأطفال”. “على الرغم من أن هذه الأنواع من مقاطع الفيديو ليست متطورة بما يكفي حتى الآن لتمريرها كفيديوهات اعتداء جنسي حقيقي على الأطفال، إلا أن المحللين يقولون إن هذه هي النتيجة “الأسوأ” التي يمكن أن ينتجها فيديو اصطناعي بالكامل. ستجعل التطورات في الذكاء الاصطناعي قريبًا من الممكن إنتاج مقاطع فيديو أكثر واقعية، بنفس الطريقة التي أصبحت بها الصور الثابتة واقعية. »
في تحليل 12000 نموذج جديد تم إنشاؤه بواسطة الذكاء الاصطناعي صور تم نشرها في منتدى على شبكة الإنترنت المظلمة على مدار شهر، وكانت 90% منها واقعية بدرجة كافية ليتم تقييمها بموجب القوانين الحالية فيما يتعلق بـ CSAM الحقيقي، وفقًا لمحللي IWF.
سرعة الضوء ماشابل
تقرير مراقبة بريطاني آخر نُشر في وصي اليوم, تدعي أن أبل نقص كبير في الإبلاغ تثير كمية المواد الإباحية المتعلقة بالأطفال التي تتم مشاركتها من خلال منتجاتها مخاوف بشأن كيفية تعامل الشركة مع المحتوى الذي تم إنشاؤه باستخدام الذكاء الاصطناعي التوليدي. كجزء من تحقيقاتها، قامت الجمعية الوطنية لمنع القسوة على الأطفال (NSPCC) بمقارنة الأرقام الرسمية التي نشرتها شركة Apple مع الأرقام التي تم جمعها من خلال طلبات حرية المعلومات.
بينما أبلغت شركة Apple عن 267 حالة إساءة معاملة الأطفال في جميع أنحاء العالم إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) في عام 2023، يزعم NSPCC أن الشركة متورطة في 337 جريمة إساءة معاملة الأطفال في إنجلترا وويلز وحدهما – وهذه الأرقام تتعلق فقط للفترة من أبريل 2022 إلى مارس 2023.
رفضت شركة أبل وصي طلب التعليق، مشيرًا إلى المنشور المتعلق بقرار سابق من الشركة بعدم فحص مكتبات صور iCloud بحثًا عن محتوى CSAM، في محاولة لإعطاء الأولوية لأمن المستخدم وخصوصيته. لقد تواصل Mashable أيضًا مع Apple وسيقوم بتحديث هذه المقالة إذا استجابوا.
بموجب قانون الولايات المتحدة، يتعين على شركات التكنولوجيا التي يوجد مقرها في الولايات المتحدة الإبلاغ عن حالات الاعتداء الجنسي على الأطفال إلى NCMEC. أبلغت Google عن أكثر من 1.47 مليون حالة إلى NCMEC في عام 2023. وفي مثال آخر، أزال Facebook 14.4 مليون قطعة من المحتوى للاستغلال الجنسي للأطفال بين يناير ومارس من هذا العام. على مدى السنوات الخمس الماضية، أبلغت الشركة أيضًا عن انخفاض كبير في عدد المنشورات التي تم وضع علامة عليها بسبب العري وإساءة معاملة الأطفال، لكن هيئات الرقابة البقاء على أهبة الاستعداد.
استغلال الأطفال عبر الإنترنت هو المعروف بصعوبة القتالمع استغلال الأطفال المفترسين بشكل متكرر لمنصات التواصل الاجتماعي وعيوبها السلوكية لمواصلة التفاعل مع القاصرين عبر الإنترنت. والآن، مع وجود القوة المضافة للذكاء الاصطناعي التوليدي في أيدي الجهات الفاعلة السيئة، تشتد المعركة.
لمعرفة المزيد حول تأثيرات الصور الاصطناعية غير التوافقية، اقرأ تقرير Mashable:
إذا تمت مشاركة الصور الحميمة دون موافقتك، فاتصل بالخط الساخن لمبادرة الحقوق المدنية السيبرانية على مدار الساعة طوال أيام الأسبوع على الرقم 2274-878-844 للحصول على مساعدة سرية ومجانية. يتضمن موقع CCRI أيضًا معلومات مفيدة فضلا عن قائمة الموارد الدولية.