تصبح مقاطع فيديو DeepFake مروعة

جعل باحثون من مالك Tiktok Bytedance نظام AI الجديد ، omnihuman-1قد يولد مقاطع فيديو DeepFake الأكثر واقعية حتى الآن.
الذكاء الاصطناعى المزيفة هي سلعة. لا يوجد نقص في التطبيقات التي يمكنها إدراج شخص ما في صورة ، أو يبدو أن شخصًا ما يقول شيئًا لم يقله حقًا. لكن معظم الأرداف العميقة – وزبدة الفيديو على وجه الخصوص – تفشل في محو الوادي الغريب. هناك عمومًا علامة تكشف أو واضحة على أن الذكاء الاصطناعي كان متورطًا في مكان ما.
ليس هذا هو الحال مع Omnihuman -1 – على الأقل من العينات التي اختارها الكرز الذي نشره فريق Bytedance.
فيما يلي أداء وهمي لتايلور سويفت:
فيما يلي محادثة تيد لم تحدث أبدًا:
وهنا مؤتمر آينشتاين على النار العميقة:
وفقًا للباحثين من Bytedance ، يحتاج Omnihuman-1 إلى صورة مرجعية واحدة فقط وصوت ، مثل الكلام أو الصوت ، لإنشاء مقطع فيديو. يكون تقرير ظهور مقطع الفيديو الإخراج قابل للتعديل ، وكذلك “النسبة الجسدية” للموضوع-وهذا يعني أن كمية أجسامهم المشار إليها في المقطع الخاطئ.
يمكن لـ Omnihuman-1 أيضًا تعديل مقاطع الفيديو الموجودة ، حتى تعديل حركات الشخص. إنه لأمر مدهش حقًا أن نرى مدى إقناع النتيجة:
من المسلم به أن Omnihuman-1 ليس مثاليًا. يقول فريق Bytedance أن الصور المرجعية “ذات الجودة المنخفضة” لن تنتج أفضل مقاطع الفيديو ، ويبدو أن النظام يقاتل مع بعض الأشكال. لاحظ الإيماءات الغريبة مع زجاج النبيذ في هذا الفيديو:
ومع ذلك ، فإن Omnihuman-1 هو الرؤوس والكتفين فوق التقنيات السابقة DeepFake ، وقد يكون هذا علامة على الأشياء القادمة. على الرغم من أن Bytedance لم ينشر النظام ، إلا أن مجتمع الذكاء الاصطناعى يميل إلى عدم قضاء بعض الوقت في مهندس العكس مثل هذه.
الآثار المترتبة عليها.
في العام الماضي ، انتشرت الأعماق السياسية مثل حرائق الغابات في جميع أنحاء العالم. يوم الانتخابات في تايوان ، مجموعة تابعة للحزب الشيوعي الصيني نشر الصوت الذي يركز على المعينين والخادعين من السياسي الذي يطلق دعمه وراء مرشح مؤيد للدينينا. في مولدوفا ، استقالت مقاطع فيديو Deepfake رئيس البلاد ، Maia Sandu. وفي جنوب إفريقيا ، غير عميق تم توزيع مغني الراب إيمينيم الذي يدعم حزب معارضة جنوب إفريقيا قبل انتخابات البلاد.
كما تستخدم Deepfakes بشكل متزايد لجعل الجرائم المالية. المستهلكون مستحقون بأرداف مشاهير عميقة تقديم فرص استثمارية احتيالية ، بينما يتم الاحتيال على الشركات على الملايين من قبل المقلدين Deepfake. وفق دوليساهم المحتوى الناتج عن الذكاء الاصطناعى في خسارة الاحتيال أكثر من 12 مليار دولار في عام 2023 ويمكن أن يصل إلى 40 مليار دولار في الولايات المتحدة بحلول عام 2027.
في فبراير الماضي ، المئات في مجتمع الذكاء الاصطناعي وقعت رسالة مفتوحة تدعو إلى عمق صارم مستعمرة. في حالة عدم وجود قانون يجرم الطوف العميق على المستوى الفيدرالي في الولايات المتحدة ، أصدرت أكثر من 10 ولايات قوانين ضد الهوية التي ساعدها الذكاء الاصطناعي. قانون كاليفورنيا – حاليا في محايد – سيكون أول من يمنح القضاة ليكونوا قادرين على طلب ملصقات Deepfakes لإطلاق النار عليها أو المحتمل أمام العقوبات النقدية.
لسوء الحظ ، من الصعب اكتشاف DeepFakes. بينما بعض الشبكات الاجتماعية و محركات البحث اتخذت تدابير للحد من انتشارها ، يستمر حجم محتوى DeepFake عبر الإنترنت في النمو بمعدل ينذر بالخطر.
في التحقيق في مايو 2024 من شركة التحقق من تحديد هوية Jumio ، قال 60 ٪ من الناس إنهم التقوا بفوكيفاك في العام الماضي. قال اثنان وستون في المائة من المجيبين في الاستطلاع إنهم كانوا قلقين بشأن اليومية الدائمة من قبل Deepfakes ، في حين دعمت الأغلبية تشريعًا لمحاربة انتشار التزوير الناتجة عن الذكاء الاصطناعى.
Source link