يتخذ موقع Reddit موقفًا ضد شركات الذكاء الاصطناعي، أو على الأقل يطالبها بالدفع.
وفي وقت سابق من هذا الأسبوع، أعلن رديت أنه يعدل بروتوكول استبعاد الروبوت الخاص به، والمعروف أيضًا باسم ملف robots.txt. يعد هذا التغيير شديد اللهجة جزءًا من مفاوضات/معركة أكبر بين شركات الذكاء الاصطناعي المتعطشة للمحتوى الذي يمكنها استخدامه لتدريب نماذجها اللغوية، والشركات التي تمتلك هذا المحتوى بالفعل.
“Robots.txt” هو الطريقة التي تتواصل بها مواقع الويب مع أطراف ثالثة حول كيفية الزحف إلى موقع الويب – والمثال الكلاسيكي هو مواقع الويب التي تسمح لـ Google بالزحف إليها حتى يمكن تضمينها في نتائج البحث.
وفي حالة الذكاء الاصطناعي، فإن تبادل القيمة أقل وضوحًا بكثير. عندما تقوم بتشغيل موقع ويب نموذج أعماله هو جذب النقرات ومقل العيون، فليس هناك فائدة كبيرة من السماح لشركات الذكاء الاصطناعي باستخلاص المحتوى الخاص بك دون إرسال حركة مرور إليك – وفي بعض الحالات، يقومون بسرقة عملك بشكل صريح.
لذلك من خلال تعديل ملف robots.txt الخاص به، وكذلك من خلال الاستمرار في تقييد وحظر الروبوتات والزواحف غير المعروفة، يبدو أن Reddit يعمل على منع الممارسات التي تحبها الشركات تم انتقاد الذكاء الاصطناعي الخاص بـ Perplexity بسببه.
اضغط على زر التشغيل لمعرفة المزيد، ثم أخبرنا برأيك في التعليقات!
Source link