لقد اعتذرت Google (أو على وشك الاعتذار) لشخص آخر خطأ محرج في الذكاء الاصطناعي هذا الأسبوع، نموذج لتوليد الصور حقن التنوع في الصور مع تجاهل مثير للسخرية للسياق التاريخي. ورغم أن المشكلة الأساسية مفهومة تماما، فإن جوجل تنتقد هذا النموذج لأنه “أصبح” حساسا للغاية. النموذج لم يحدث للتو يا شباب.
نظام الذكاء الاصطناعي المعني هو Gemini، منصة الذكاء الاصطناعي التحادثية الرائدة للشركة، والتي، عند سؤالها، تستدعي نسخة من صورة النموذج 2 لإنشاء الصور حسب الطلب.
ومع ذلك، اكتشف الناس مؤخرًا أن طلب إنشاء صور لظروف تاريخية معينة أو لأشخاص معينين يؤدي إلى نتائج مثيرة للضحك. على سبيل المثال، تم تقديم الآباء المؤسسين، الذين نعرف أنهم أصحاب العبيد البيض، كمجموعة متعددة الثقافات بما في ذلك الأشخاص الملونين.
وسرعان ما سخر المعلقون عبر الإنترنت من هذا الخلل المحرج وسهل التكرار. كما تم إدراجه، كما كان متوقعا، في المناقشة الجارية حول التنوع والمساواة والشمول (حاليا على الأقل من السمعة المحلية)، وتم استغلاله من قبل النقاد كدليل على الفيروس. وقد أيقظ العقل للتغلغل بشكل أكبر في قطاع التكنولوجيا الليبرالي بالفعل .
لقد جن جنون DEI، صاح المواطنون القلقون بشكل واضح. هذه هي أمريكا بايدن! “جوجل” “غرفة صدى أيديولوجي” وحصان هواية لليسار! (ويجب أن يقال إن اليسار كان منزعجاً أيضاً من هذه الظاهرة الغريبة).
ولكن كما يمكن لأي شخص مطلع على التكنولوجيا أن يخبرك، وكما أوضحت Google اليوم في منشور الاعتذار الصغير الحقير إلى حد ما، كانت هذه المشكلة نتيجة لحل بديل معقول تمامًا التحيز النظامي في بيانات التدريب.
لنفترض أنك تريد استخدام برج الجوزاء لإنشاء حملة تسويقية وتطلب منه إنشاء 10 صور “لشخص يمشي مع كلب في حديقة”. نظرًا لأنك لا تحدد نوع الشخص أو الكلب أو الحديقة، فهذا هو اختيار الموزع: سيعرض النموذج التوليدي ما يعرفه بشكل أفضل. وفي كثير من الحالات، لا يكون هذا نتاجًا للواقع، بل لبيانات التدريب، التي يمكن أن تحتوي على جميع أنواع التحيزات.
ما هي أنواع الأشخاص، وفي هذا الصدد الكلاب والحدائق، الأكثر شيوعًا في آلاف الصور ذات الصلة التي يستوعبها النموذج؟ الحقيقة هي أن الأشخاص البيض يتم تمثيلهم بشكل زائد في العديد من مجموعات الصور هذه (الصور المخزنة، والتصوير الفوتوغرافي بدون حقوق ملكية، وما إلى ذلك)، وبالتالي فإن النموذج سيكون افتراضيًا للأشخاص البيض في كثير من الحالات إذا لم تفعل ذلك. تحديد.
هذه مجرد قطعة أثرية من بيانات التدريب، ولكن كما يشير Google، “نظرًا لأن مستخدمينا يأتون من جميع أنحاء العالم، فإننا نريد أن يعمل بشكل جيد للجميع.” إذا كنت تطلب صورة للاعبي كرة قدم أو شخصًا يمشي كلبًا، فقد ترغب في الحصول على مجموعة واسعة من الأشخاص. ربما لا ترغب في تلقي صور لأشخاص ينتمون إلى نوع واحد من العرق (أو أي سمة أخرى) فقط».
لا حرج في التقاط صورة لرجل أبيض يمشي مع كلب جولدن ريتريفر في حديقة في الضواحي. ولكن إذا طلبت 10، وهم كذلك الجميع الرجال البيض يمشون بالذهب في حدائق الضواحي؟ وأنت تعيش في المغرب، حيث الناس والكلاب والحدائق مختلفة؟ وهذه ببساطة ليست نتيجة مرغوبة. إذا لم يحدد شخص ما ميزة ما، فيجب أن يختار النموذج التنوع وليس التجانس، حتى لو كانت بيانات التدريب الخاصة به قد تؤدي إلى تحيزه.
هذه مشكلة شائعة في جميع أنواع الوسائط التوليدية. وليس هناك حل بسيط. ولكن في الحالات الشائعة بشكل خاص، أو الحساسة، أو كليهما، فإن شركات مثل Google، وOpenAI، وAnthropic، وما إلى ذلك. تضمين تعليمات إضافية للنمط بشكل غير مرئي.
لا أستطيع أن أؤكد بما فيه الكفاية على مدى ابتذال هذا النوع من التعليمات الضمنية. تم بناء نظام LLM البيئي بأكمله على تعليمات ضمنية – مطالبات النظام، كما يطلق عليها أحيانًا، حيث يتم إعطاء أشياء مثل “كن موجزًا” و”لا تقسم” وتوجيهات أخرى للنموذج قبل كل محادثة. عندما تطلب نكتة، لا تحصل على نكتة عنصرية – لأنه على الرغم من أن العارضة قد استوعبت الآلاف منها، فقد تم تدريبها أيضًا، مثل معظمنا، على عدم إخبارها. وهذا ليس برنامجًا سريًا (على الرغم من أن ذلك قد يتطلب المزيد من الشفافية)، ولكنه بنية تحتية.
الخطأ الذي حدث في نموذج جوجل هو أنه لم يتضمن تعليمات ضمنية للمواقف التي يكون فيها السياق التاريخي مهمًا. لذلك، حتى لو تم تحسين عبارة مثل “شخص يمشي مع كلب في حديقة” من خلال الإضافة الصامتة لعبارة “الشخص ينتمي إلى جنس أو عرق عشوائي” أو أي شيء آخر، فإن عبارة “الآباء المؤسسون الأمريكيون يوقعون على الدستور” ليست كذلك بالتأكيد. تحسين بنفس الشيء.
وكما قال نائب الرئيس التنفيذي لشركة Google، برابهاكار راغافان:
أولاً، ضبطنا للتأكد من أن برج الجوزاء يظهر نطاقًا واسعًا من الأشخاص لم يأخذ في الاعتبار الحالات التي من الواضح أنها لا ينبغي أن تظهر نطاقًا. وثانياً، مع مرور الوقت، أصبح النموذج أكثر حذراً مما كان متوقعاً ورفض الاستجابة بالكامل لمحفزات معينة ــ وأساء تفسير بعض المحفزات غير الضارة للغاية باعتبارها حساسة.
أدى هذان العنصران إلى الإفراط في التعويض في النموذج في بعض الحالات والتحفظ الشديد في حالات أخرى، مما يؤدي إلى صور محرجة وكاذبة.
أعلم مدى صعوبة قول “آسف” في بعض الأحيان، لذلك أسامح برابهاكار على توقفه لفترة قصيرة. والأهم من ذلك، أن هناك لغة مثيرة للاهتمام: “أصبح النموذج أكثر تحفظًا مما كان متوقعًا”. »
والآن، كيف يمكن للنموذج أن “يصبح” شيئًا ما؟ انها البرمجيات. لقد قام شخص ما – الآلاف من مهندسي Google – ببناء هذا النظام واختباره وتكراره. كتب أحدهم التعليمات الضمنية التي جعلت بعض الإجابات أفضل وجعلت البعض الآخر يفشل بشكل مضحك. عندما فشل هذا الأمر، إذا كان بإمكان أي شخص فحص الموجه بالكامل، فمن المحتمل أن يجد أن فريق Google قد أخطأ في ذلك.
تتهم Google النموذج بأنه “أصبح” شيئًا لم يكن “مقصودًا” أن يكون عليه. لكنهم صنعوا النموذج! وكأنهم كسروا زجاجًا، وبدلاً من أن يقولوا “لقد أسقطناه”، يقولون “لقد سقط”. (فعلتها.)
ومن المؤكد أن الأخطاء في هذه النماذج أمر لا مفر منه. إنهم يهلوسون ويعكسون الأحكام المسبقة ويتصرفون بشكل غير متوقع. لكن المسؤولية عن هذه الأخطاء لا تقع على عاتق النماذج، بل تقع على عاتق الأشخاص الذين ارتكبوها. اليوم، إنه جوجل. غدا سيكون OpenAI. في اليوم التالي، وربما لبضعة أشهر متتالية، سيكون X.AI.
لدى هذه الشركات مصلحة راسخة في إقناعك بأن الذكاء الاصطناعي يرتكب أخطاءه. لا تتركهم.
Source link