لمنح أكاديميي الذكاء الاصطناعي وغيرهم الوقت الذي يستحقونه – والذي طال انتظاره – في دائرة الضوء، تطلق TechCrunch سلسلة مقابلة مع التركيز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، لتسليط الضوء على الأعمال الرئيسية التي غالبًا ما يتم تجاهلها. اقرأ المزيد من الملفات الشخصية هنا.
ساندرا واشتر هي أستاذة وباحثة أولى في أخلاقيات البيانات والذكاء الاصطناعي والروبوتات والخوارزميات والتنظيم في معهد أكسفورد للإنترنت. وهي أيضًا زميلة سابقة في معهد آلان تورينج، المعهد الوطني في المملكة المتحدة لعلوم البيانات والذكاء الاصطناعي.
في معهد تورينج، قام واتشر بتقييم الجوانب الأخلاقية والقانونية لعلم البيانات، وسلط الضوء على الحالات التي أصبحت فيها الخوارزميات المبهمة عنصرية ومتحيزة جنسيًا. لقد استكشفت أيضًا طرقًا لتدقيق الذكاء الاصطناعي لمكافحة المعلومات الخاطئة وتعزيز العدالة.
أسئلة وأجوبة
باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟
لا أستطيع أن أتذكر وقتًا في حياتي لم أكن أعتقد فيه أن الابتكار والتكنولوجيا لديهما إمكانات مذهلة لتحسين حياة الناس. ومع ذلك، فأنا أعلم أيضًا أن التكنولوجيا يمكن أن يكون لها عواقب مدمرة على حياة الناس. ولهذا السبب كنت مصمماً دائماً – لأسباب ليس أقلها إحساسي القوي بالعدالة – على إيجاد طريقة لضمان هذه الوسيلة السعيدة. تمكين الابتكار مع حماية حقوق الإنسان.
لقد اعتقدت دائمًا أن للقانون دورًا مهمًا جدًا ليلعبه. ويمكن أن يشكل القانون أرضية مشتركة تحمي الناس وتعزز في الوقت نفسه الابتكار. لقد جاء القانون كنظام طبيعي جدًا بالنسبة لي. أحب التحديات، وأحب فهم كيفية عمل النظام، ورؤية كيف يمكنني اللعب به، والعثور على العيوب ثم ملؤها.
الذكاء الاصطناعي هو قوة تحويلية بشكل لا يصدق. ويتم تنفيذه في مجالات التمويل والتوظيف والعدالة الجنائية والهجرة والصحة والفن. وهذا يمكن أن تكون جيدة أو سيئة. وسواء كان ذلك جيدًا أم سيئًا، فهي مسألة تصميم وسياسة. لقد انجذبت إليه بطبيعة الحال لأنني كنت أعتقد أن القانون يمكن أن يقدم مساهمة كبيرة في ضمان استفادة أكبر عدد ممكن من الناس من الابتكار.
ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟
أعتقد أن العمل الذي أفتخر به حاليًا هو بحث شارك في تأليفه مع برنت ميتلستادت (فيلسوف)، وكريس راسل (عالم كمبيوتر)، وأنا كمحامي.
أحدث أعمالنا بشأن التحيز والإنصاف، “ظلم التعلم الآلي العادل“، كشف الأثر الضار للتطبيق العملي للعديد من تدابير “الإنصاف الجماعي”. وبشكل أكثر دقة، يتم تحقيق العدالة من خلال “التسوية”، أي من خلال جعل الجميع في وضع أسوأ، بدلاً من مساعدة الفئات المحرومة. ويشكل هذا النهج إشكالية كبيرة في سياق قوانين مكافحة التمييز في الاتحاد الأوروبي والمملكة المتحدة، كما أنه مثير للقلق من الناحية الأخلاقية. في قطعة في السلكية لقد ناقشنا كيف يمكن أن يكون السباق نحو القاع ضارا في الممارسة العملية – في مجال الرعاية الصحية، على سبيل المثال، قد يعني فرض العدالة الجماعية تفويت عدد أكبر من حالات السرطان أكثر مما هو ضروري، في حين يجعل النظام أقل دقة في الإجمال.
بالنسبة لنا، كان الأمر مرعبًا وهو شيء من المهم أن نعرفه للأشخاص العاملين في مجال التكنولوجيا والسياسة وكل إنسان حقًا. في الواقع، لقد تعاملنا مع الهيئات التنظيمية في المملكة المتحدة وأوروبا وشاركنا معهم النتائج المثيرة للقلق. وآمل مخلصا أن يمنح هذا صناع السياسات النفوذ اللازم لتنفيذ سياسات جديدة تمنع الذكاء الاصطناعي من التسبب في مثل هذا الضرر الخطير.
كيف يمكننا معالجة تحديات قطاع التكنولوجيا الذي يهيمن عليه الذكور، وبالتالي، قطاع الذكاء الاصطناعي الذي يهيمن عليه الذكور؟
المثير للاهتمام هو أنني لم أفكر مطلقًا في التكنولوجيا باعتبارها شيئًا “ملكيًا” للرجال. لم يخبرني المجتمع إلا عندما بدأت الدراسة أن التكنولوجيا ليس لها مكان للأشخاص مثلي. ما زلت أتذكر عندما كنت في العاشرة من عمري، كان المنهج الدراسي يطلب من الفتيات القيام بالحياكة والخياطة بينما كان الأولاد يبنون بيوت الطيور. كنت أرغب أيضًا في بناء بيت للطيور وطلبت نقلي إلى صف الأولاد، لكن أساتذتي قالوا لي “الفتيات لا يفعلن ذلك”. حتى أنني ذهبت إلى مدير المدرسة لمحاولة إلغاء القرار، لكنني للأسف فشلت في ذلك الوقت.
من الصعب جدًا محاربة الصورة النمطية التي تقول بأنه لا ينبغي عليك أن تكون جزءًا من هذا المجتمع. أتمنى أن أقول إن مثل هذه الأمور لم تحدث بعد الآن، لكن هذا للأسف غير صحيح.
ومع ذلك، كنت محظوظًا للغاية بالعمل مع حلفاء مثل برنت ميتلشتات وكريس راسل. لقد كان لي شرف الاستفادة من الموجهين الرائعين مثل درجة الدكتوراه. لدينا أنا ومشرفي شبكة متنامية من الأشخاص ذوي التفكير المماثل من جميع الأجناس والذين يبذلون قصارى جهدهم لرسم مسار للأمام لتحسين الوضع لكل المهتمين بالتكنولوجيا.
ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟
قبل كل شيء، حاول العثور على أشخاص وحلفاء ذوي تفكير مماثل. يعد العثور على الأشخاص ودعم بعضهم البعض أمرًا بالغ الأهمية. لقد كان عملي الأكثر تأثيرًا دائمًا هو التحدث مع أشخاص منفتحين، من خلفيات وتخصصات مختلفة، لحل المشكلات المشتركة التي نواجهها. ولا يمكن للحكمة المقبولة وحدها أن تحل مشاكل جديدة، ولهذا السبب فإن النساء والمجموعات الأخرى التي واجهت تاريخيا عوائق في الوصول إلى الذكاء الاصطناعي وغيره من مجالات التكنولوجيا لديها الأدوات اللازمة للابتكار وتقديم شيء جديد حقا.
ما هي القضايا الأكثر إلحاحا التي تواجه الذكاء الاصطناعي أثناء تطوره؟
أعتقد أن هناك مجموعة واسعة من القضايا التي تتطلب دراسة قانونية وسياسية جادة. على سبيل المثال لا الحصر، يعاني الذكاء الاصطناعي من البيانات المتحيزة التي تؤدي إلى نتائج تمييزية وغير عادلة. إن الذكاء الاصطناعي بطبيعته غامض ويصعب فهمه، ولكن وظيفته هي تحديد من يحصل على قرض، ومن يحصل على وظيفة، ومن يذهب إلى السجن، ومن يُسمح له بالذهاب إلى الكلية.
ويعاني الذكاء الاصطناعي التوليدي من مشاكل ذات صلة، ولكنه يساهم أيضا في نشر المعلومات المضللة، ومليء بالهلوسة، وينتهك حماية البيانات وحقوق الملكية الفكرية، ويعرض وظائف الناس للخطر، ويساهم في تغير المناخ بشكل أكبر من صناعة الطيران.
ليس لدينا وقت لنضيعه؛ يجب أن نكون قد تناولنا هذه القضايا بالأمس.
ما هي المشكلات التي يجب أن يكون مستخدمو الذكاء الاصطناعي على دراية بها؟
أعتقد أن هناك ميلًا إلى تصديق رواية معينة مثل “الذكاء الاصطناعي موجود هنا وهناك ليبقى أو يشارك أو يتخلف عن الركب”. أعتقد أنه من المهم التفكير في من يروج لهذا الخطاب ومن يستفيد منه. من المهم أن تتذكر أين تكمن القوة الحقيقية. القوة لا تكمن في أولئك الذين يبتكرون، بل في أولئك الذين يشترون وينفذون الذكاء الاصطناعي.
لذا، ينبغي للمستهلكين والشركات أن يسألوا أنفسهم: “هل تساعدني هذه التكنولوجيا حقاً وكيف؟”. فرشاة الأسنان الكهربائية تتضمن الآن تقنية “AI”. لمن هذا ؟ من يحتاج هذا؟ ما الذي تم تحسينه هنا؟
بمعنى آخر، اسأل نفسك ما هو الخلل وما الذي يجب إصلاحه وما إذا كان الذكاء الاصطناعي يمكنه إصلاحه بالفعل.
سيؤدي هذا النوع من التفكير إلى تحويل قوة السوق ونأمل أن يتحرك الابتكار في اتجاه يركز على المنفعة للمجتمع بدلاً من الربح البسيط.
ما هي أفضل طريقة لتطوير الذكاء الاصطناعي بشكل مسؤول؟
لديك قوانين معمول بها تتطلب الذكاء الاصطناعي المسؤول. وهنا أيضاً، يميل السرد الزائف وغير المفيد على الإطلاق إلى الهيمنة: فالتنظيم يخنق الابتكار. هذا ليس صحيحا. التنظيم يخنق ضار ابتكار. تعمل القوانين الجيدة على تعزيز وتغذية الابتكار الأخلاقي؛ ولهذا السبب لدينا سيارات وطائرات وقطارات وجسور آمنة. المجتمع لن يخسر إذا منع التنظيم
خلق الذكاء الاصطناعي الذي ينتهك حقوق الإنسان.
لوائح المرور والسلامة الخاصة بالسيارات “تخنق الابتكار” و”تحد من الاستقلالية”. تمنع هذه القوانين الأشخاص من القيادة بدون رخصة، وتمنع السيارات غير المجهزة بأحزمة الأمان والوسائد الهوائية من دخول السوق، وتعاقب الأشخاص الذين لا يقودون ضمن حدود السرعة. تخيل كيف سيبدو سجل السلامة في صناعة السيارات إذا لم تكن لدينا قوانين لتنظيم المركبات وسائقيها. ويجد الذكاء الاصطناعي نفسه حاليا عند نقطة انعطاف مماثلة، كما أن الضغوط التي تمارسها الصناعات الثقيلة والضغوط السياسية تعني أنه لا يزال من غير الواضح المسار الذي سيتخذه.
كيف يمكن للمستثمرين تعزيز الذكاء الاصطناعي المسؤول بشكل أفضل؟
لقد كتبت مقالاً منذ عدة سنوات بعنوان “كيف يمكن للذكاء الاصطناعي العادل أن يجعلنا أكثر ثراءً؟“. أنا أؤمن إيمانًا راسخًا بأن الذكاء الاصطناعي الذي يحترم حقوق الإنسان ويكون محايدًا وقابلاً للتفسير ومستدامًا ليس هو الشيء الصحيح الذي يجب القيام به من الناحية القانونية والأخلاقية والمعنوية فحسب، بل يمكن أن يكون فعالًا من حيث التكلفة أيضًا.
وآمل حقاً أن يفهم المستثمرون أنهم إذا شجعوا البحث والابتكار المسؤولين، فإنهم سيحصلون أيضاً على منتجات أفضل. تؤدي البيانات السيئة والخوارزميات السيئة وخيارات التصميم السيئة إلى منتجات ذات جودة أقل. على الرغم من أنني لا أستطيع إقناعك بأنه يجب عليك التصرف بشكل أخلاقي لأنه هو الشيء الصحيح الذي يجب القيام به، إلا أنني آمل أن ترى أن التصرف بالأخلاق هو أيضًا أكثر ربحية. وينبغي النظر إلى الأخلاقيات كاستثمار وليس كعقبة يجب التغلب عليها.
Source link