تشفير

المرأة في الذكاء الاصطناعي: تعمل أنيكا كولير نافارولي على تغيير اختلال توازن القوى

لمنح أكاديميي الذكاء الاصطناعي وغيرهم الوقت الذي يستحقونه – والذي طال انتظاره – في دائرة الضوء، تم إطلاق TechCrunch سلسلة من المقابلات مع التركيز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي.

أنيكا كولير نافارولي هي زميلة أولى في مركز تاو للصحافة الرقمية بجامعة كولومبيا وزميلة الأصوات العامة في مجال التكنولوجيا في مشروع OpEd، الذي تم تنظيمه بالتعاون مع مؤسسة ماك آرثر.

وهي معروفة بعملها البحثي والدعوي في مجال التكنولوجيا. عملت سابقًا كممارس في مجال السباق والتكنولوجيا في مركز ستانفورد للعمل الخيري والمجتمع المدني. وقبل ذلك، قادت قسم الثقة والسلامة في Twitch وTwitter. وربما اشتهرت نافارولي بشهادتها أمام الكونجرس على تويتر، حيث تحدثت عن التحذيرات التي تم تجاهلها بشأن العنف الوشيك على وسائل التواصل الاجتماعي التي سبقت ما سيصبح هجوم 6 يناير على مبنى الكابيتول.

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

منذ حوالي 20 عامًا، عملت كاتبًا تحريريًا في غرفة الأخبار بصحيفة مسقط رأسي خلال فصل الصيف عندما أصبحت الصحيفة رقمية. في ذلك الوقت، كنت طالبًا في الصحافة. كانت مواقع التواصل الاجتماعي مثل فيسبوك تسيطر على الحرم الجامعي الخاص بي، وأصبحت مهووسًا بفهم كيفية تطور القوانين القائمة على طباعة النقود مع التقنيات الناشئة. قادني هذا الفضول إلى دراسة القانون، حيث انتقلت إلى تويتر، ودرست قانون وسياسة الإعلام، وشاهدت حركات الربيع العربي واحتلال وول ستريت تتكشف. لقد جمعت كل ذلك معًا وكتبت أطروحتي للماجستير حول كيفية قيام التقنيات الجديدة بتغيير الطريقة التي يتم بها تداول المعلومات وممارسة المجتمع لحرية التعبير.

بعد التخرج، عملت في عدد قليل من مكاتب المحاماة، ثم انضممت إلى معهد أبحاث البيانات والمجتمع لقيادة أبحاث المركز البحثي الجديد حول ما كان يسمى آنذاك “البيانات الضخمة”، والحقوق المدنية والإنصاف. درس عملي هناك كيف أن أنظمة الذكاء الاصطناعي المبكرة، مثل برامج التعرف على الوجه، وأدوات الشرطة التنبؤية، وخوارزميات تقييم مخاطر العدالة الجنائية، أعادت إنتاج التحيز وخلقت عواقب غير مقصودة أثرت على المجتمعات المهمشة. عملت بعد ذلك في Color of Change وقمت بقيادة أول تدقيق للحقوق المدنية لشركة تكنولوجيا، وقمت بتطوير دليل المنظمة لحملات المساءلة التكنولوجية، ودعوت إلى تغيير سياسات التكنولوجيا للحكومات والمنظمات. ومن هناك، أصبحت قائدًا كبيرًا للسياسة ضمن فرق الثقة والسلامة في Twitter وTwitch.

ما هو العمل الذي تفتخر به أكثر في مجال الذكاء الاصطناعي؟

أنا فخور للغاية بعملي في شركات التكنولوجيا التي تستخدم السياسات لتغيير ميزان القوى عمليا وتصحيح التحيزات داخل الثقافة والأنظمة الخوارزمية المنتجة للمعرفة. على تويتر، قمت بتشغيل بعض الحملات للتحقق من الأشخاص الذين تم استبعادهم سابقًا، بشكل صادم، من عملية التحقق الحصرية، بما في ذلك النساء السود، والأشخاص الملونون، والأشخاص المثليين. وشمل ذلك أيضًا متخصصين بارزين في الذكاء الاصطناعي مثل صفية نوبل وألوندرا نيلسون وتيمنيت جيبرو وميريديث بروسارد. كان ذلك في عام 2020، عندما كان تويتر لا يزال تويتر. في ذلك الوقت، كان التحقق يعني أن اسمك ومحتواك كانا جزءًا من خوارزمية تويتر الأساسية، حيث تم إدراج التغريدات من الحسابات التي تم التحقق منها في التوصيات ونتائج البحث والجداول الزمنية الرئيسية والمساهمة في إنشاء الاتجاهات. لذا، فإن العمل على فحص الأشخاص الجدد ذوي وجهات نظر مختلفة حول الذكاء الاصطناعي قد أدى إلى تغيير أصواتهم بشكل أساسي كقادة فكر ورفع الأفكار الجديدة إلى المحادثة العامة في أوقات حرجة حقًا.

أنا أيضًا فخور جدًا بالبحث الذي أجريته في جامعة ستانفورد والذي أدى إلى ذلك أسود باعتدال. عندما عملت في شركات التكنولوجيا، لاحظت أيضًا أنه لا أحد كان يكتب أو يتحدث عن التجارب التي مررت بها كل يوم كشخص أسود يعمل في مجال الثقة والأمن. لذلك عندما تركت الصناعة ورجعت إلى المجال الأكاديمي، قررت التحدث مع العاملين في مجال التكنولوجيا السود وتسليط الضوء على قصصهم. أثبت البحث أنه الأول من نوعه و حفز الكثير من المحادثات الجديدة والمهمة حول تجارب موظفي التكنولوجيا ذوي الهويات المهمشة.

كيف يمكننا معالجة تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

باعتباري امرأة سوداء مثلية، كان التنقل في المساحات التي يهيمن عليها الذكور والمساحات التي أكون فيها شخصًا آخر جزءًا من رحلة حياتي بأكملها. في مجال التكنولوجيا والذكاء الاصطناعي، أعتقد أن الجانب الأكثر صعوبة هو ما أسميه في بحثي “عمل الهوية القسرية”. لقد قمت بصياغة هذا المصطلح لوصف المواقف المتكررة التي يتم فيها التعامل مع الموظفين ذوي الهويات المهمشة على أنهم أصوات و/أو ممثلون لمجتمعات بأكملها يتشاركون هوياتهم.

نظرًا للمخاطر الكبيرة التي ينطوي عليها تطوير تقنيات جديدة مثل الذكاء الاصطناعي، فقد يبدو في بعض الأحيان أنه من المستحيل تقريبًا الهروب من هذا العمل. كان علي أن أتعلم وضع حدود واضحة جدًا لنفسي حول ما كنت على استعداد للتعامل معه ومتى.

ما هي القضايا الأكثر إلحاحا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

بحسب تقارير التحقيق، استحوذت نماذج الذكاء الاصطناعي التوليدية الحالية على جميع البيانات الموجودة على الإنترنت، وسوف تنفد قريبًا البيانات المتاحة لالتهامها. لذا فإن أكبر شركات الذكاء الاصطناعي في العالم تتجه إلى البيانات الاصطناعية، أو المعلومات التي يولدها الذكاء الاصطناعي نفسه، وليس البشر، لمواصلة تدريب أنظمتها.

أخذتني الفكرة إلى حفرة أرنب. لذا، كتبت مؤخرًا أ مقال رأي بحجة أنني أعتقد أن استخدام البيانات الاصطناعية كبيانات تدريب هو أحد القضايا الأخلاقية الأكثر إلحاحًا التي تواجه تطوير الذكاء الاصطناعي الجديد. لقد أظهرت أنظمة الذكاء الاصطناعي التوليدي بالفعل أنه بناءً على بيانات التدريب الأصلية الخاصة بها، فإن نتيجتها هي إعادة إنتاج التحيزات وإنشاء معلومات كاذبة. لذا فإن الطريق إلى تدريب الأنظمة الجديدة باستخدام البيانات الاصطناعية يعني تغذية النظام بشكل مستمر بنتائج متحيزة وغير دقيقة في شكل بيانات تدريب جديدة. أنا يصف من المحتمل أن يتصاعد هذا إلى حلقة ردود فعل إلى الجحيم.

منذ أن كتبت هذا المقال، مارك زوكربيرج مستأجرة أن برنامج الدردشة Llama 3 المحدث من Meta كان مدعوم جزئيا بواسطة البيانات الاصطناعية وكان منتج الذكاء الاصطناعي “الأذكى” في السوق.

ما هي المشكلات التي يجب أن يكون مستخدمو الذكاء الاصطناعي على دراية بها؟

يعد الذكاء الاصطناعي جزءًا لا يتجزأ من حياتنا اليوم، بدءًا من التدقيق الإملائي وموجزات الوسائط الاجتماعية وحتى برامج الدردشة الآلية ومولدات الصور. وفي كثير من النواحي، أصبح المجتمع بمثابة خنزير غينيا لإجراء التجارب على هذه التكنولوجيا الجديدة التي لم يتم اختبارها بعد. لكن لا ينبغي لمستخدمي الذكاء الاصطناعي أن يشعروا بالعجز.

كنت يجادل أنه يجب على المدافعين عن التكنولوجيا أن يجتمعوا وينظموا مستخدمي الذكاء الاصطناعي للدعوة إلى توقف شعبي عن الذكاء الاصطناعي. أعتقد أن رابطة الكتاب الأمريكية أظهرت أنه من خلال التنظيم والعمل الجماعي والتصميم الصبور، يمكن للناس أن يجتمعوا معًا لإنشاء حدود ذات معنى لاستخدام تقنيات الذكاء الاصطناعي. وأعتقد أيضًا أننا إذا توقفنا الآن لتصحيح أخطاء الماضي وإنشاء مبادئ توجيهية ولوائح أخلاقية جديدة، فليس من الضروري أن يصبح الذكاء الاصطناعي بالضرورة التهديد الوجودي إلى مستقبلنا.

ما هي أفضل طريقة لتطوير الذكاء الاصطناعي بشكل مسؤول؟؟

لقد أظهرت لي تجربتي في العمل في شركات التكنولوجيا مدى أهمية معرفة من هو الموجود في الغرفة لكتابة السياسات وتقديم الحجج واتخاذ القرارات. وأظهرت لي رحلتي أيضًا أنني طورت المهارات التي أحتاجها للنجاح في صناعة التكنولوجيا من خلال البدء في كلية الصحافة. أعمل الآن مرة أخرى في كلية كولومبيا للصحافة وأريد تدريب الجيل القادم من الأشخاص الذين سيقومون بأعمال المساءلة التكنولوجية وتطوير الذكاء الاصطناعي بشكل مسؤول، سواء داخل شركات التكنولوجيا أو كهيئات رقابية خارجية.

Je pense que l’école (de journalisme) donne aux gens une formation unique pour interroger l’information, rechercher la vérité, considérer plusieurs points de vue, créer des arguments logiques et distiller les faits et la réalité à partir d’opinions et de معلومات. أعتقد أن هذا أساس متين للأشخاص الذين سيكونون مسؤولين عن كتابة قواعد ما يمكن للتكرارات التالية للذكاء الاصطناعي أن تفعله وما لا يمكنها فعله. وأنا أتطلع إلى خلق طريق أكثر معبدة لأولئك الذين سيأتون بعد ذلك.

وأعتقد أيضًا أنه بالإضافة إلى العمال المهرة من أجل الثقة والسلامة، تحتاج صناعة الذكاء الاصطناعي إلى تنظيم خارجي. في الولايات المتحدة، أنا يجادل وأن هذا ينبغي أن يتخذ شكل وكالة جديدة مكلفة بتنظيم شركات التكنولوجيا الأمريكية، مع القدرة على إنشاء وتنفيذ معايير الأمن والخصوصية الأساسية. أود أيضًا مواصلة العمل على ربط الهيئات التنظيمية الحالية والمستقبلية بالعاملين السابقين في مجال التكنولوجيا الذين يمكنهم مساعدة من هم في السلطة على طرح الأسئلة الصحيحة وإنشاء حلول جديدة ودقيقة وعملية.


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى