تشفير

تعمل منظمة Mutale Nkonde غير الربحية على جعل الذكاء الاصطناعي أقل تحيزًا

لمنح أكاديميي الذكاء الاصطناعي وغيرهم الوقت الذي يستحقونه – والذي طال انتظاره – في دائرة الضوء، تطلق TechCrunch سلسلة مقابلة مع التركيز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، لتسليط الضوء على الأعمال الرئيسية التي غالبًا ما يتم تجاهلها. اقرأ المزيد من الملفات الشخصية هنا.

موتال نكوندي هو الرئيس التنفيذي المؤسس لمنظمة AI for the People (AFP) غير الربحية، والتي تسعى إلى زيادة عدد الأصوات السوداء في مجال التكنولوجيا. وقبل ذلك، ساعدت في تقديم قانون الخوارزميات والتزييف العميق، بالإضافة إلى قانون حظر حواجز الإسكان البيومترية، في مجلس النواب الأمريكي. وهي حاليًا زميلة زائرة في مجال السياسات في معهد أكسفورد للإنترنت.

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

بدأت أشعر بالفضول بشأن كيفية عمل وسائل التواصل الاجتماعي بعد أن نشر أحد أصدقائي أن Google Pictures، التي سبقت Google Image، أشارت إلى شخصين أسودين على أنهما غوريلا في عام 2015. لقد شاركت في العديد من دوائر “السود في مجال التكنولوجيا”، وكنا غاضبين، لكنني لم أبدأ في فهم أن ذلك كان بسبب التحيز الخوارزمي حتى تم نشر “أسلحة تدمير الرياضيات” في عام 2016. وقد ألهمني هذا لبدء التقدم بطلب للحصول على زمالات حيث يمكنني التعمق في هذا الموضوع وانتهى الأمر. مع دوري كمؤلف مشارك لتقرير بعنوان تعزيز محو الأمية العنصرية في مجال التكنولوجيا والذي تم نشره في عام 2019. وقد لاحظ ذلك الأشخاص في مؤسسة ماك آرثر وبدأ المرحلة الحالية من مسيرتي المهنية.

لقد انجذبت إلى الأسئلة المتعلقة بالعنصرية والتكنولوجيا لأنها بدت غير مدروسة وغير بديهية. أحب أن أفعل أشياء لا يفعلها الآخرون، لذا فإن التعرف عليها ونشر هذه المعلومات داخل وادي السيليكون يبدو أمرًا ممتعًا للغاية. منذ تطوير محو الأمية العنصرية في مجال التكنولوجيا، بدأت منظمة غير ربحية تسمى الذكاء الاصطناعي للشعب والذي يركز على الدعوة إلى سياسات وممارسات للحد من التعبير عن التحيز الخوارزمي.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أنا فخور حقًا بكوني المدافع الرئيسي عن قانون المساءلة الخوارزمية، والذي تم تقديمه لأول مرة في مجلس النواب في عام 2019. لقد جعل الذكاء الاصطناعي للشعب رائدًا فكريًا رئيسيًا حول كيفية تطوير البروتوكولات لتوجيه التصميم والنشر والتنفيذ. حوكمة أنظمة الذكاء الاصطناعي التي تمتثل لقوانين عدم التمييز المحلية. أدى ذلك إلى إدراجنا في قنوات Schumer AI Insights Channels كعضو في مجموعة استشارية لمختلف الوكالات الفيدرالية وقيادة العمل القادم المثير على Hill.

كيف يمكننا معالجة تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

في الواقع، واجهت مشاكل أكثر مع حراس الجامعة. تم تكليف معظم الرجال الذين أعمل معهم في شركات التكنولوجيا بتطوير أنظمة للاستخدام على السكان السود وغيرهم من السكان غير البيض، ولذلك كان من السهل جدًا العمل معهم. ويرجع ذلك أساسًا إلى أنني أعمل كخبير خارجي يمكنه التحقق من صحة الممارسات الحالية أو تحديها.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

ابحث عن مجال مناسب ثم أصبح واحدًا من أفضل الأشخاص في العالم في هذا المجال. كان لدي شيئين ساعدا في بناء مصداقيتي. الأول هو أنني كنت أدافع عن سياسات تهدف إلى الحد من التحيز الخوارزمي، عندما بدأ الأكاديميون في مناقشة هذه القضية. لقد منحني هذا ميزة الريادة في “مجال الحلول” وجعل الذكاء الاصطناعي من أجل الشعب مرجعًا في مجلس النواب قبل خمس سنوات من صدور الأمر التنفيذي. الشيء الثاني الذي أود قوله هو النظر إلى عيوبك ومعالجتها. يبلغ عمر الذكاء الاصطناعي من أجل الشعب أربع سنوات وقد اكتسبت أوراق الاعتماد الأكاديمية التي أحتاجها لضمان عدم استبعادي من مساحات قادة الفكر. إنني أتطلع إلى التخرج بدرجة الماجستير من جامعة كولومبيا في شهر مايو، وأتمنى أن أواصل بحثي في ​​هذا المجال.

ما هي القضايا الأكثر إلحاحا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أفكر كثيرًا في الاستراتيجيات التي يمكن اتباعها لإشراك المزيد من السود والأشخاص الملونين في بناء النماذج التأسيسية واختبارها وتعليقها. في الواقع، تكون جودة التقنيات جيدة بقدر جودة بيانات التدريب الخاصة بها، فكيف يمكننا إنشاء مجموعات بيانات شاملة في وقت تتعرض فيه DEI للهجوم، وحيث تتم مقاضاة صناديق Black VC لاستهداف المؤسسين السود والنساء، وحيث يتعرض الأكاديميون السود للهجوم العلني . ، من سيقوم بهذا العمل في الصناعة؟

ما هي المشكلات التي يجب أن يكون مستخدمو الذكاء الاصطناعي على دراية بها؟

أعتقد أننا يجب أن ننظر إلى تطوير الذكاء الاصطناعي باعتباره قضية جيوسياسية ونرى كيف يمكن للولايات المتحدة أن تصبح رائدة في الذكاء الاصطناعي القابل للتطوير حقًا من خلال إنشاء منتجات ذات معدلات فعالية عالية على الأشخاص من جميع الفئات العمرية. والواقع أن الصين هي المنتج الرئيسي الآخر الوحيد للذكاء الاصطناعي، ولكنها تصنع منتجات ضمن مجموعة سكانية متجانسة إلى حد كبير، ورغم ذلك فهي تتمتع ببصمة كبيرة في أفريقيا. يمكن لقطاع التكنولوجيا الأمريكي أن يهيمن على هذا السوق إذا تم إجراء استثمارات قوية في تطوير تقنيات مكافحة التحيز.

ما هي أفضل طريقة لتطوير الذكاء الاصطناعي بشكل مسؤول؟

يجب أن يكون هناك نهج متعدد الجوانب، ولكن الشيء الوحيد الذي يجب مراعاته هو متابعة الأسئلة البحثية التي تركز على الأشخاص الذين يعيشون على الهامش. أسهل طريقة للقيام بذلك هي ملاحظة الاتجاهات الثقافية ثم النظر في تأثيرها على التطور التكنولوجي. على سبيل المثال، من خلال طرح أسئلة مثل: كيف يمكننا تصميم تقنيات بيومترية قابلة للتطوير في مجتمع حيث يتزايد عدد الأشخاص الذين يعتبرون متحولين جنسيًا أو غير ثنائيين؟

كيف يمكن للمستثمرين تعزيز الذكاء الاصطناعي المسؤول بشكل أفضل؟

يجب على المستثمرين أن ينظروا إلى الاتجاهات الديموغرافية ويسألوا أنفسهم، هل ستكون هذه الشركات قادرة على البيع لعدد متزايد من السكان السود والبني بسبب انخفاض معدلات المواليد بين السكان الأوروبيين في جميع أنحاء العالم؟ وينبغي أن يدفعهم هذا إلى طرح أسئلة حول التحيز الخوارزمي أثناء عملية العناية الواجبة، حيث سيصبح هذا مشكلة بالنسبة للمستهلكين بشكل متزايد.

هناك الكثير من العمل الذي يتعين القيام به لإعادة مهارات القوى العاملة لدينا في عصر تؤدي فيه أنظمة الذكاء الاصطناعي مهام منخفضة المخاطر وموفرة للعمالة. كيف يمكننا ضمان إدراج الأشخاص الذين يعيشون على هامش مجتمعنا في هذه البرامج؟ ما هي المعلومات التي يمكن أن يقدموها لنا حول كيفية عمل أنظمة الذكاء الاصطناعي وعدم عملها، وكيف يمكننا استخدام هذه المعلومات للتأكد من أن الذكاء الاصطناعي هو في الواقع للأشخاص؟


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى