لمنح أكاديميي الذكاء الاصطناعي وغيرهم الوقت الذي يستحقونه – والذي طال انتظاره – في دائرة الضوء، تطلق TechCrunch سلسلة مقابلة مع التركيز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، لتسليط الضوء على الأعمال الرئيسية التي غالبًا ما يتم تجاهلها. اقرأ المزيد من الملفات الشخصية هنا.
هايدي خلف هي المديرة التنفيذية للتكنولوجيا في شركة الأمن السيبراني Trail of Bits. وهي متخصصة في تقييم تطبيقات البرمجيات والذكاء الاصطناعي في الأنظمة “الحساسة للسلامة”، مثل محطات الطاقة النووية والمركبات ذاتية القيادة.
حصل خلاف على الدكتوراه في علوم الكمبيوتر. حصل على درجة البكالوريوس من كلية لندن الجامعية ودرجة البكالوريوس في علوم الكمبيوتر والفلسفة من جامعة ولاية فلوريدا. لقد قادت عمليات تدقيق السلامة والأمن، وقدمت الاستشارات والمراجعات لحالات التأمين، وساهمت في إنشاء معايير ومبادئ توجيهية للتطبيقات المتعلقة بالسلامة والأمن وتطويرها.
أسئلة وأجوبة
باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟
لقد انجذبت إلى الروبوتات منذ صغري وبدأت البرمجة في سن 15 عامًا، وكنت مفتونًا بآفاق استخدام الروبوتات والذكاء الاصطناعي (لأنهما مرتبطان بشكل غير مفهوم) لأتمتة أعباء العمل حيث تشتد الحاجة إليها. وكما هو الحال في التصنيع، فقد رأيت استخدام الروبوتات لمساعدة كبار السن وأتمتة العمل اليدوي الخطير في مجتمعنا. ومع ذلك، فقد حصلت على درجة الدكتوراه. في مجال فرعي مختلف من علوم الكمبيوتر، لأنني أعتقد أن وجود أساس نظري متين في علوم الكمبيوتر يسمح لك باتخاذ قرارات مستنيرة وعلمية حول أين يمكن أو لا يمكن تكييف الذكاء الاصطناعي، وأين يمكن العثور على الفخاخ.
ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟
استخدم خبرتي وتجربتي القوية في هندسة الأمن والأنظمة الحيوية للسلامة لتوفير السياق والانتقادات عند الضرورة في مجال “أمن” الذكاء الاصطناعي الناشئ. على الرغم من أن مجال أمن الذكاء الاصطناعي قد حاول التكيف والاستشهاد بتقنيات السلامة والأمن الراسخة، فقد تم إساءة تفسير المصطلحات المختلفة في استخدامها ومعناها. هناك نقص في التعريفات المتسقة أو المتعمدة التي تهدد سلامة تقنيات الأمان التي يستخدمها مجتمع الذكاء الاصطناعي حاليًا. أنا فخور بشكل خاص بـ “نحو تقييمات شاملة للمخاطر وضمان الأنظمة القائمة على الذكاء الاصطناعي” و “إطار تحليل المخاطر لنماذج لغة تركيب التعليمات البرمجية الكبيرة” حيث أقوم بتفكيك الروايات الكاذبة حول أمن الذكاء الاصطناعي وتقييماته، وأقترح خطوات ملموسة لسد الفجوة الأمنية داخل الذكاء الاصطناعي.
كيف يمكننا مواجهة تحديات قطاع التكنولوجيا الذي يهيمن عليه الذكور، وبالتالي قطاع الذكاء الاصطناعي الذي يهيمن عليه الذكور؟
إن إدراك مدى ضآلة التغير في الوضع الراهن ليس شيئًا نناقشه غالبًا، ولكن أعتقد أنه من المهم بالنسبة لي وللنساء التقنيات الأخريات فهم موقفنا داخل الصناعة والحصول على رؤية واقعية للتغييرات الضرورية. ظلت معدلات الاستبقاء ونسبة النساء في المناصب القيادية على حالها إلى حد كبير منذ أن انضممت إلى هذا المجال قبل أكثر من عقد من الزمن. وكما أشار موقع TechCrunch بحق، على الرغم من التقدم والمساهمات الهائلة للنساء في مجال الذكاء الاصطناعي، إلا أننا لا نزال مستبعدين من المحادثات التي حددناها بأنفسنا. لقد ساعدني إدراك هذا النقص في التقدم على فهم أن بناء مجتمع شخصي قوي هو أكثر قيمة بكثير كمصدر للدعم بدلاً من الاعتماد على مبادرات DEI التي للأسف لم تحدث فرقًا، مع الأخذ في الاعتبار أن التحيز والتشكيك تجاه النساء التقنيات لا يزال قائمًا. السائدة في مجال التكنولوجيا.
ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟
لا تلجأ إلى السلطة وابحث عن مجال العمل الذي تؤمن به حقًا، حتى لو كان يتعارض مع الروايات الشعبية. ونظرًا للقوة السياسية والاقتصادية الحالية لمختبرات الذكاء الاصطناعي، هناك غريزة لأخذ كل ما يقوله “قادة الفكر” في مجال الذكاء الاصطناعي كحقيقة، في حين أن العديد من ادعاءات الذكاء الاصطناعي هي في كثير من الأحيان خطابات تسويقية تبالغ في تقدير قدرات الذكاء الاصطناعي لصالحهم. نتيجة صافية. ومع ذلك فإنني أرى تردداً كبيراً، وخاصة بين الشابات في هذا المجال، للتعبير عن التشكك في ادعاءات أقرانهن الذكور التي لا يمكن إثباتها. تتمتع متلازمة المحتال بقبضة قوية على النساء في مجال التكنولوجيا، مما يدفع الكثيرات إلى الشك في نزاهتهن العلمية. ولكن من المهم أكثر من أي وقت مضى تحدي الادعاءات التي تبالغ في تقدير قدرات الذكاء الاصطناعي، وخاصة تلك التي لا يمكن دحضها وفقا للمنهج العلمي.
ما هي القضايا الأكثر إلحاحا التي تواجه الذكاء الاصطناعي أثناء تطوره؟
ومهما كان التقدم الذي نشهده في الذكاء الاصطناعي، فإنه لن يكون الحل الوحيد لمشاكلنا، سواء من الناحية التكنولوجية أو الاجتماعية. يوجد حاليًا اتجاه لدمج الذكاء الاصطناعي في كل نظام ممكن، بغض النظر عن فعاليته (أو عدمه) في العديد من المجالات. ينبغي للذكاء الاصطناعي أن يعزز القدرات البشرية بدلا من أن يحل محلها، ونحن نشهد تجاهلا تاما للمزالق وأنماط الفشل في الذكاء الاصطناعي التي تؤدي إلى ضرر حقيقي وملموس. في الآونة الأخيرة، تم إنشاء نظام الذكاء الاصطناعي ShotSpotter قاد مؤخرا ضابط شرطة لإطلاق النار على طفل.
ما هي المشكلات التي يجب أن يكون مستخدمو الذكاء الاصطناعي على دراية بها؟
ما مدى عدم موثوقية الذكاء الاصطناعي حقًا. من المعروف أن خوارزميات الذكاء الاصطناعي معيبة، مع ملاحظة معدلات خطأ عالية في التطبيقات التي تتطلب الدقة والأمان. تتضمن الطريقة التي يتم بها تدريب أنظمة الذكاء الاصطناعي التحيز البشري والتمييز في نتائجها التي تصبح “فعلية” وآلية. وذلك لأن طبيعة أنظمة الذكاء الاصطناعي هي تقديم نتائج بناءً على الاستدلالات والارتباطات الإحصائية والاحتمالية من البيانات التاريخية، وليس أي نوع من الاستدلال أو الأدلة الواقعية أو “السببية”.
ما هي أفضل طريقة لتطوير الذكاء الاصطناعي بشكل مسؤول؟
التأكد من تطوير الذكاء الاصطناعي بطريقة تحمي حقوق الأشخاص وسلامتهم من خلال تقديم ادعاءات يمكن التحقق منها ومحاسبة مطوري الذكاء الاصطناعي أمامهم. ويجب أن تقتصر هذه الادعاءات أيضًا على التطبيقات التنظيمية أو المتعلقة بالسلامة أو الأخلاق أو التقنية، ويجب ألا تكون قابلة للتزوير. وبخلاف ذلك، هناك نقص كبير في النزاهة العلمية لتقييم هذه الأنظمة بشكل صحيح. ويجب على الهيئات التنظيمية المستقلة أيضًا تقييم أنظمة الذكاء الاصطناعي في ضوء هذه الادعاءات، كما هو الحال حاليًا بالنسبة للعديد من المنتجات والأنظمة في الصناعات الأخرى، على سبيل المثال تلك التي يتم تقييمها من قبل إدارة الغذاء والدواء. لا ينبغي إعفاء أنظمة الذكاء الاصطناعي من عمليات التدقيق القياسية الراسخة لضمان حماية الجمهور والمستهلك.
كيف يمكن للمستثمرين تعزيز الذكاء الاصطناعي المسؤول بشكل أفضل؟
يجب على المستثمرين إشراك وتمويل المنظمات التي تسعى إلى إنشاء ممارسات التدقيق الخاصة بالذكاء الاصطناعي وتطويرها. يتم استثمار معظم الأموال حاليًا في مختبرات الذكاء الاصطناعي نفسها، مع الاعتقاد بأن فرقها الأمنية كافية لتطوير تقييمات الذكاء الاصطناعي. ومع ذلك، فإن المدققين والهيئات التنظيمية المستقلة ضرورية لثقة الجمهور. تسمح الاستقلالية للجمهور بالثقة في دقة ونزاهة التقييمات ونزاهة النتائج التنظيمية.
Source link