لمنح أكاديميي الذكاء الاصطناعي وغيرهم الوقت الذي يستحقونه – والذي طال انتظاره – في دائرة الضوء، تطلق TechCrunch سلسلة مقابلة مع التركيز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، لتسليط الضوء على الأعمال الرئيسية التي غالبًا ما يتم تجاهلها. اقرأ المزيد من الملفات الشخصية هنا.
سارة كريبس هي عالمة سياسية، ومحاربة سابقة في القوات الجوية الأمريكية، ومحللة تركز على السياسة الخارجية والدفاعية الأمريكية. وهي أستاذة في الحكومة في جامعة كورنيل، وأستاذة مساعدة في القانون في كلية الحقوق بجامعة كورنيل، وزميلة أبحاث مساعدة في معهد الحرب الحديثة في ويست بوينت.
تستكشف الأبحاث التي أجراها كريبس مؤخرًا إمكانات ومخاطر تقنيات الذكاء الاصطناعي مثل تقنيات OpenAI. جي بي تي-4وخاصة في المجال السياسي. في مراجعة عمود وفي مقال لصحيفة الجارديان العام الماضي، كتبت أنه مع استثمار المزيد من الأموال في الذكاء الاصطناعي، فإن سباق التسلح في الذكاء الاصطناعي، ليس فقط بين الشركات ولكن أيضًا بين الدول، سوف يشتد – في حين يصبح تحدي سياسة الذكاء الاصطناعي أكثر صعوبة.
أسئلة وأجوبة
باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟
لقد بدأت العمل على التقنيات الناشئة التي لها آثار على الأمن القومي. كنت ضابطًا في القوات الجوية في وقت نشر طائرة بريداتور بدون طيار، وكنت مشاركًا في أنظمة الرادار والأقمار الصناعية المتقدمة. لقد أمضيت أربع سنوات في العمل في هذا المجال، لذلك كان من الطبيعي أن أكون مهتمًا، كطالب دكتوراه، بدراسة الآثار المترتبة على الأمن القومي للتكنولوجيات الناشئة. كتبت لأول مرة عن الطائرات بدون طيار، وكان النقاش حول الطائرات بدون طيار يتجه نحو مسائل الاستقلالية، والتي تتضمن بالطبع الذكاء الاصطناعي.
في عام 2018، كنت في ورشة عمل حول الذكاء الاصطناعي في أحد مراكز الأبحاث في العاصمة وقدمت OpenAI عرضًا تقديميًا حول هذا الجديد. جي بي تي-2 القدرات التي طوروها. لقد عشنا للتو انتخابات عام 2016 والتدخل في الانتخابات الأجنبية، والذي كان من السهل نسبيًا اكتشافه بسبب أشياء صغيرة مثل الأخطاء النحوية من المتحدثين غير الأصليين للغة الإنجليزية – وهو نوع الأخطاء التي لم تكن مفاجئة نظرًا لأن التدخل جاء من حكومة. وكالة أبحاث الإنترنت المدعومة من روسيا. عندما قدمت شركة OpenAI هذا العرض، شعرت بالقلق على الفور بشأن إمكانية توليد معلومات مضللة ذات مصداقية على نطاق واسع، ومن ثم، من خلال الاستهداف الدقيق، التلاعب بسيكولوجية الناخبين الأميركيين بشكل أكثر فعالية بكثير مما كان ممكنا. وكان ذلك ممكنا عندما كان هؤلاء الأفراد يحاولون الكتابة المحتوى باليد. ، حيث سيكون الحجم دائمًا مشكلة.
لقد تواصلت مع OpenAI وأصبحت من أوائل المتعاونين الأكاديميين في استراتيجية الإصدار المرحلي الخاصة بهم. كان بحثي الخاص يهدف إلى التحقيق في حالة سوء استخدام محتملة – إذا كان GPT-2 والإصدارات الأحدث جي بي تي-3 كانت ذات مصداقية كمولدات للمحتوى السياسي. في سلسلة من التجارب، قمت بتقييم ما إذا كان الجمهور سينظر إلى هذا المحتوى على أنه ذو مصداقية، ولكن بعد ذلك أجريت أيضًا تجربة ميدانية كبيرة قمت فيها بإنشاء “رسائل للدوائر الانتخابية” قمت بتوزيعها بشكل عشوائي مع رسائل الدوائر الانتخابية الفعلية لمعرفة ما إذا كان المشرعون سيستجيبون بنفس المعدل إلى ما إذا كان من الممكن تضليلهم ــ وما إذا كانت الجهات الفاعلة السيئة قادرة على تشكيل الأجندة التشريعية من خلال حملة رسائل واسعة النطاق.
هذه الأسئلة تمس جوهر ما يعنيه أن تكون ديمقراطية ذات سيادة، وقد خلصت بشكل لا لبس فيه إلى أن هذه التكنولوجيات الجديدة تشكل تهديدات جديدة لديمقراطيتنا.
ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟
أنا فخور جدًا بالتجربة الميدانية التي أجريتها. لم يقم أحد بأي شيء مماثل وكنا أول من أظهر الإمكانات التخريبية في سياق الأجندة التشريعية.
ولكنني أيضًا فخور بالأدوات التي للأسف لم أطرحها في السوق مطلقًا. لقد عملت مع العديد من طلاب علوم الكمبيوتر في جامعة كورنيل لتطوير تطبيق من شأنه معالجة رسائل البريد الإلكتروني التشريعية الواردة ومساعدتهم على الاستجابة للناخبين بطريقة مفيدة. كنا نعمل على هذا من قبل ChatGPT واستخدام الذكاء الاصطناعي لاستيعاب الحجم الكبير من رسائل البريد الإلكتروني وتقديم مساعدة الذكاء الاصطناعي للموظفين الذين يعانون من ضغط الوقت ويتواصلون مع الأشخاص في منطقتهم أو ولايتهم. وكنت أعتقد أن هذه الأدوات كانت مهمة بسبب سخط الناخبين من السياسة، ولكن أيضاً بسبب الطلب المتزايد على وقت المشرعين. يبدو أن تطوير الذكاء الاصطناعي بطريقة تهم الجمهور يمثل مساهمة قيمة وعملًا مثيرًا للاهتمام متعدد التخصصات لعلماء السياسة وعلماء الكمبيوتر. لقد أجرينا عددًا من التجارب لتقييم الأسئلة السلوكية حول شعور الناس تجاه مساعدة الذكاء الاصطناعي في الإجابة عليهم، وخلصنا إلى أن المجتمع قد لا يكون مستعدًا لشيء كهذا. ولكن بعد أشهر قليلة من إيقافنا، ظهر ChatGPT على الساحة وأصبح الذكاء الاصطناعي منتشرًا في كل مكان لدرجة أنني أتساءل تقريبًا عن مدى قلقنا بشأن ما إذا كان مشكوكًا فيه من الناحية الأخلاقية أو مشروعًا. لكن ما زلت أشعر أنه من الصواب أن نطرح أسئلة أخلاقية صعبة حول حالة الاستخدام المشروع.
كيف يمكننا مواجهة تحديات قطاع التكنولوجيا الذي يهيمن عليه الذكور، وبالتالي قطاع الذكاء الاصطناعي الذي يهيمن عليه الذكور؟
كباحثة، لم أشعر بهذه التحديات بشكل حاد. لقد كنت في منطقة الخليج للتو، وكان جميع الرجال يقومون فعليًا بطرح أفكارهم في مصعد الفندق، وهي عبارة مبتذلة يمكن أن أراها مخيفة. أوصي بالعثور على مرشدين (ذكورًا وإناثًا)، وتطوير المهارات والسماح لهذه المهارات بالتحدث عن نفسها، ومواجهة التحديات والبقاء صامدين.
ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟
أعتقد أن هناك العديد من الفرص المتاحة للنساء: فهم بحاجة إلى تطوير مهاراتهم والثقة في أنفسهم لتحقيق النجاح.
ما هي القضايا الأكثر إلحاحا التي تواجه الذكاء الاصطناعي أثناء تطوره؟
أخشى أن يكون مجتمع الذكاء الاصطناعي قد طور العديد من المبادرات البحثية التي تركز على موضوعات مثل “محاذاة فائقة“التي تحجب الأسئلة الأعمق – أو الأسئلة الصحيحة بالفعل – حول القيم أو القيم التي نحاول مواءمة الذكاء الاصطناعي معها. جوجل الجوزاء إشكالية أظهر الطرح الصورة الكاريكاتورية التي يمكن أن تنجم عن التوافق مع مجموعة ضيقة من قيم المطورين بطريقة أدت في الواقع إلى أخطاء تاريخية مثيرة للضحك في نتائجها. أعتقد أن قيم هؤلاء المطورين كانت بحسن نية، لكنهم كشفوا حقيقة أن هذه النماذج اللغوية الكبيرة مبرمجة بمجموعة معينة من القيم التي ستشكل طريقة تفكير الناس في السياسة والعلاقات الاجتماعية ومجموعة متنوعة من القيم. مواضيع حساسة. لا تشكل هذه القضايا خطرًا وجوديًا، ولكنها تخلق النسيج الاجتماعي وتعطي قوة كبيرة للشركات الكبيرة (مثل OpenAI، وGoogle، وMeta، وما إلى ذلك) المسؤولة عن هذه النماذج.
ما هي المشكلات التي يجب أن يكون مستخدمو الذكاء الاصطناعي على دراية بها؟
مع انتشار الذكاء الاصطناعي في كل مكان، أعتقد أننا دخلنا عالم “الثقة ولكن التحقق”. من غير المعقول عدم تصديق أي شيء، ولكن هناك الكثير من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ويحتاج المستخدمون حقًا إلى توخي الحذر بشأن ما يثقون به بشكل غريزي. من الجيد البحث عن مصادر بديلة للتحقق من صحتها قبل افتراض أن كل شيء دقيق. لكنني أعتقد أننا تعلمنا ذلك بالفعل من خلال وسائل التواصل الاجتماعي والمعلومات المضللة.
ما هي أفضل طريقة لتطوير الذكاء الاصطناعي بشكل مسؤول؟
لقد كتبت مؤخرًا أ قطعة لنشرة علماء الذرة، التي بدأت في تغطية الأسلحة النووية ولكنها تكيفت للتعامل مع التكنولوجيات المدمرة مثل الذكاء الاصطناعي. كنت أفكر في كيف يمكن للعلماء أن يصبحوا مديرين حكوميين أفضل وأردت ربط بعض الحالات التاريخية التي درستها كجزء من مشروع كتاب. لا ألخص فقط مجموعة من الخطوات التي سأدعمها من أجل التطوير المسؤول، بل أشرح أيضًا سبب كون بعض الأسئلة التي يطرحها مطورو الذكاء الاصطناعي خاطئة أو غير كاملة أو مضللة.
Source link