بالنسبة لـ OpenAI، كانت الأسابيع القليلة الماضية كذلك يفعل عديد ضمانات – وليس لأفضل الأسباب. ولا تنتهي القصة عند هذا الحد: فالعديد من موظفي OpenAI الحاليين والسابقين، جنبًا إلى جنب مع موظفي Google DeepMind، ينتقدون الآن شركات الذكاء الاصطناعي الكبرى بسبب إشرافها، وثقافتها المتمثلة في النقد الخانق، وافتقارها العام إلى الشفافية.
في رسالة مفتوحة، طالب المبلغون عن المخالفات بشكل أساسي بالحق في انتقاد تكنولوجيا الذكاء الاصطناعي والمخاطر المرتبطة بها علنًا. وكتبوا أنه بسبب عدم وجود شرط لتبادل المعلومات مع الوكالات الحكومية والجهات التنظيمية، فإن “الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلة (هذه الشركات) أمام الجمهور”، وقالوا إن الكثير منهم “يخافون”. أشكال مختلفة من الانتقام” لذلك.
وطلب الموقعون من شركات الذكاء الاصطناعي المتقدمة الالتزام بمبادئ معينة، بما في ذلك تسهيل عملية مجهولة للموظفين لإثارة المخاوف المتعلقة بالمخاطر وأن الشركات ستدعم “ثقافة النقد المفتوح”، بشرط حماية الأسرار التجارية في هذه العملية. كما طلبوا من الشركات عدم الانتقام من أولئك الذين “يشاركون علنًا المعلومات السرية المتعلقة بالمخاطر بعد فشل العمليات الأخرى”.
سرعة الضوء قابلة للسحق
في الرسالة، تناقش المجموعة أيضًا مخاطر الذكاء الاصطناعي التي يدركونها: بدءًا من ترسيخ عدم المساواة القائمة إلى تفاقم المعلومات الخاطئة، بما في ذلك إمكانية انقراض الإنسان.
دانييل كوكوتاجلو، باحث سابق في OpenAI وأحد منظمي المجموعة، قال لصحيفة نيويورك تايمز أن OpenAI “تقوم بسباق متهور” للوصول إلى قمة لعبة الذكاء الاصطناعي. خضعت الشركة لتدقيق مكثف لعملياتها الأمنية، مع الإطلاق الأخير لفريق الأمن الداخلي كما يثير الدهشة حول حقيقة ذلك سام التمان، الرئيس التنفيذي يجلس على رأسه.
المواضيع
ذكاء إصطناعي
OpenAI