في ملف الاكتتاب العام الأولي لشركة Rubrik هذا الأسبوع – بين الأجزاء المتعلقة بأعداد الموظفين والإفصاح عن التكاليف – كانت هناك كتلة صلبة تكشف كيف تنظر شركة إدارة البيانات إلى الذكاء الاصطناعي التوليدي والمخاطر التي تصاحب التكنولوجيا الجديدة: أنشأ Rubrik بشكل سري لجنة حوكمة. للإشراف على طريقة تطبيق الذكاء الاصطناعي في نشاطه.
وفقًا للنموذج S-1، تضم لجنة حوكمة الذكاء الاصطناعي الجديدة قادة من فرق الهندسة والمنتجات والشؤون القانونية وأمن المعلومات في شركة Rubrik. وجاء في التسجيل أن الفرق ستقوم معًا بتقييم المخاطر القانونية والأمنية والتجارية المحتملة المتعلقة باستخدام أدوات الذكاء الاصطناعي التوليدية والنظر في “الخطوات التي يمكن اتخاذها للتخفيف من هذه المخاطر”.
لكي نكون واضحين، فإن شركة Rubrik ليست في الأساس شركة ذكاء اصطناعي، بل منتجها الوحيد للذكاء الاصطناعي، وهو روبوت الدردشة روبي الذي تم إطلاقه في نوفمبر 2023، ويعتمد على Microsoft وOpenAI APIs. ولكن مثل كثيرين آخرين، تتصور شركة روبيريك (والمستثمرون الحاليون والمستقبليون) مستقبلًا يلعب فيه الذكاء الاصطناعي دورًا متزايدًا في أعمالها. لهذا السبب يمكن أن تصبح حوكمة الذكاء الاصطناعي هي الوضع الطبيعي الجديد.
تزايد الرقابة التنظيمية
تتبنى بعض الشركات أفضل ممارسات الذكاء الاصطناعي لتأخذ زمام المبادرة، ولكن سيتم دفع شركات أخرى للقيام بذلك من خلال لوائح مثل قانون الذكاء الاصطناعي الأوروبي.
ويحظر هذا التشريع التاريخي، الذي يُطلق عليه اسم “أول قانون شامل للذكاء الاصطناعي في العالم”، ومن المتوقع أن يصبح قانونًا عبر الكتلة في وقت لاحق من هذا العام، بعض حالات استخدام الذكاء الاصطناعي التي تعتبر تنطوي على “مخاطر غير مقبولة” ويحدد التطبيقات الأخرى “عالية المخاطر”. ويحدد مشروع القانون أيضًا قواعد الحوكمة للحد من المخاطر التي قد تؤدي إلى مزيد من الضرر مثل التحيز والتمييز. من المرجح أن يتم اعتماد نهج تسجيل المخاطر هذا على نطاق واسع من قبل الشركات التي تبحث عن مسار مبدئي لاعتماد الذكاء الاصطناعي.
ويتوقع إدواردو أوستاران، محامي الخصوصية وحماية البيانات والشريك في شركة Hogan Lovells International LLP، أن يؤدي قانون الذكاء الاصطناعي في الاتحاد الأوروبي والتزاماته التي لا تعد ولا تحصى إلى تعزيز الحاجة إلى حوكمة الذكاء الاصطناعي، الأمر الذي سيتطلب بدوره لجانًا. وقال: “بالإضافة إلى دورها الاستراتيجي في تصميم برنامج حوكمة الذكاء الاصطناعي والإشراف عليه، من منظور تشغيلي، تعد لجان حوكمة الذكاء الاصطناعي أداة رئيسية لإدارة المخاطر وتقليلها إلى الحد الأدنى”. “في الواقع، بشكل جماعي، يجب أن تكون اللجنة المنشأة بشكل صحيح والمزودة بالموارد قادرة على توقع أي مجالات للمخاطر والعمل مع الشركة لإدارتها قبل أن تتحقق. بمعنى ما، ستعمل لجنة حوكمة الذكاء الاصطناعي كأساس لجميع جهود الحوكمة الأخرى وتوفر الضمانات المطلوبة بشدة لتجنب ثغرات الامتثال.
في الآونة الأخيرة وثيقة سياسية وفيما يتعلق بآثار قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي على حوكمة الشركات، اتفقت كاثرينا ميلر، مستشارة الامتثال والحوكمة البيئية والاجتماعية والحوكمة، على توصية الشركات بإنشاء لجان لحوكمة الذكاء الاصطناعي كإجراء للامتثال.
الرقابة القانونية
الامتثال لا يقتصر فقط على إرضاء المنظمين. قانون الذكاء الاصطناعي الأوروبي له قوة، و”العقوبات المفروضة على عدم الامتثال لقانون الذكاء الاصطناعي كبيرة”، وفقا لشركة المحاماة الأنجلو-أمريكية نورتون روز فولبرايت. ملحوظة.
ويمتد نطاقها أيضًا إلى ما هو أبعد من أوروبا. وحذرت الشركة من المحامين أن “الشركات العاملة خارج أراضي الاتحاد الأوروبي قد تخضع لأحكام قانون الذكاء الاصطناعي إذا قامت بأنشطة متعلقة بالذكاء الاصطناعي تشمل مستخدمي الاتحاد الأوروبي أو بياناتهم”. إذا كان هذا يشبه اللائحة العامة لحماية البيانات، فسيكون للتشريع تأثير دولي، خاصة في هذا السياق زيادة التعاون بين الاتحاد الأوروبي والولايات المتحدة في مجال الذكاء الاصطناعي.
يمكن أن تسبب أدوات الذكاء الاصطناعي مشاكل للشركات خارج نطاق تشريعات الذكاء الاصطناعي. رفض Rubrik مشاركة التعليقات مع TechCrunch، ويرجع ذلك على الأرجح إلى الاكتتاب العام الأولي. فترة الهدوءلكن ملف الشركة يذكر أن لجنة حوكمة الذكاء الاصطناعي لديها تقوم بتقييم مجموعة واسعة من المخاطر.
تتضمن معايير الاختيار والتحليل النظر في كيف يمكن أن يثير استخدام أدوات الذكاء الاصطناعي التوليدية قضايا تتعلق بالمعلومات السرية والبيانات الشخصية والخصوصية وبيانات العملاء والالتزامات التعاقدية والبرمجيات مفتوحة المصدر وحقوق النشر وحقوق الملكية الفكرية الأخرى والشفافية والدقة والموثوقية. نتائج. ، و الامن.
ضع في اعتبارك أن رغبة Rubrik في تغطية الأسس القانونية قد تكون نتيجة لمجموعة متنوعة من الأسباب الأخرى. يمكن، على سبيل المثال، أن يكون هناك أيضًا لإظهار أنه يتوقع المشكلات بمسؤولية، وهو أمر ضروري نظرًا لأن روبيريك لم يتعامل بالفعل مع مشكلة ما فحسب. تسرب البيانات و للاختراقلكن أيضا دعاوى الملكية الفكرية.
مسألة البصريات
وغني عن القول أن الشركات لن تنظر إلى الذكاء الاصطناعي من منظور الوقاية من المخاطر فحسب. ستكون هناك فرص لن يرغبوا في تفويتها، ولن يفعل ذلك عملاؤهم أيضًا. وهذا هو أحد أسباب تنفيذ أدوات الذكاء الاصطناعي التوليدية على الرغم من العيوب الواضحة مثل “هلوسة» (أي الميل إلى اختلاق المعلومات).
سيكون هذا توازنًا دقيقًا يتعين على الشركات العثور عليه. فمن ناحية، قد يؤدي التفاخر باستخدامهم للذكاء الاصطناعي إلى زيادة تقييمهم، بغض النظر عن حقيقة هذا الاستخدام أو الفارق الذي يحدثه في أرباحهم النهائية. ومن ناحية أخرى، سيتعين عليهم طمأنة أنفسهم بشأن المخاطر المحتملة.
وقال أدوماس سيوديكا، مستشار المعلومات من شركة OneTrust، مزود برامج الخصوصية والأمن: “نحن في هذه المرحلة الرئيسية من تطور الذكاء الاصطناعي حيث يعتمد مستقبل الذكاء الاصطناعي بشكل كبير على ثقة الجمهور في أنظمة الذكاء الاصطناعي والشركات التي تستخدمها”. كتب في مقال مدونة حول هذا الموضوع.
من المرجح أن يكون إنشاء لجان حوكمة الذكاء الاصطناعي طريقة واحدة على الأقل لمحاولة المساعدة على جبهة الثقة.
Source link