تشفير

تقوم شركة WitnessAI ببناء حواجز حماية لنماذج الذكاء الاصطناعي التوليدية

الذكاء الاصطناعي التوليدي يخترع الأشياء. قد يكون هذا متحيزا. في بعض الأحيان يبصق نصًا سامًا. إذن، هل يمكن أن تكون “آمنة”؟

ريك كاتشيا، الرئيس التنفيذي لشركة شاهدAIأعتقد أنه من الممكن.

قال كاتشيا، نائب الرئيس الأول السابق للتسويق في شركة Palo Alto Networks، في مقابلة مع TechCrunch: “إن تأمين نماذج الذكاء الاصطناعي يمثل مشكلة حقيقية، وهي مشكلة بارزة بشكل خاص لباحثي الذكاء الاصطناعي، ولكنها تختلف عن تأمين الاستخدام”. “أنا أنظر إليها مثل سيارة رياضية: امتلاك محرك أكثر قوة – أي نموذج – لا يمنحك أي شيء إلا إذا كان لديك مكابح جيدة وتوجيه جيد. إن أدوات التحكم لا تقل أهمية عن المحرك للقيادة السريعة.

من المؤكد أن هناك طلبا على مثل هذه الضوابط داخل الشركات، التي برغم تفاؤلها الحذر بشأن إمكانات تعزيز الإنتاجية التي يوفرها الذكاء الاصطناعي التوليدي، فإنها تشعر بالقلق إزاء القيود التي تفرضها هذه التكنولوجيا.

يقوم 51% من الرؤساء التنفيذيين بالتوظيف في أدوار إنتاجية مرتبطة بالذكاء الاصطناعي والتي لم تكن موجودة حتى هذا العام، وفقًا لدراسة أجرتها شركة IBM. إستفتاء الرآي العام يجد. ومع ذلك، فإن 9% فقط من الشركات تقول إنها مستعدة لإدارة التهديدات – بما في ذلك تهديدات الخصوصية والملكية الفكرية – الناشئة عن استخدامها للذكاء الاصطناعي التوليدي، وفقا لريسكونكت. تحقيق.

منصة WitnessAI التي تعترض النشاط بين الموظفين ونماذج الذكاء الاصطناعي التوليدية المخصصة التي يستخدمها صاحب العمل – ليست النماذج المحمية بواجهة برمجة التطبيقات مثل OpenAI’s GPT-4، ولكن على غرار Llama 3 of Meta – وتطبق سياسات وضمانات تخفيف المخاطر.

“أحد وعود الذكاء الاصطناعي للمؤسسات هو أنه يحرر ويضفي الطابع الديمقراطي على بيانات المؤسسة للموظفين حتى يتمكنوا من أداء وظائفهم بشكل أفضل. لكن افتح كل تلك البيانات الحساسة جيد جدا –– أو الهروب أو السرقة – مشكلة.

تبيع WitnessAI إمكانية الوصول إلى عدة وحدات، يركز كل منها على معالجة شكل مختلف من مخاطر الذكاء الاصطناعي التوليدية. أحدهما يسمح للمؤسسات بتنفيذ قواعد لمنع الموظفين في فرق معينة من استخدام الأدوات التوليدية القائمة على الذكاء الاصطناعي بطرق ليس من المفترض أن يفعلوها (على سبيل المثال، عن طريق طرح أسئلة حول تقارير الإيرادات الأولية أو لصق قواعد التعليمات البرمجية الداخلية). آخر يزيل معلومات الملكية والحساسة من المطالبات المرسلة إلى النماذج وينفذ تقنيات لحماية النماذج من الهجمات التي قد تجبرها على الخروج من النص.

وقال كاتشيا: “نعتقد أن أفضل طريقة لمساعدة الشركات هي تحديد المشكلة بطريقة منطقية، مثل اعتماد الذكاء الاصطناعي بأمان، ثم بيع حل يحل المشكلة”. “يريد CISO حماية الأعمال، وتساعدهم WitnessAI على القيام بذلك من خلال ضمان حماية البيانات، ومنع الحقن السريع، وإنفاذ السياسات القائمة على الهوية. يريد كبير مسؤولي الخصوصية التأكد من اتباع اللوائح الحالية والقادمة، ونمنحها الرؤية وطريقة للإبلاغ عن الأنشطة والمخاطر.

ولكن هناك شيء واحد صعب في WitnessAI من منظور الخصوصية: حيث تمر جميع البيانات عبر نظامها الأساسي قبل الوصول إلى النموذج. تتحلى الشركة بالشفافية بشأن هذا الأمر، حتى أنها تقدم أدوات لمراقبة النماذج التي يصل إليها الموظفون، والأسئلة التي يطرحونها على النماذج، والإجابات التي يحصلون عليها. ولكن هذا يمكن أن يخلق مخاطر الخصوصية الخاصة به.

ردًا على أسئلة حول سياسة خصوصية WitnessAI، قال Caccia إن المنصة “معزولة” ومشفرة لمنع ظهور أسرار العملاء.

“لقد قمنا ببناء منصة زمن الوصول بالميلي ثانية مع فصل تنظيمي مدمج – تصميم فريد ومعزول لحماية أعمال الذكاء الاصطناعي الخاصة بالمؤسسة بطريقة مختلفة جذريًا عن خدمات البرامج كخدمة التي عادة ما تكون متعددة المستأجرين.” قال. “نقوم بإنشاء مثيل منفصل لمنصتنا لكل عميل، مشفرًا بمفاتيحه. يتم عزل بيانات نشاط الذكاء الاصطناعي الخاصة بهم عنهم، ولا يمكننا رؤيتها.

ربما هذا سوف يهدئ مخاوف العملاء. أما بالنسبة للعمال قلق أما بالنسبة لإمكانية المراقبة التي توفرها منصة WitnessAI، فهذا قرار أكثر صعوبة.

تظهر الدراسات الاستقصائية أن الناس عمومًا لا يحبون مراقبة أنشطتهم في مكان العمل، لأي سبب كان، ويعتقدون أن ذلك له تأثير سلبي على معنويات الشركة. ما يقرب من ثلث المشاركين في دراسة فوربس تحقيق قالوا إنهم قد يفكرون في ترك وظائفهم إذا قام صاحب العمل بمراقبة نشاطهم واتصالاتهم عبر الإنترنت.

لكن كاتشيا يقول إن الاهتمام بمنصة WitnessAI كان ولا يزال قويًا، مع وجود 25 مستخدمًا مؤسسيًا مبكرًا في مرحلة إثبات المفهوم. (لن يكون متاحًا على نطاق واسع حتى الربع الثالث). وفي تصويت بالثقة من شركات رأس المال الاستثماري، جمعت WitnessAI 27.5 مليون دولار من شركة Ballistic Ventures (التي احتضنت WitnessAI) وGV، ذراع رأس المال الاستثماري لشركة Google.

تتمثل الخطة في تخصيص شريحة التمويل لزيادة فريق WitnessAI من 18 شخصًا إلى 40 بحلول نهاية العام. من المؤكد أن النمو سيكون مفتاحًا لدرء منافسي WitnessAI في المنطقة المزدهرة للامتثال النموذجي وحلول الحوكمة، ليس فقط من عمالقة التكنولوجيا مثل AWS وGoogle وSalesforce، ولكن أيضًا من الشركات الناشئة مثل كاليبسو آي.

وقال كاتشيا: “لقد وضعنا خطتنا للوصول إلى عام 2026 على الرغم من عدم وجود مبيعات لدينا، ولكن لدينا بالفعل ما يقرب من 20 ضعفًا من خط الأنابيب اللازم لتحقيق أهداف مبيعاتنا هذا العام”. “هذه هي جولة التمويل الأولى والإطلاق العام لنا، ولكن التنفيذ والاستخدام الآمنين للذكاء الاصطناعي يعد مجالًا جديدًا، وجميع قدراتنا تنمو مع هذا السوق الجديد.”


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى