كونه أحد أكثر الأفلام التي تم الحديث عنها في العام الماضي، أوبنهايمر ــ القصة المحيطة بإنشاء القنبلة الذرية ــ كانت درساً ملموساً مفاده أن أي تكنولوجيا ثورية جديدة يمكن نشرها لمجموعة متنوعة من الأغراض. فالتفاعلات النووية، على سبيل المثال، يمكن تسخيرها لأغراض إنتاجية مثل توليد الكهرباء، أو مدمرة مثل أسلحة الدمار الشامل.
يبدو أن الذكاء الاصطناعي التوليدي – الذي اقتحم الاتجاه السائد منذ ما يزيد قليلاً عن عام – يتمتع بلحظة أوبنهايمر الخاصة به.
فمن ناحية، يقدم الذكاء الاصطناعي التوليدي للجهات الخبيثة طرقًا جديدة لتنفيذ أنشطتها الشائنة، بدءًا من إنشاء تعليمات برمجية ضارة بسهولة ووصولاً إلى شن هجمات تصيد على نطاق لم يحلموا به من قبل. ومع ذلك، فهي تضع في الوقت نفسه قدرات جديدة قوية في أيدي الأخيار، وخاصة قدرتها على تحليل المعرفة القيمة والاستفادة منها للرد على التهديدات الأمنية.
إن التكنولوجيا موجودة، فكيف يمكننا ضمان تعظيم قدرتها على تحقيق المنفعة مع تقليل قدرتها على التسبب في الضرر؟
أيد أمينة
إن جعل الذكاء الاصطناعي التوليدي قوة من أجل الخير يبدأ بجعله في متناول الأخيار بسهولة، حتى يتمكنوا من الاستفادة منه دون عناء. الطريقة الأكثر فعالية للقيام بذلك هي أن يقوم مقدمو الخدمة بدمج الذكاء الاصطناعي بشكل آمن وأخلاقي في المنصات والمنتجات التي يستخدمها عملاؤهم بالفعل كل يوم.
هناك تاريخ طويل وغني لهذا النوع من الأشياء التي تحدث مع أشكال أخرى من الذكاء الاصطناعي.
على سبيل المثال، قامت أنظمة إدارة المستندات بدمج طبقة التحليلات السلوكية تدريجيًا للكشف عن أنماط الاستخدام الشاذة التي قد تشير إلى حدوث خرق للنظام. لقد منح الذكاء الاصطناعي “عقلًا” لمراقبة التهديدات يتمتع بقدرته على النظر إلى أنماط الاستخدام السابقة وتحديد ما إذا كان التهديد موجودًا بالفعل أو ما إذا كان مستخدمًا مشروعًا للتهديد، مما يساعد على تقليل “الإنذارات الكاذبة” التخريبية.
كما شق الذكاء الاصطناعي طريقه إلى حزمة الأمان من خلال تعزيز أدوات التعرف على الفيروسات والبرامج الضارة، واستبدال أساليب التعريف القائمة على التوقيع بنهج قائم على الذكاء الاصطناعي “يتعلم” كيف تبدو التعليمات البرمجية الضارة حتى تتمكن من التصرف بمجرد اكتشافها. هو – هي. .
يمكن للبائعين اتباع مسار مماثل عند دمج الذكاء الاصطناعي التوليدي في عروضهم – مما يساعد الأخيار على تنفيذ دفاع أكثر فعالية وكفاءة.
مورد قوي للمدافعين
يمكن للواجهة المشابهة لبرنامج chatbot للذكاء الاصطناعي أن تكون بمثابة مساعد موثوق به، حيث تقدم الإجابات والنصائح وأفضل الممارسات لمحترفي تكنولوجيا المعلومات حول كيفية التعامل مع أي موقف أمني سريع التطور.
ومع ذلك، فإن الإجابات التي يقدمها الذكاء الاصطناعي التوليدي لا تقل جودة عن المعرفة المستخدمة لتدريب نموذج اللغة الممتد الأساسي (LLM). هنا يتبادر إلى ذهني القول المأثور القديم “القمامة تدخل، القمامة تخرج”. ولذلك فمن الأهمية بمكان التأكد من تدريب النموذج على المحتوى المعتمد والمتحقق منه للتأكد من أنه يقدم إجابات دقيقة وذات صلة وفي الوقت المناسب – وهي عملية تعرف باسم التأريض.
وفي الوقت نفسه، يجب على العملاء الانتباه بعناية إلى أي مخاطر محتملة تتعلق بالمحتوى الحساس المنقول إلى LLM للتدريب، بما في ذلك أي متطلبات أخلاقية أو تنظيمية تتعلق بهذه البيانات. إذا تسربت البيانات المستخدمة لتدريب النموذج إلى العالم الخارجي – وهو احتمال، على سبيل المثال، عند استخدام أداة ذكاء اصطناعي توليدية مجانية تابعة لجهة خارجية والتي تمنحهم تفاصيلها الدقيقة الحق في رؤية بيانات التدريب الخاصة بك – فإن هذا يمثل إمكانات هائلة . مسؤولية. يعد استخدام تطبيقات وخدمات الذكاء الاصطناعي المولدة والمدمجة في منصات الموردين الموثوقين إحدى الطرق للقضاء على هذه المخاطر وإنشاء “حلقة مغلقة” تمنع التسريبات.
والنتيجة النهائية، عند القيام بها بشكل صحيح، هي مورد جديد لمحترفي الأمن: مصدر للمعرفة القيمة والذكاء الجماعي الذي يمكن للذكاء الاصطناعي التوليدي تقديمه لهم عند الطلب، مما يزيد ويحسن قدرتهم على حماية المؤسسة والدفاع عنها.
كما هو الحال مع التكنولوجيا النووية، خرج الجني من القمقم عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي: يمكن لأي شخص أن يضع يديه عليه ويستخدمه لأغراضه الخاصة. ومن خلال إتاحة هذه التكنولوجيا من خلال المنصات التي يستخدمها العملاء بالفعل، يمكن للأخيار الاستفادة منها بشكل كامل، مما يساعد على إبقاء التطبيقات الأكثر تدميرًا لهذه القوة الجديدة في متناول اليد.
عن المؤلف
مانويل سانشيز هو متخصص في أمن المعلومات والامتثال في أنا أدير.
قم بالتسجيل مجانًا في insideBIGDATA النشرة الإخبارية.
انضم إلينا على تويتر: https://twitter.com/InsideBigData1
انضم إلينا على لينكد إن: https://www.linkedin.com/company/insidebigdata/
انضم إلينا على فيس بوك: https://www.facebook.com/insideBIGDATANOW