تقنية

عند تطبيق الذكاء الاصطناعي، قم بتدريب مديريك أولاً

سكاينيشر / جيتي إيماجيس

يتطلب دمج الذكاء الاصطناعي في مؤسسة ما أكثر من مجرد معرفة عملية بالذكاء الاصطناعي: إنها مجرد خطوة أولى. أظهر استطلاع حديث أن معظم المؤسسات وأقسام تكنولوجيا المعلومات لديها، وخاصة المديرين والمديرين التنفيذيين الذين يتحكمون في الموارد اللازمة لإنجاز الأمور، ليسوا مستعدين بعد للتعامل مع الذكاء الاصطناعي. بالإضافة إلى ذلك، لم يتم بعد توفير المهارات والأدوات والحلول اللازمة.

يقول التقرير: حتى قادة تكنولوجيا المعلومات لا يفهمون بعد الآثار المترتبة على الذكاء الاصطناعي تحقيق وفقًا لاستطلاع أجرته SAS لـ 1600 من صناع القرار في مجال تكنولوجيا المعلومات، اعترف تسعة من كل عشرة (93٪) من كبار صناع القرار في مجال تكنولوجيا المعلومات أنهم لا يفهمون بشكل كامل الذكاء الاصطناعي التوليدي (GenAI) أو تأثيره المحتمل على العمليات التجارية.

أيضا: ما هو كبير موظفي الذكاء الاصطناعي وكيف تصبح واحدًا؟

القادة بحاجة ماسة إلى التحديث. أقل من النصف (45%) من مديري تكنولوجيا المعلومات الذين شملهم الاستطلاع وما يزيد قليلاً عن الثلث (36%) من مديري تكنولوجيا المعلومات يعتبرون أنفسهم “على دراية تامة” باعتماد GenAI في مؤسساتهم. والأسوأ من ذلك أن 13% فقط من المديرين الرقميين يعترفون بأنهم على دراية كاملة بالذكاء الاصطناعي.

والأمر أسوأ من ذلك: يقول 4% فقط من مديري تكنولوجيا المعلومات أو نظم المعلومات أن لديهم معرفة متعمقة بالذكاء الاصطناعي، كما يفعل 2% فقط من مديري أو مديري تكنولوجيا المعلومات.

وبشكل عام، تقدم 7% فقط من الشركات تدريبًا عالي المستوى حول حوكمة ومراقبة الذكاء الاصطناعي بشكل عام، كما تقدم 15% إضافية دعمًا مماثلاً للذكاء الاصطناعي التوليدي. تعتبر هذه النقطة أساسية لأن 75% من المشاركين يشعرون بالقلق إزاء خصوصية البيانات وأمانها عند استخدام GenAI في مؤسساتهم.

وهذا يعني أن الأمر قد يستغرق وقتًا، فضلاً عن الكثير من التدريب والتحليل، للتغلب على المشكلات التي قد تعرقل تطبيقات الذكاء الاصطناعي. على سبيل المثال، 5% فقط لديهم نظام موثوق لقياس التحيز ومخاطر الخصوصية في نماذج اللغات الكبيرة. و42% إضافية مع مراعاة تطوير قدرات الكشف عن مخاطر الخصوصية الداخلية، ويخطط 32% لتطوير قدرات الكشف عن التحيز الداخلي.

فقط 29% منهم لديهم مراقبة آلية مستمرة لتطبيقات الذكاء الاصطناعي التوليدية الخاصة بهم. 25% فقط يقومون بعمليات تدقيق يدوية منتظمة لنتائج الذكاء الاصطناعي الخاصة بهم.

أيضا: أفضل دورات الذكاء الاصطناعي المجانية لعام 2024 (وما إذا كانت شهادات الذكاء الاصطناعي تستحق العناء)

يقول المؤلفون المشاركون للتقرير: “إن الاستثمار المثالي في GenAI يوفر فرصًا واضحة لتحقيق الكفاءة وتحسين تجربة العملاء، لكن العديد من الشركات أبلغت عن وجود ثغرات في تفكيرها الاستراتيجي تعيق النشر الناجح”. “يظهر بحثنا أن الشركات تندفع إلى GenAI قبل أن يكون لديها أنظمة حوكمة مناسبة، مما قد يؤدي إلى مشكلات خطيرة تتعلق بالجودة والامتثال في المستقبل. »
ويطرح دمج الذكاء الاصطناعي في العمليات والأنظمة الحالية تحديات أيضًا. يقول مؤلفو الاستطلاع: “تكافح العديد من الشركات لدمج التكنولوجيا في مهامها وأدواتها الحالية”. بالإضافة إلى ذلك، يقول ما يقرب من نصف (47٪) صناع القرار أنهم لا يملكون الأدوات المناسبة لتنفيذ GenAI.

فيما يلي المشاكل الرئيسية التي تواجهها المنظمات التي تستخدم الذكاء الاصطناعي:

  • يقول 48% أنهم يجدون صعوبة في استخدام مجموعات البيانات العامة والخاصة بشكل فعال.
  • 45% أفادوا بعدم وجود الأدوات المناسبة.
  • يقول 42% أنهم يواجهون تحديات في تحويل الذكاء الاصطناعي التوليدي من الاستخدام المفاهيمي إلى الاستخدام العملي.
  • يقول 39% أنهم يواجهون مشكلات في التوافق مع الأنظمة الحالية.

ويكشف الاستطلاع أيضًا عن ارتفاع الطلب على خبرات الذكاء الاصطناعي الداخلية. تشعر نصف الشركات (51%) بالقلق من عدم امتلاكها للمهارات الداخلية اللازمة لاستخدام التكنولوجيا بشكل فعال. يقول حوالي أربعة من كل عشرة (39٪) من المشاركين أن نقص الخبرة الداخلية يشكل عائقًا أمام تنفيذ GenAI.

أيضا: سوف يتباطأ اعتماد الذكاء الاصطناعي التوليدي لهذا السبب وحده

يسلط مؤلفو الاستطلاع الضوء على المهام التالية المرتبطة بمشاريع الذكاء الاصطناعي الناجحة:

  • تكامل الذكاء الاصطناعي: الحاجة إلى “دمج نماذج GenAI بسلاسة في تدفقات القرارات الحالية، وتطبيقات الذكاء الاصطناعي والتعلم الآلي، والعمليات التجارية باستخدام أدوات تدفق القرار مثل اتخاذ القرار الذكي.”
  • حماية البيانات: “ضمان خصوصية المستخدم وأمانه من خلال تدابير قوية لجودة البيانات، بما في ذلك إنشاء البيانات الاصطناعية وتقليل البيانات وإخفاء الهوية والتشفير، والتي توفر ضمانات للمعلومات الحساسة. »
  • نتائج موثوقة وقابلة للتفسير: “يمكن لعلماء البيانات تطبيق تقنيات معالجة اللغة الطبيعية على البيانات المعالجة مسبقًا، وشرح المخرجات الناتجة بمصطلحات سهلة الفهم، وتقليل الهلوسة، وتقليل التكاليف الرمزية. »
  • تعزيز الحوكمة: “استخدم سير العمل المتكامل الذي يتحقق من صحة دورة حياة LLM بأكملها، بدءًا من الامتثال التنظيمي وحتى نموذج إدارة المخاطر. »

التنبؤ أو حساب العائد على الاستثمار هي مهمة أخرى يجب الالتزام بها. ويتوقع أكثر من الثلث (36%) من صناع القرار في مجال تكنولوجيا المعلومات صعوبة في إثبات أن GenAI تحقق عائدًا كبيرًا على الاستثمار أو يجدون صعوبة في إثباتها، وفقًا للاستطلاع. يواجه ما يقرب من النصف (47%) صعوبة في الانتقال من المفهوم إلى الاستخدام العملي لـ GenAI. أربع من كل عشر مؤسسات (39٪) ليس لديها سياسة استخدام GenAI مطبقة.




Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى