موضوع الذكاء الاصطناعي (AI) لا يمكن أن يكون أكثر سخونة، مع ظهور أدوات مثل ChatGPT وMidjourney التي تطرح أسئلة حقيقية للغاية حول ما يعنيه الذكاء الاصطناعي لمستقبل البشرية. 35% من الشركات تم الإبلاغ عنها في جميع أنحاء العالم حاليًا باستخدام الذكاء الاصطناعي، مع 42% التقارير إنهم يخططون لاستخدامه في وقت ما في المستقبل. مع أخذ هذا في الاعتبار، خبراء التكنولوجيا لأصدقائنا سواكس لقد بحثت في خمس طرق يمكن أن يهدد بها الذكاء الاصطناعي عملك.
الدقة والمسؤولية
واحدة من أكبر المشكلات المتعلقة بالذكاء الاصطناعي، وخاصة منصات Chatbot مثل ChatGPT، هي أصل المعلومات التي تقدمها ودقتها ومسؤوليتها. يعد السؤال من أين يحصل الذكاء الاصطناعي على معلوماته أمرًا مهمًا، حيث لا توجد شفافية مع هذه المنصات وكيفية حصولها على المعلومات. من الصعب للغاية التحقق من المعلومات المقدمة بواسطة الذكاء الاصطناعي، وفي بعض الأحيان قد يكون ذلك مستحيلًا تمامًا.
هل هذا يعني أن الذكاء الاصطناعي اخترع معلوماته الخاصة؟ ليس بالضرورة، لكنه احتمال حقيقي. تسمى المعلومات الكاذبة التي يقدمها الذكاء الاصطناعي “الهلوسة” وهي شائعة. على سبيل المثال، عرض ChatGPT ذات مرة على المحامين أ قضايا قضائية وهمية عندما تستخدم للبحث القانوني للقضية. تثبت هذه الحالة أن هلوسة الذكاء الاصطناعي يمكن أن يكون لها آثار خطيرة في العالم الحقيقي، وأنها مصادر معلومات غير موثوقة للشركات.
فجوة المهارات
ومع اعتماد المزيد من الشركات على الذكاء الاصطناعي، ينبغي لها أن تسأل نفسها ما إذا كانت لديها المهارات والقدرات اللازمة للقيام بذلك بحكمة وفعالية. ومع وجود تهديد بالأخطاء والمعلومات الخاطئة والهلوسة، وهي أشياء يمكن أن تسبب أضرارًا جسيمة ولها آثار ضخمة، كما تم توضيحه سابقًا، فمن غير المرجح أن تتمتع المنظمات بالخبرة اللازمة لاستخدام التكنولوجيا إلى أقصى إمكاناتها وبشكل آمن.
يأتي الذكاء الاصطناعي مصحوبًا بمخاطر مثل مواطن الخلل في البيانات ومواطن الخلل التكنولوجية. أهم شيء في الذكاء الاصطناعي هو البيانات: فكيفية جمعها وتخزينها واستخدامها أمر مهم للغاية. وبدون فهم ذلك بشكل كامل، تواجه المؤسسات العديد من المخاطر، مثل الإضرار بالسمعة، ومشاكل في بياناتها، ومشكلات أمنية.
حقوق الطبع والنشر والمخاطر القانونية
إذا ارتكب شخص حقيقي شيئًا خاطئًا وخرق القانون، فإنه يتحمل المسؤولية عن أفعاله بموجب سيادة القانون، بغض النظر عن مكان وجوده. ماذا يحدث إذا خرق الذكاء الاصطناعي القانون؟ وهذا يخلق مجموعة من المشكلات القانونية للأشياء التي قد ينتجها الذكاء الاصطناعي.
كما ذكرنا سابقًا، فإن تحديد مصدر بيانات الذكاء الاصطناعي أو مكان حدوث الخطأ أمر صعب للغاية، مما يؤدي إلى العديد من المشكلات القانونية. إذا كان الذكاء الاصطناعي يستخدم نماذج بيانات من الملكية الفكرية، مثل البرامج والأعمال الفنية والموسيقى، فمن يملك الملكية الفكرية؟
إذا تم استخدام Google للبحث عن شيء ما، فيمكنه عادةً إرجاع رابط إلى المصدر أو مؤلف عنوان IP – وهذا ليس هو الحال مع الذكاء الاصطناعي. ليس هذا فحسب، بل هناك أيضًا مجموعة من القضايا الأخرى، بما في ذلك خصوصية البيانات، وتحيز البيانات، والتمييز، والأمن، والأخلاق. لقد كانت التزييفات العميقة أيضًا مصدر قلق كبير في الآونة الأخيرة، من يملك تزييفًا عميقًا لنفسك؟ أنت أو الخالق. هذه منطقة رمادية تمامًا ولا تزال مبكرة جدًا في عمرها بالنسبة للتنظيم أو القانون الملموس، لذلك يتعين على الشركات أن تأخذ ذلك في الاعتبار عند استخدام الذكاء الاصطناعي.
تخيل شركة كبيرة حيث يتم تنفيذ أدوات الذكاء الاصطناعي من قبل مختلف الموظفين والإدارات. ويطرح هذا الموقف مشكلات قانونية ومسؤولية كبيرة، مما دفع العديد من الشركات، بما في ذلك عمالقة الصناعة مثل Apple وJPMorgan Chase، إلى حظر استخدام أدوات الذكاء الاصطناعي مثل ChatGPT.
التكاليف
يتم تقييم كل قطعة من التكنولوجيا في نهاية المطاف من خلال عائد الاستثمار (ROI)، ويتم إنتاج بعض التقنيات بوعود وإمكانات، ولكنها تفشل في النهاية بسبب التكاليف المرتفعة التي تولدها. لنأخذ على سبيل المثال نظارات جوجل أو سيجوايس، وهي تقنيات واعدة في وقت اختراعها، ولكنها لم ترقى إلى مستوى المكاسب المتوقعة في السوق.
أصبح استخدام الذكاء الاصطناعي ضخمًا، حيث تستثمر الشركات مبالغ كبيرة فيه. على سبيل المثال، أكسنتشر هو استثمار 3 مليارات دولار ينتقلون إلى الذكاء الاصطناعي، وينفق مقدمو الخدمات السحابية الرئيسيون عشرات المليارات على البنية التحتية الجديدة للذكاء الاصطناعي. وهذا يعني أن العديد من الشركات ستضطر إلى إنفاق مبالغ ضخمة من المال لتدريب موظفيها واستخدام أحدث تقنيات الذكاء الاصطناعي، وبدون عائد على الاستثمار، فإن هذا ليس قرارًا مستدامًا أو فعالاً للشركة. ويمكن للاستثمارات الضخمة المطلوبة أن تؤتي ثمارها على المدى الطويل، ولكن هذا بالتأكيد ليس ضمانا. وجدت دراسة أجرتها مجموعة بوسطن الاستشارية أن 11% من الشركات ستشهد عائدًا كبيرًا على الاستثمار في الذكاء الاصطناعي.
خصوصية البيانات
بغض النظر عن كيفية استخدامها، تخضع البيانات الشخصية للجميع لقوانين حماية البيانات القياسية. يتضمن ذلك أي بيانات تم جمعها بغرض تدريب نموذج الذكاء الاصطناعي، والتي يمكن أن تصبح كبيرة للغاية بسهولة.
النصيحة العامة للمؤسسات هي إجراء تقييم تأثير حماية البيانات للحصول على موافقة أصحاب البيانات؛ كن مستعدًا لشرح استخدامك للبيانات الشخصية؛ وجمع ما هو ضروري فقط. ومن المهم ملاحظة أن شراء نظام الذكاء الاصطناعي من طرف ثالث لا يعفي الشركة من مسؤوليتها في الالتزام بقوانين حماية البيانات.
العام الماضي، منصة الفيديو وافقت Vimeo على دفع 2.25 مليون دولار لبعض مستخدميها كجزء من دعوى قضائية لجمع وتخزين البيانات الحيوية لوجوههم دون علمهم. واستخدمت الشركة البيانات لتدريب الذكاء الاصطناعي على تصنيف الصور للتخزين، وأصرت على أن “تحديد ما إذا كانت المنطقة تمثل وجهًا بشريًا أو كرة طائرة لا يرقى إلى مستوى “التعرف على الوجه”.
قم بالتسجيل مجانًا في insideBIGDATA النشرة الإخبارية.
انضم إلينا على تويتر: https://twitter.com/InsideBigData1
انضم إلينا على لينكد إن: https://www.linkedin.com/company/insidebigdata/
انضم إلينا على فيس بوك: https://www.facebook.com/insideBIGDATANOW