تشفير

يقول رائد الروبوتات في معهد ماساتشوستس للتكنولوجيا، رودني بروكس، إن الناس يبالغون إلى حد كبير في تقدير الذكاء الاصطناعي التوليدي

عندما يتحدث رودني بروكس عن الروبوتات والذكاء الاصطناعي، عليك أن تستمع إليه. يشغل حاليًا منصب أستاذ الروبوتات المتميز في باناسونيك في معهد ماساتشوستس للتكنولوجيا، كما شارك في تأسيس ثلاث شركات رئيسية، بما في ذلك Rethink Robotics وiRobot وشركته الحالية Robust.ai. قاد بروكس أيضًا مختبر علوم الكمبيوتر والذكاء الاصطناعي (CSAIL) التابع لمعهد ماساتشوستس للتكنولوجيا لمدة عقد بدءًا من عام 1997.

في الواقع، إنه يحب التنبؤ بمستقبل الذكاء الاصطناعي يحتفظ بلوحة القيادة على مدونته لمعرفة مدى نجاحه.

إنه يعرف ما يتحدث عنه، ويعتقد أن الوقت قد حان لوضع حد للضجيج الصراخ حول الذكاء الاصطناعي التوليدي. ويعتقد بروكس أنها تقنية مثيرة للإعجاب، ولكنها ربما ليست جيدة كما يقترح الكثيرون. وقال لـ TechCrunch: “أنا لا أقول أن شهادات LLM ليست مهمة، ولكن علينا أن نكون حذرين في كيفية تقييمنا لها”.

ويقول إن مشكلة الذكاء الاصطناعي التوليدي هي أنه على الرغم من قدرته الكاملة على أداء عدد من المهام، إلا أنه لا يستطيع القيام بكل ما يفعله الإنسان، ويميل البشر إلى المبالغة في تقدير قدراته. “عندما يرى الإنسان نظام ذكاء اصطناعي يؤدي مهمة ما، فإنه يعممها على الفور على أشياء مماثلة ويقوم بتقدير كفاءة نظام الذكاء الاصطناعي؛ وقال بروكس: “ليس فقط الأداء في هذه المهمة، ولكن الكفاءة حولها”. “وهم عادة متفائلون للغاية، لأنهم يستخدمون نموذجًا لمدى جودة أداء الشخص في مهمة ما. »

وأضاف أن المشكلة تكمن في أن الذكاء الاصطناعي التوليدي ليس إنسانيا، أو حتى شبيها بالإنسان، ومن الخطأ محاولة إسناد القدرات البشرية إليه. ويقول إن الناس يعتبرونها قادرة جدًا لدرجة أنهم يريدون استخدامها لتطبيقات لا معنى لها.

يستشهد بروكس بمشروعه الأخير Robust.ai، وهو نظام روبوتات للمستودعات، كمثال. اقترح عليه أحد الأشخاص مؤخرًا أنه سيكون من المثير للاهتمام والفعال أن يخبر روبوتات المستودعات الخاصة به إلى أين تذهب من خلال بناء ماجستير في القانون لنظامه. ومع ذلك، وفقًا له، فإن هذه ليست حالة استخدام معقولة للذكاء الاصطناعي التوليدي وستؤدي في الواقع إلى إبطاء الأمور. ومع ذلك، فمن الأسهل بكثير توصيل الروبوتات بموجز البيانات من برنامج إدارة المستودعات.

“عندما تحصل على 10000 طلب وتحتاج إلى شحنها خلال ساعتين، فأنت بحاجة إلى تحسين ذلك. اللغة لن تساعد. وقال: “إن ذلك سيؤدي فقط إلى إبطاء الأمور”. “لدينا معالجة ضخمة للبيانات وتقنيات وتخطيط لتحسين الذكاء الاصطناعي. وهذه هي الطريقة التي ننفذ بها الطلبات بسرعة.

تعلم بروكس أيضًا درسًا آخر عندما يتعلق الأمر بالروبوتات والذكاء الاصطناعي: لا تحاول أن تفعل الكثير. يجب أن تكون هناك مشكلة قابلة للحل ويمكن دمج الروبوتات فيها بسهولة.

“نحن بحاجة إلى أتمتة المهام التي تم تنظيفها بالفعل. تعمل شركتي بشكل جيد في المستودعات، والتي هي في الواقع ضيقة جدًا. الإضاءة لا تتغير في هذه المباني الكبيرة. لا توجد أشياء ملقاة على الأرض، لأن الأشخاص الذين يدفعون العربات سوف يصطدمون بها. لا توجد أكياس بلاستيكية عائمة. وقال: “ليس من مصلحة الأشخاص الذين يعملون هناك عمومًا أن يكونوا ضارين تجاه الروبوت”.

يوضح بروكس أن الأمر يتعلق أيضًا بعمل الروبوتات والبشر معًا. لذا صممت شركته هذه الروبوتات لأغراض عملية تتعلق بعمليات المستودعات، بدلاً من بناء روبوت ذو مظهر بشري. في هذه الحالة، تبدو وكأنها عربة تسوق ذات مقبض.

“لذلك نحن لا نستخدم الروبوتات التي تشبه البشر والتي تتحرك، على الرغم من أنني قمت ببناء وتقديم عدد أكبر من الروبوتات التي تشبه البشر أكثر من أي شخص آخر. وقال: “إنها تبدو مثل عربات السوبر ماركت”. وقال: “لديهم مقود، لذلك إذا كانت هناك مشكلة مع الروبوت، يمكن لأي شخص الإمساك بالمقود والقيام بكل ما يريد به”.

بعد كل هذه السنوات، تعلم بروكس أن الأمر يتعلق بجعل التكنولوجيا متاحة ومبنية لغرض معين. “أحاول دائمًا أن أجعل التكنولوجيا سهلة الفهم حتى يتمكن الأشخاص من نشرها على نطاق واسع والنظر دائمًا في دراسة الجدوى؛ العائد على الاستثمار مهم جدًا أيضًا.

وحتى مع ذلك، يقول بروكس إننا بحاجة إلى قبول أنه سيكون هناك دائمًا قيم متطرفة يصعب حلها عندما يتعلق الأمر بالذكاء الاصطناعي، والتي قد يستغرق حلها عقودًا. “بدون تحليل دقيق لكيفية نشر نظام الذكاء الاصطناعي، هناك دائمًا قائمة طويلة من القيم المتطرفة التي يستغرق اكتشافها وحلها عقودًا. ومن المفارقات أن كل هذه الإصلاحات يتم تنفيذها بواسطة الذكاء الاصطناعي نفسه.

ويضيف بروكس أن هناك هذا الاعتقاد الخاطئ، ويرجع ذلك أساسًا إلى قانون مورأنه سيكون هناك دائمًا نمو هائل في التكنولوجيا – فكرة أنه إذا شات جي بي تي 4 هل هذا جيد، تخيل كيف سيبدو ChatGPT 5 و6 و7. فهو يرى هذا الخلل في هذا المنطق، فهذه التكنولوجيا لا تنمو دائمًا بشكل كبير، على الرغم من قانون مور.

يأخذ iPod كمثال. وفي بعض التكرارات، قام بالفعل بمضاعفة سعة التخزين من 10 إلى 160 جيجابايت. وإذا استمر هذا الاتجاه، فقد حسب أنه سيكون لدينا جهاز iPod بسعة تخزينية تبلغ 160 تيرابايت بحلول عام 2017، ولكن بالطبع لم يكن الأمر كذلك. النماذج التي تم بيعها في عام 2017 جاءت في الواقع بسعة 256 جيجابايت أو 160 جيجابايت لأنه، كما أشار، لا أحد يحتاج حقًا إلى أكثر من ذلك.

يعترف بروكس بأن حاملي شهادة الماجستير في القانون يمكن أن يكونوا مفيدين في مرحلة ما للروبوتات المحلية، حيث يمكنهم أداء مهام محددة، خاصة وسط شيخوخة السكان ونقص الموظفين لرعايتهم. ولكن حتى هذا، كما يقول، يمكن أن يأتي بنصيبه من التحديات الفريدة.

“يقول الناس: “أوه، نماذج اللغات الكبيرة ستسمح للروبوتات بالقيام بأشياء لا يمكنهم القيام بها.” » ليس هذا هو المكان الذي تكمن فيه المشكلة. إن مشكلة القدرة على القيام بالأشياء تتعلق بنظرية التحكم وجميع أنواع التحسينات الرياضية الأساسية الأخرى.

يقول بروكس إن هذا قد يؤدي في النهاية إلى ظهور روبوتات ذات واجهات لغوية مفيدة للأشخاص في مواقف الرعاية. وقال: “ليس من المفيد في المستودع أن تطلب من الروبوت الفردي الخروج وإحضار عنصر ما لطلب، ولكن يمكن أن يكون مفيدًا في دور رعاية المسنين لأن الناس يمكنهم قول أشياء للروبوتات”.


Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى