علوم وتكنولوجيا

غوغل “يرتكب خطأ”!

ارتكب روبوت الدردشة Bard من غوغل خطأ واقعياً في فيديو توضيحي تم إصداره قبل أيام من إطلاق حدث رفيع المستوى في باريس يوم الأربعاء.

وبينما لا يزال روبوت الذكاء الصناعي قيد الاختبار، يتم وصفه بأنه منافس لـ ChatGPT المدعوم من مايكروسوفت، وهو نظام ذكاء اصطناعي شائع مع مجموعة مشاكله الخاصة.

وفي مقطع فيديو ترويجي أصدرته غوغل يوم الاثنين، يسأل أحد المستخدمين Bard “ما الاكتشافات الجديدة من تلسكوب جيمس ويب الفضائي (JWST) التي يمكنني إخبار طفلي البالغ من العمر 9 سنوات عنها؟”، يُرجع الذكاء الاصطناعي عدداً من الإجابات، بما في ذلك إحداهما تُفيد بأن التلسكوب “التقط الصور الأولى لكوكب خارج نظامنا الشمسي”.

وكما أشار عالم الفيزياء الفلكية غرانت تريمبلاي على “تويتر”، كانت هذه الإجابة خاطئة. أول صورة من هذا القبيل تم التقاطها بواسطة التلسكوب الكبير جداً (VLT) التابع للمرصد الأوروبي الجنوبي في عام 2004، كما كتب، مشيراً إلى أنه على الرغم من أنها “مثيرة للإعجاب بشكل مخيف”، إلا أن روبوتات الدردشة التي تعمل بالذكاء الصناعي “غالبا ما تكون مخطئة للغاية”.

ولوحظ الخطأ على الفور قبل أن تكشف غوغل عن Bard في حدث في باريس صباح الأربعاء، حيث انخفضت قيمة الشركة بنسبة 8 بالمئة مع انتشار أنباء الخطأ.

ولا يقدم الذكاء الاصطناعي مثل Bard نتائج دقيقة لكل سؤال. ونظرا لأنها تتصفح تريليونات الصفحات من الكلمات والأشكال التي أنشأها البشر، فإنها تتوقع الإجابات الأكثر احتمالية لسؤال أو موجه. ولاحظت مايكروسوفت ذلك عندما أعلنت يوم الثلاثاء أن محرك بحث Bing الخاص بها سيأتي مع ChatGPT – تم تطويره على منصة OpenAI التي تمولها مايكروسوفت – المضمنة.

ويقرأ إخلاء المسؤولية من الشركة: “يتم تشغيل Bing بواسطة الذكاء الصناعي، لذا فإن المفاجآت والأخطاء ممكنة”.

وابتلي تطوير الذكاء الاصطناعي للمحادثة أيضا باتهامات التحيز السياسي بين المبرمجين. وأدرك عشاق التكنولوجيا أخيراً أن ChatGPT سترفض قول أي شيء إيجابي عن الوقود الأحفوري، أو حتى الرئيس الأميركي السابق دونالد ترامب، في حين أنها ستمتدح فضائل اتباع نظام غذائي خال من اللحوم ويكتب قصائد تكريما لخليفة ترامب، جو بايدن.

وعندما قُدمت مع سيناريو افتراضي طُلب فيه نطق افتراء عنصري من أجل نزع سلاح قنبلة نووية، أعلن الذكاء الصناعي أنه سيحكم على ملايين الأشخاص بالإبادة النووية قبل استخدام “لغة عنصرية”.

ومن المحتمل أن تتم إعاقة Bard بقيود مسيسة مماثلة، كما صرح الرئيس التنفيذي لشركة غوغل، سوندار بيتشاي، يوم الاثنين حين قال أنها ستتبع مبادئ الذكاء الاصطناعي “المسؤولة” الخاصة بالشركة. وتنص هذه القواعد على أن منتجات الذكاء الاصطناعي من غوغل “ستتجنب التأثيرات غير العادلة على الأشخاص، لا سيما تلك المتعلقة بالعرق والجنس والجنسية والدخل والتوجه الجنسي والقدرة والمعتقد السياسي أو الديني”.

مقالات ذات صلة

زر الذهاب إلى الأعلى