أظهرت دراسة حديثة أن ChatGPT، وهو واحد من أبرز أنظمة الذكاء الاصطناعي، لا يقدم دائمًا إجابات دقيقة عند تقييم صحة الفرضيات العلمية، مما يثير القلق بشأن الاعتماد عليه في البحث العلمي واتخاذ قرارات معقدة.
نتائج التجربة: دقة محدودة وتناقض متكرر
أجرى الأستاذ مسوت جيجيك وفريقه البحثي في جامعة ولاية واشنطن اختبارًا على نسختي ChatGPT-3.5 وChatGPT-5 mini، حيث استخدموا 719 فرضية مستمدة من أوراق علمية منشورة في مجلات الأعمال منذ عام 2021، وتم طرح كل فرضية على النظام عشر مرات لقياس ثبات الإجابات. أظهرت النتائج أن ChatGPT حقق دقة تبلغ حوالي 80٪ على السطح، ولكن بعد أخذ التخمين العشوائي في الاعتبار، انخفضت فعاليته الحقيقية إلى حوالي 60٪، مما يعتبر تقديرًا ضعيفًا نسبيًا. كما واجه النظام صعوبة في التعرف على العبارات الخاطئة، حيث صنفها بشكل صحيح بنسبة 16.4٪ فقط، وظهر تناقض ملحوظ في الإجابات، حيث كانت الإجابات متسقة بنسبة 73٪ فقط حتى عند تكرار السؤال نفسه عشر مرات.
وأشار جيجيك، الأستاذ المشارك في قسم التسويق والأعمال الدولية بجامعة ولاية واشنطن والمؤلف الرئيسي للدراسة، إلى أن المشكلة لا تقتصر على الدقة فقط، بل تشمل التناقض، حيث إذا تم طرح نفس السؤال عدة مرات، يمكن أن يحصل المستخدم على إجابات متباينة، أحيانًا تكون صحيحة وأحيانًا خاطئة، مما يعكس عدم الاتساق في الإجابات.
الطلاقة لا تعني الفهم
سلطت الدراسة المنشورة في Rutgers Business Review الضوء على ما أطلق عليه الباحثون “فخ الطلاقة”، حيث يمكن للذكاء الاصطناعي إنتاج نصوص سلسة ومقنعة تجعل القارئ يصدقها بسهولة، رغم أن النظام لا يمتلك فهمًا حقيقيًا للعالم. وعلق جيجيك قائلًا إن أدوات الذكاء الاصطناعي الحالية لا تفهم العالم كما نفهمه نحن، فهي ليست لديها عقل، بل تعتمد على أنماط محفوظة مسبقًا، يمكنها تقديم بعض الأفكار، لكنها لا تدرك ما تتحدث عنه.
بناءً على هذه النتائج، حذر الباحثون من الاعتماد على الذكاء الاصطناعي بشكل مطلق في اتخاذ القرارات العلمية أو التجارية، مؤكدين على أهمية التحقق من المعلومات والتعامل مع نتائج الأنظمة الذكية بحذر. كما شددوا على ضرورة تدريب المستخدمين لفهم قدرات وحدود هذه الأنظمة بشكل أفضل. وأضاف جيجيك أنه يجب أن يكون المستخدم دائمًا متشككًا، فهو لا يعارض الذكاء الاصطناعي، بل يستخدمه، لكنه يؤكد على ضرورة الحذر الشديد عند الاعتماد عليه.

