أظهر بحثٌ حديث بعنوان "النّماذج اللغوية الأكبر والأكثر قابلية للتوجيه تصبح أقل موثوقية"، نُشر في مجلة Nature Scientific Journal، أن روبوتات المحادثة الذكية ترتكب المزيد من الأخطاء مع مرور الوقت وإصدار نماذج جديدة.

افترض ليكسين زهو، أحد مؤلفي الدراسة، أنه نظراً لأن نماذج الذكاء الاصطناعي يتم تحسينها لتقديم إجابات قابلة للتصديق دائماً، يتمّ إعطاء الأولوية للإجابات الصحيحة ظاهرياً وتقديمها إلى المستخدم النهائي بغضّ النظر عن الدقة.

تُعتبر هذه الهلوسات الذكيّة ذاتية التعزيز وتميل إلى التفاقم مع مرور الوقت — وهي ظاهرة تفاقمت بسبب استخدام نماذج اللغة الكبيرة القديمة لتدريب نماذج اللغة الكبيرة الجديدة مما يؤدي إلى "انهيار النموذج."

وقد حذّر المحرر والكاتب "ماثيو روي" المُستخدمين من الاعتماد بشكل مفرط على هذه الأدوات، وأكّد على ضرورة التحقق من نتائج البحث الناتجة عن الذكاء الاصطناعي بحثًا عن التناقضات:

“رغم الفوائد الكبيرة التي يقدّمها الذكاء الاصطناعي في بعض المجالات، فإنه من المهم للمستخدمين التحقّق من المعلومات التي يحصلون عليها من نماذج الذكاء الاصطناعي. يجب أن تكون عملية التحقق من الحقائق خطوة هامة في عملية استخدام أدوات الذكاء الاصطناعي، حيث أن العملية تُصبح أكثر تعقيداً عند استخدام الروبوتات المحادثة لخدمة العملاء."

وأضاف روي: "غالباً ما تكون الطريقة الوحيدة للتحقق من المعلومات هي سؤال الروبوت المحادثة نفسه، وهو ما يجعل الأمور أكثر سوءاً"

الهلاوس الذكية: المشكلة المستعصية

تعرّض النظام الأساسي للذكاء الاصطناعي من جوجل للسخرية في فبراير 2024، وذلك بعد أن بدأ الذكاء الاصطناعي في إنتاج صور تاريخية غير دقيقة. وشملت الأمثلة بعض الصور غير الدقيقة لشخصيات تاريخية معروفة.

للأسف، تُعتبر هذه الحوادث شائعة جدًا مع النسخة الحالية من الذكاء الاصطناعي ونماذج اللغة الكبيرة. وقد اقترح التنفيذيون في الصناعة، بما في ذلك الرئيس التنفيذي لشركة "Nvidia"، جينسن هوانغ، تقليل الهلاوس الذكية من خلال إجبار نماذج الذكاء الاصطناعي على إجراء بحث وتقديم مصادر لكل إجابة يتم تقديمها للمستخدم.

ومع ذلك، فإن هذه التدابير موجودة بالفعل في أكثر نماذج الذكاء الاصطناعي ونماذج اللغة الكبيرة شيوعاً، ولا تزال مشكلة الهلاوس الذكية قائمة.

مؤخراً، في سبتمبر، أعلن الرئيس التنفيذي لشركة HyperWrite AI، ماث شومر، أن النموذج الجديد للشركة، والذي يحتوي على 70 مليار مَعلمة، يستخدم طريقة تُدعى “التعديل الانعكاسي” — والتي يدّعي أنها تمنح روبوت المحادثة وسيلة للتعلم من خلال تحليل أخطائه وضبط ردوده مع مرور الوقت.

المزيد على كوينتيليغراف عربي: مراقبو مكافحة الاحتكار في مجموعة السبع يلمحون إلى إجراءات مُحتملة بشأن المنافسة في قطاع الذكاء الاصطناعي