رغم الاندفاع العالمي نحو تبني الذكاء الاصطناعي التوليدي في مختلف القطاعات، والاستفادة من قدراته غير المسبوقة في أتمتة المهام وتحسين الأداء، إلا أن هذه التقنية تواجه أزمة متنامية تهدد جوهر موثوقيتها، فكلما تطورت هذه النماذج وتعزز أداؤها عبر التحديثات، كلما زادت ظاهرة "هلوسة الذكاء الاصطناعي" تفاقماً، حيث تقدم الأنظمة معلومات مختلقة بثقة عالية، وتعرضها كما لو كانت حقائق لا تقبل الجدل.

القلق لا ينبع فقط من تكرار الأخطاء، بل من اتساع رقعة هذه الظاهرة داخل مختلف نماذج الذكاء الاصطناعي، حتى باتت الشركات الكبرى عاجزة عن تفسيرها بشكل دقيق.

فقد كشفت اختبارات داخلية وأخرى مستقلة، أن بعض النماذج تصبح أكثر عرضة للهلوسة بعد كل تحديث، في مفارقة تثير شكوكاً عميقة بشأن مستقبل هذه التكنولوجيا.

ومنذ ظهور ChatGPT أواخر عام 2022، برزت هذه المشكلة بوصفها أحد أبرز التحديات التي تواجه الصناعة، لا سيما أن أنظمة الذكاء الاصطناعي تستند في عملها إلى كمٍّ هائل من البيانات، يفوق قدرة البشر على التحليل أو الاستيعاب. هذه النماذج لا "تفكر" بالطريقة التي نفعلها، بل تتبع آليات رياضية لتوقّع الإجابات الأكثر احتمالاً، وهو ما يجعلها عرضة لاختلاق معلومات تبدو مقنعة ولكنها لا أساس لها من الصحة.

ويرى خبراء أن جذور هذه الظاهرة قد تكون متأصلة في البنية التقنية لهذه النماذج. فبحسب عمرو عوض الله، الرئيس التنفيذي لشركة "فيكتارا"، فإن "الهلوسة لن تزول أبداً"، لأنها نتاج طبيعي لطريقة التفكير الاحتمالي المعتمدة لدى هذه النماذج، مهما بلغت دقة الخوارزميات وتعقيدها.

وفي السياق ذاته، تؤكد الباحثة في جامعة إدنبرة لورا بيريز-بيلتراشيني أن نماذج الذكاء الاصطناعي تميل إلى التركيز على مهمة واحدة مع مرور الوقت، وتبدأ تدريجياً في نسيان المهام الأخرى، مما يزيد من فرص حدوث الهلوسة، خاصة خلال مراحل "التفكير" أو المعالجة التي تسبق إصدار الإجابات.

أما مستشارة الذكاء الاصطناعي المعتمدة من جامعة أوكسفورد، هيلدا معلوف، فتوضح أن سبب الهلوسة لا يعود إلى خلل مفرد، بل إلى مجموعة عوامل متشابكة، من بينها التدريب على بيانات غير دقيقة، والاعتماد على الارتباطات الإحصائية بدلاً من الفهم المنطقي، بالإضافة إلى القيود المفروضة على طريقة توليد الإجابات. وتضيف أن هذه النماذج لا تدرك الحقيقة، بل تنتج ما يبدو منسجماً مع السياق، بغض النظر عن مطابقته للواقع.

وتحذر معلوف من أن هذه الظاهرة قد تؤدي إلى عواقب كارثية إذا لم تُعالج بجدية، خصوصاً في المجالات الحساسة مثل الصحة والقانون والتعليم، داعية إلى تبني مقاربة متعددة الأبعاد، تشمل تطوير أدوات تحقق مدمجة، وتعزيز الرقابة البشرية، وإطلاق حملات توعية تشرح للمستخدمين حدود قدرات هذه الأنظمة.

من جانبه، يشير مازن الدكاش، رئيس شركة "تكنولوجيا"، إلى أن الخطر الحقيقي لا يكمن في الهلوسات الحالية فقط، بل في ما قد تحمله الأجيال القادمة من نماذج الذكاء الاصطناعي الأكثر تطوراً. فمع اقترابنا من عصر الذكاء الاصطناعي العام أو "الخارق"، قد تتحول هذه الأنظمة إلى جهات تنفيذية تصدر قرارات حاسمة بناء على معلومات مغلوطة. ويؤكد أن الحل لا يمكن أن يكون تقنياً فقط، بل يجب أن يشمل إعادة هندسة المعمارية الكاملة لهذه النماذج، لتكون قادرة على التحقق من صحة المعلومات وليس مجرد توليدها.

في المحصلة، بات من الواضح أن "هلوسة الذكاء الاصطناعي" لم تعد خللاً بسيطاً يمكن تجاوزه، بل أصبحت أزمة هيكلية تتطلب إعادة نظر شاملة في طريقة تطوير هذه التكنولوجيا، حتى لا تتحول من أداة للمساعدة إلى مصدر محتمل للخطر.


م.ال

اضف تعليق