يحذر أطباء من استخدام Chat GPT للحصول على المشورة الطبية بعد أن وجدت دراسة أن الذكاء الاصطناعي يقدم بيانات صحية عند طلب معلومات حول السرطان.
وأجاب روبوت الدردشة على واحد من كل عشرة أسئلة حول فحص سرطان الثدي بشكل خاطئ ولم تكن الإجابات الصحيحة "شاملة" مثل تلك التي تم العثور عليها من خلال بحث غوغل البسيط.
وقال الباحثون إن روبوت الدردشة المزود بالذكاء الاصطناعي استخدم في بعض الحالات مقالات صحفية مزيفة لدعم مزاعمه.
ويأتي ذلك وسط تحذيرات من أن المستخدمين يجب أن يتعاملوا مع البرنامج بحذر لأنه يميل إلى "الهلوسة" - بعبارة أخرى اختلاق الأشياء.
وطلب باحثون من كلية الطب بجامعة ميريلاند من Chat GPT الإجابة عن 25 سؤالا متعلقا بالنصائح حول الكشف عن سرطان الثدي.
وطرح كل سؤال ثلاث مرات منفصلة. ثم تم تحليل النتائج من قبل ثلاثة أطباء أشعة مدربين على التصوير الشعاعي للثدي.
وكانت "الغالبية العظمى" - 88% - من الإجابات مناسبة وسهلة الفهم. لكنهم حذروا من أن بعض الإجابات كانت "غير دقيقة أو حتى وهمية". إجابة واحدة على سبيل المثال كانت تستند إلى معلومات قديمة. ونصح بتأجيل تصوير الثدي بالأشعة السينية لمدة أربعة إلى ستة أسابيع بعد الحصول على لقاح "كوفيد"، ولكن تم تغيير هذه النصيحة منذ أكثر من عام لتوصي النساء بعدم الانتظار.
وقدم Chat GPT أيضا ردودا غير متسقة على الأسئلة المتعلقة بخطر الإصابة بسرطان الثدي ومكان الحصول على صورة الثدي الشعاعية. ووجدت الدراسة أن الإجابات "متنوعة بشكل كبير" في كل مرة طُرح فيها نفس السؤال.
ووجدت النتائج - التي نُشرت في مجلة Radiology - أن بحثا بسيطا على غوغل لا يزال يوفر إجابة أكثر شمولا.
وقالت الدكتورة هانا هافير، كبيرة الباحثين، إن Chat GPT اعتمدت على مجموعة واحدة فقط من التوصيات الصادرة عن منظمة واحدة، والتي أصدرتها جمعية السرطان الأمريكية، ولم تقدم توصيات مختلفة صادرة عن مجموعة مكافحة الأمراض والوقاية منها أو فرقة العمل المعنية بالخدمات الوقائية الأمريكية.
وأدى إطلاق Chat GPT في أواخر العام الماضي إلى موجة من الطلب على التكنولوجيا، حيث يستخدم ملايين المستخدمين الآن الأدوات كل يوم، من كتابة المقالات المدرسية إلى البحث عن النصائح الصحية.
واستثمرت مايكروسوفت بكثافة في البرنامج وراء Chat GPT وتقوم بدمجه في محرك بحث Bing وOffice 365، بما في ذلك Word وPowerPoint وExcel.
لكن عملاق التكنولوجيا اعترف بأنه ما زال بإمكانه ارتكاب الأخطاء.
ويطلق خبراء الذكاء الاصطناعي على هذه الظاهرة اسم "الهلوسة"، حيث يستجيب روبوت الدردشة الذي لا يجد الإجابة التي يتم تدريبه عليها بثقة بإجابة مختلقة يراها معقولة.
ثم يستمر في الإصرار مرارا وتكرارا على الإجابة الخاطئة دون أي وعي داخلي بأنه نتاج خيالها.
وأجاب Chat GPT بشكل صحيح على الأسئلة المتعلقة بأعراض سرطان الثدي، والمعرضات للخطر، والأسئلة المتعلقة بالتكلفة والعمر والتوصيات المتعلقة بالتصوير الشعاعي للثدي.
وقال إن نسبة الإجابات الصحيحة كانت "مذهلة جدا"، مع "فائدة إضافية تتمثل في تلخيص المعلومات في شكل يسهل فهمه للمستهلكين بسهولة".
ودعا أكثر من ألف أكاديمي وخبير ورئيس في صناعة التكنولوجيا مؤخرا إلى الوقف الطارئ لـ"السباق" "الخطير" لإطلاق أحدث تقنيات الذكاء الاصطناعي.
وحذروا من أن المعركة بين شركات التكنولوجيا لتطوير عقول رقمية أكثر قوة ستكون "خارجة عن السيطرة" وتشكل "مخاطر عميقة على المجتمع والإنسانية".
المصدر: ديلي ميل
اضف تعليق