دراسة جديدة تكشف عن هجمات الذكاء الاصطناعي في المجال الطبي
كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي مثل ChatGPT وGrok تعاني من ظاهرة معروفة باسم "الهلوسة"، حيث تنتج معلومات خاطئة أو غير مكتملة رغم تقديمها بطريقة تبدو موثوقة. وأظهرت النتائج أن نحو نصف الإجابات التي قدمتها روبوتات الدردشة في دراسة شملت 50 سؤالا طبيا كانت "إشكالية".
أوضحت النتائج أن نسبة الأخطاء كانت الأعلى لدى Grok بنسبة 58%، بينما سجل ChatGPT 52% وMeta AI 50%. وأشار الباحثون إلى أن سبب هذه الأخطاء يعود إلى الاعتماد على بيانات تدريب قد تكون منحازة أو غير مكتملة.
كما بيّن الباحثون أن هذه الأنظمة تميل أحيانا إلى تقديم إجابات تتوافق مع معتقدات المستخدم بدلا من الالتزام بالدقة العلمية. وقد شملت الدراسة مجموعة من الأسئلة الشائعة المتعلقة بمواضيع مثل فعالية مكملات فيتامين (د) وسلامة لقاحات كوفيد-19.
أظهرت النتائج أن أداء هذه الأنظمة كان أفضل نسبيا في الموضوعات المتعلقة باللقاحات والسرطان، بينما تراجع في مجالات مثل التغذية والأداء الرياضي والعلاجات القائمة على الخلايا الجذعية. وأكد الباحثون أن روبوتات الدردشة لا تقوم بتحليل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص.
علاوة على ذلك، كشفت أبحاث سابقة أن نسبة كبيرة من المراجع التي تستشهد بها هذه الأنظمة قد تكون غير دقيقة أو حتى مختلقة، حيث لم تتجاوز نسبة المراجع الصحيحة 32% في إحدى الدراسات. وشدّد الباحثون على ضرورة تعزيز التوعية العامة وتطوير ضوابط تنظيمية لاستخدام الذكاء الاصطناعي في المجال الطبي.
نشرت النتائج في مجلة BMJ Open.
