شهد العالم اليوم تسارعا غير مسبوق في تبني تقنيات الذكاء الاصطناعي داخل القطاعات الحيوية، وعلى رأسها القطاع الصحي، حيث تستخدم نماذج اللغة الكبيرة في دعم التشخيص، وصياغة التقارير الطبية، والإجابة عن استفسارات المرضى، بل وحتى المساهمة في اتخاذ قرارات علاجية أولية. غير أن هذا التوسع اللافت لم يخل من المخاوف، خاصة بعد تحذيرات علمية حديثة كشفت أن هذه الأنظمة قد تكون عرضة لتبني معلومات طبية مضللة إذا صيغت بطريقة تبدو مقنعة علميا.
في هذا السياق، حذرت دراسة حديثة نشرتها مجلة ذي لانست ديجيتال هيلث من الاعتماد غير المنضبط على نماذج اللغة الكبيرة في المجال الصحي. وأشارت إلى أن هذه النماذج، بما في ذلك أدوات شهيرة مثل «شات جي بي تي»، قد تتعامل مع ادعاءات طبية زائفة باعتبارها معلومات موثوقة، خاصة إذا قُدمت بلغة احترافية تحاكي الخطاب الطبي المتخصص.
واعتمدت الدراسة على تحليل واسع النطاق شمل أكثر من مليون توجيه (Prompt) وجهت إلى 20 نموذجا من أبرز نماذج الذكاء الاصطناعي التوليدي المتاحة حاليا. وقد صُممت هذه التوجيهات لاختبار قدرة النماذج على التمييز بين المعلومات الطبية الصحيحة وتلك المضللة أو غير المدعومة بأدلة علمية. وكانت النتائج مثيرة للقلق؛ إذ تبيّن أن النماذج وقعت في فخ المعلومات الزائفة بنسبة متوسطة بلغت 32 في المائة، ما يطرح تساؤلات جدية حول مدى موثوقيتها في البيئات الصحية الحساسة.
وأظهرت الدراسة أن مستوى الخطورة لا يتوزع بالتساوي بين النماذج المختلفة. فالنماذج الأصغر والأقل تطورا كانت أكثر عرضة لتصديق المعلومات الطبية الكاذبة، إذ تجاوزت نسبة قبولها لهذه الادعاءات 60 في المائة. ويعكس هذا الأمر ضعفا بنيويا في قدرتها على التحليل النقدي للمحتوى، واعتمادها بدرجة أكبر على الأنماط اللغوية السطحية بدلًا من الفهم السياقي العميق.
بمعنى آخر، إذا صيغ الادعاء بلغة علمية مزخرفة، مدعّمًا بأرقام أو مصطلحات طبية، فإن النموذج قد يتعامل معه باعتباره حقيقة، حتى وإن كان بلا أساس علمي. وهذا ما يثير مخاوف حقيقية، خاصة في بيئة مثل الرعاية الصحية، حيث يمكن لمعلومة خاطئة أن تؤثر مباشرة على سلامة المريض.
تكشف هذه النتائج عن مفارقة لافتة: فبينما تبهر نماذج الذكاء الاصطناعي المستخدمين بقدرتها على إنتاج نصوص دقيقة وسلسة، فإنها في الوقت ذاته قد تخدع بسهولة باللغة الإقناعية. فهذه النماذج لا “تفهم” المعلومات بالمعنى البشري للكلمة، بل تعتمد على التنبؤ الإحصائي بالكلمات التالية بناء على أنماط تعلمتها من بيانات التدريب.
لذلك، عندما تقدم لها معلومة خاطئة بصياغة تبدو احترافية، فإنها قد تعيد إنتاجها بثقة كاملة، دون التحقق من صحتها أو الإشارة إلى احتمال الخطأ. هذا السلوك قد يخلق وهما بالمصداقية، حيث يعتقد المستخدم أن الإجابة دقيقة لمجرد أنها صيغت بلغة علمية محكمة.
وتزداد الخطورة عندما يتعلق الأمر بمرضى يبحثون عن معلومات صحية حساسة أو أطباء يستخدمون هذه الأدوات لتسريع العمل اليومي. ففي مثل هذه الحالات، قد تتحول الأداة من مساعد ذكي إلى مصدر محتمل للتضليل.
لا يعني ذلك أن الذكاء الاصطناعي غير مفيد في المجال الطبي. على العكس، فقد أثبتت هذه التقنيات قدرتها على تسريع تحليل البيانات الضخمة، وتحسين إدارة السجلات الطبية، وتقديم دعم لغوي ومعرفي للأطباء، خاصة في البيئات ذات الموارد المحدودة. كما يمكن أن تسهم في التوعية الصحية والإجابة عن الأسئلة العامة للمرضى.
غير أن المشكلة تظهر عندما ينظر إلى هذه النماذج باعتبارها بديلا عن الخبرة البشرية، لا مجرد أداة مساندة. فالفارق الجوهري بين الطبيب والآلة أن الأول يمتلك حسا نقديا وخبرة سريرية وقدرة على تقييم السياق، بينما تعتمد الثانية على حسابات احتمالية لا تضمن دائما الدقة.
ومن هنا شددت الدراسة على أن هذه الأدوات يجب أن تبقى داعمة للقرار الطبي لا بديلا عنه. فالقرار النهائي يجب أن يظل بيد المختصين القادرين على التحقق من المعلومات وتقييمها في ضوء الأدلة العلمية.
أمام هذا الواقع، دعا الباحثون إلى تطوير أطر تنظيمية واضحة وآليات تدقيق صارمة تحكم استخدام الذكاء الاصطناعي في القطاع الصحي. ويشمل ذلك إلزام الشركات المطورة بتحسين طرق التحقق من المصادر، وتعزيز قدرة النماذج على التمييز بين الحقائق العلمية والادعاءات غير المثبتة، فضلًا عن تضمين تحذيرات واضحة عند تقديم معلومات غير مؤكدة.
كما أوصوا بضرورة تدريب المستخدمين، خاصة العاملين في المجال الصحي، على فهم حدود هذه التقنيات وعدم الاعتماد عليها بشكل أعمى. فالتكنولوجيا مهما بلغت من التطور تبقى أداة تحتاج إلى إشراف بشري واعٍ.
في نهاية المطاف، تطرح هذه التحذيرات سؤالا جوهريا حول مستقبل العلاقة بين الإنسان والذكاء الاصطناعي في الطب: كيف نوازن بين الاستفادة من الابتكار وحماية المرضى من مخاطر التضليل؟
إن الثقة هي حجر الأساس في أي نظام صحي. وإذا تزعزعت هذه الثقة بسبب معلومات خاطئة أو قرارات غير دقيقة مصدرها خوارزميات غير محكمة، فقد تكون العواقب جسيمة. لذلك، فإن دمج الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم بحذر وتدرج، مع الالتزام الصارم بمعايير السلامة والدقة.
فالذكاء الاصطناعي ليس طبيبا، ولا يجب أن يعامل كذلك. إنه أداة قوية يمكن أن تعزز قدرات البشر، لكنها لا تستطيع أن تحل محل حكمهم وخبرتهم. وبين وعود الابتكار ومخاطر التضليل، يبقى الرهان الحقيقي هو استخدام هذه التقنية بوعي ومسؤولية، بحيث تخدم صحة الإنسان بدل أن تهددها.
التعليقات مغلقة.