دراسة صادمة: الذكاء الاصطناعي يقدم "نصائح صحية مُضللة" في نصف الحالات

في وقت يتزايد فيه الاعتماد على الذكاء الاصطناعي للحصول على معلومات صحية، كشفت دراسة حديثة عن نتائج مقلقة تتعلق بدقة هذه الأدوات.

وبحسب تقرير في موقع “ScienceAlert”، فإن نحو نصف الإجابات التي تقدمها أشهر روبوتات الدردشة الطبية وُصفت بأنها "إشكالية".

وتشير الدراسة إلى أن الباحثين اختبروا خمسة من أبرز نماذج الذكاء الاصطناعي عبر 50 سؤالًا طبيًا، شملت موضوعات مثل السرطان والتغذية واللقاحات.

وأظهرت النتائج أن 20% من الإجابات كانت “شديدة الإشكال”، بينما صُنّف نحو 50% منها ضمن فئة الإجابات التي قد تكون مضللة أو غير دقيقة، في حين لم تتجاوز الإجابات المقبولة 30%.

مراجع غير موثوقة ومعلومات غير دقيقة

ولفتت الدراسة إلى أن النماذج لم تتمكن من تقديم قوائم مراجع دقيقة، إذ احتوت على أخطاء مثل روابط غير صحيحة أو أبحاث غير موجودة أساسًا.

كما أن الأسئلة المفتوحة، مثل طلب نصائح عامة للصحة، كانت الأكثر عرضة للإجابات المضللة، مقارنة بالأسئلة المحددة.

ويرى الباحثون أن هذه النماذج لا "تفهم" المعلومات الطبية، بل تعتمد على توقع الكلمات بناءً على البيانات التي تدربت عليها، والتي قد تشمل مصادر غير موثوقة مثل المنتديات أو وسائل التواصل.

وهذا يفسر قدرتها على تقديم إجابات تبدو دقيقة ومقنعة، لكنها قد تحتوي على معلومات غير مثبتة علميًا.

وفي دراسات أخرى، تبين أن الذكاء الاصطناعي قد يصل إلى إجابات صحيحة بنسبة عالية، لكن المستخدمين لا يستفيدون منها بالشكل الصحيح، إذ لم تتجاوز دقة استخدامهم لهذه الإجابات 35%.

كما أظهرت أبحاث أن النماذج تواجه صعوبة في التشخيص عند نقص البيانات الطبية التفصيلية.

ورغم هذه التحديات، يؤكد الخبراء أن الذكاء الاصطناعي يمكن أن يكون أداة مفيدة لتبسيط المعلومات أو التحضير لزيارة الطبيب، لكنه لا يصلح كمصدر طبي مستقل.

لكن ينصح الباحثون بضرورة التحقق من أي معلومات صحية يتم الحصول عليها عبر هذه الأدوات، وعدم الاعتماد على المراجع المرفقة دون التأكد من صحتها.

كما يجب الانتباه إلى الإجابات التي تبدو واثقة لكنها تفتقر إلى تحذيرات أو سياق طبي واضح.

وفي المحصلة، تكشف هذه الدراسة أن الذكاء الاصطناعي لا يزال في مرحلة تحتاج إلى الحذر، حيث يمكنه المساعدة في الفهم، لكنه لا يغني عن الاستشارة الطبية أو المصادر الموثوقة.

 

التعليقات