كشفت دراسة حديثة أجراها باحثون من جامعتي “هارفارد” و”ستانفورد” أن نموذج الذكاء الاصطناعي “o1-preview” من شركة OpenAI قد أظهر أداءً يفوق الأطباء في تشخيص الحالات الطبية المعقدة.
خضع النموذج لسلسلة اختبارات شاملة في التشخيص الطبي، وحقق دقة بنسبة 78.3% في تحليل الحالات، متفوقًا على نظام GPT-4 السابق الذي سجل 72.9% فقط. وفي مقارنة مباشرة لـ70 حالة، ارتفعت دقة النموذج إلى 88.6%. كما أظهر تفوقًا واضحًا في مجال الاستدلال الطبي، حيث حصل على تقييم عالٍ في 78 من أصل 80 حالة وفق مقياس R-IDEA، مقارنة بـ28 حالة فقط للأطباء المتمرسين و16 حالة للأطباء المتدربين.
وأشار الباحثون إلى احتمالية أن تكون بعض الحالات قد تداخلت مع بيانات تدريب النموذج، لكنه استمر في تحقيق أداء مرتفع عند اختباره على حالات جديدة.
وفي تعليق عبر منصة “إكس”، أوضح الدكتور آدم رودمان، أحد المشاركين في الدراسة:
“نتائجنا تحمل انعكاسات كبيرة على الممارسة الطبية، ولهذا كان من الضروري نشرها سريعًا، رغم أنها لا تزال قيد المراجعة.”
التحديات والقيود
رغم تفوق النموذج في التفكير النقدي والتوصيات العلاجية، أظهرت الدراسة ضعفًا في تقدير الاحتمالات، مثل المبالغة في تقدير احتمال الإصابة بالالتهاب الرئوي بنسبة 70% مقارنة بالنطاق العلمي المتعارف عليه (25-42%). وأشار مؤسسو OpenAI إلى أن النموذج بحاجة إلى تدريب إضافي يصل إلى 1000 ضعف لتحسين أدائه في بعض المجالات.
الواقع مقابل التوقعات
على الرغم من النتائج الواعدة، حذر رودمان من الاعتماد الكلي على الذكاء الاصطناعي، قائلاً:
“الدراسة معيارية وتعتمد على معايير تقييم ‘ذهبية’، لكنها لا تعكس واقع الرعاية الطبية اليومية. لا يمكن الاستغناء عن الأطباء لصالح الذكاء الاصطناعي.”
وأوصى الباحثون بتطوير تجارب سريرية واقعية وبنية تحتية تقنية تعزز التعاون بين الأطباء والذكاء الاصطناعي، لضمان استخدام أكثر فعالية لهذه التقنيات في البيئات الصحية.
تابعوا آخر أخبارنا المحلية وآخر المستجدات السياسية والإقتصادية عبر Google news