تحاول الدراسة إمكانية فهم نماذج اللغات لمهام الأطباء مثل تحليل الأعراض.
تحاول الدراسة إمكانية فهم نماذج اللغات لمهام الأطباء مثل تحليل الأعراض.متداول

هل يمكن للذكاء الاصطناعي التفكير مثل الأطباء عند تشخيص المرضى؟

اختبر باحثون ما إذا كانت نماذج اللغة المتقدمة مثل "GPT-3.5" و"GPT-4" ، يمكنها التفكير مثل الأطباء عند تشخيص المرضى، وفق ما نقله موقع "نيوز ميديكال نت" عن مجلة "npj Digital Medicine"، التي تعنى بتغطية كافة جوانب الطب الرقمي.

وبحسب دراسة حديثة نشرتها المجلة، يحاول الباحثون فهم ما إذا كان يُمكن لنماذج اللغات الكبيرة (LLMs)، وهي أنظمة ذكاء اصطناعي (AI) متقدمة مصممة لمعالجة وفهم وإنشاء نصوص تشبه الإنسان، محاكاة أساليب وطرق اتخاذ القرار التي يستخدمها مقدمو الرعاية الصحية عند تشخيص وعلاج المرضى، بما في ذلك مهام مثل تحليل الأعراض، واستخدام إجراءات التشخيص التفاضلي، والنظر في خيارات العلاج المختلفة، واتخاذ القرارات القائمة على الأدلة.

بمعنى آخر، تحاول الدراسة معرفة ما إذا كان يُمكن لخوارزميات الذكاء الاصطناعي (AI)، أن تحاكي بدقة عمليات التفكير المعقدة التي يستخدمها الأطباء في الممارسة السريرية، وهو ما يُعد جانبًا حاسمًا ومهمًا لدمجها في الرعاية الصحية.

في الدراسة، اختبر الباحثون مدى قدرة تقنيات "GPT-3.5" و"GPT-4" على تشخيص المشكلات الطبية التي تتطلب تقديم حلول فعالة بناءً على المعرفة والمنطق والفهم للحالة السريرية، إذ يفترض الباحثون أن نماذج GPT يمكنها أن تقدم أداءً أفضل من الطريقة التقليدية في تشخيص الحالات الطبية.

وباستخدام مجموعات البيانات من امتحان الترخيص الطبي في الولايات المتحدة (USMLE)، ومجلة نيو إنجلاند الطبية (NEJM).

أخبار ذات صلة
غوغل تقدم الجيل التالي من الذكاء الاصطناعي

قارنت الدراسة بين طريقتين للأسئلة، كانت أولاهما طرح الأسئلة التقليدية خطوة بخطوة، بينما تضمنت الطريقة الثانية، إعطاء تعليمات محددة لتقليد طريقة تفكير الأطباء عند تشخيص المرضى، مثل النظر في التشخيصات المحتملة المختلفة، وتحليل البيانات، واستخدام الاحتمالية لاتخاذ القرارات، والاعتماد على الحدس.

وخلُصت الدراسة إلى أن المحفزات المقدمة لنسخة GPT-4 يمكن أن تحاكي كيفية تفكير الأطباء في المشكلات الطبية دون المجازفة بدقة التشخيص. وهذا أمر مهم لأنه يضمن إمكانية الوثوق في استجابات نماذج اللغة الكبيرة (LLM) عند استخدامها في رعاية المرضى. ومن خلال فهم ومحاكاة طريقة تفكير الأطباء، تصبح خوارزميات الذكاء الاصطناعي مثل (LLM) أدوات أكثر موثوقية وأمانًا وفاعلية في الطب.

وبشكل عام، وجدت الدراسة أن نسختي (GPT-3.5)و (GPT-4 ) أفضل في التفكير من ذي قبل، لكنهما ما تزالان تواجهان صعوبة في تشخيص الحالات الطبية بدقة. ومع أن نسخة GPT-4 تعمل بشكل أفضل قليلاً من GPT-3.5، غير أنها تواجه مشكلة في أنواع معينة من مهام التفكير، وقد يرجع هذا إلى اختلاف الطريقة التي تفكر بها هذه النماذج عن طريقة تفكير البشر، وكيفية تقييم التشخيص بعد حدوثه، كما يعتقد القائمون على الدراسة.

باختصار شديد، توصلت الدراسة إلى أن نماذج الذكاء الاصطناعي مثل "GPT-4" يمكن أن تحاكي طريقة تفكير الأطباء، بيد أنه لا يزال هناك المزيد من العمل لجعلها أفضل في التشخيص بدقة وموثوقية في أماكن الرعاية الصحية.

Related Stories

No stories found.
logo
إرم نيوز
www.eremnews.com