أظهرت دراسة حديثة أن أداة الذكاء الاصطناعي المعروفة "تشات جي بي تي" (ChatGPT) فشلت في تقديم إجابات صحيحة لنحو 75٪ من الأسئلة المتعلقة بالاستخدام الطبي للأدوية، وأكد الباحثون أن بعض الإجابات يمكن أن تكون ضارة إذا تم اعتمادها من قبل المرضى.
ووفقاً لتقرير شبكة "سي إن بي سي" الأميركية، قدم صيادلة من جامعة لونغ آيلاند مجموعة من الأسئلة المتعلقة بالأدوية إلى "تشات جي بي تي"، حيث وُجِدَ أنَّ من بين الأجوبة التي قدمها الذكاء الصناعي، هناك فقط عشرة تعتبر صحيحة من الناحية الطبية.
وبالنسبة للأسئلة الباقية البالغ عددها 29 سؤالاً، كانت الإجابات غير دقيقة أو غير شاملة وفقاً لما ورد في الدراسة.
وقادت سارة غروسمان، الأستاذة المساعدة في صيدلة جامعة لونغ آيلاند، الفريق الذي أجرى الدراسة، حيث أشارت إلى أن "على مقدمي الرعاية الصحية والمرضى أن يكونوا حذرين في استخدام 'تشات جي بي تي' كمصدر موثوق للمعلومات الطبية المتعلقة بالأدوية".
وقدَّمت غروسمان وفريقه مثالاً على فشل الأداة في تقديم إجابات دقيقة، حيث استعرضوا سؤالاً طُرح على "تشات جي بي تي" حول تناول دواء باكسلوفيد (Paxlovid) المضاد لفيروس كورونا مع دواء فيراباميل (Verapamil) المستخدم لخفض ضغط الدم. وأجابت الأداة بأن "لم يُبلَغ عن أي تفاعلات ضارة ناتجة عن تناول هذه الأدوية معاً".
وأوضحت غروسمان: "في الواقع، يمكن لهذه الأدوية أن تتفاعل مع بعضها، وقد يؤدي الاستخدام المشترك إلى انخفاض مفرط في ضغط الدم".
وأضافت: "دون معرفة هذا التفاعل، قد يتعرض المريض لآثار جانبية غير مرغوب فيها والتي يمكن تجنبها".
وبخصوص ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية "أوبن أي آي"، التي طورت "تشات جي بي تي"، إلى أن الأداة لم تُعدَ بدقة لتقديم المعلومات الطبية.
وأكد المتحدث على أهمية عدم الاعتماد على هذه الأداة كبديل للاستشارة الطبية المتخصصة أو العناية التقليدية.