بالرغم من النجاح الهائل الذي حققه الذكاء الاصطناعي التوليدي في مجالات عدة مثل إنشاء المحتوى وتحليل الصور والنصوص والصوت ومقاطع الفيديو وغير ذلك، إلا أنه حينما يتعلق الأمر بصحة الإنسان فلا بد من التمهل قبل إطلاق العنان لتلك التكنولوجيا الثورية الهائلة.
نيو نيوز - بزنس
وبحسب التقرير الذي نشرته منصة TechCrunch فإن الذكاء الاصطناعي التوليدي قد أصبح يشق طريقه مؤخرًا على نحو متزايد نحو القطاع الصحي بدعم من شركات التكنولوجيا الكبرى والناشئة على حد سواء، فعلى سبيل المثال يتعاون Google Cloud مع Highmark Health، وهي شركة رعاية صحية غير ربحية مقرها بيتسبرغ، لاختبار أدوات الذكاء الاصطناعي التوليدية المصممة من أجل تقديم تجربة رعاية صحية متكاملة للمرضى.
كما أفادت شركة Microsoft Azure أنها تساعد على بناء نظام ذكاء اصطناعي مولد لـ Providence، إحدى منظمات الرعاية الصحية غير الهادفة للربح، لفرز الرسائل المرسلة من المرضى تلقائيًا إلى مقدمي الرعاية.
وبوجه عام يؤكد الغالبية العظمى من المستثمرين في مجال الصحة إن الذكاء الاصطناعي التوليدي أثر إلى حد بعيد على استراتيجياتهم الاستثمارية، حيث ساعدهم على تحقيق أرباح تصل إلى عشرات الملايين من الدولارات.
الذكاء الاصطناعي قد يشكل خطرًا على حياة المرضى
يعتقد الكثير من العلماء أن الاعتماد على الذكاء الاصطناعي قد يكون سابقًا لأوانه بسبب المخاوف العديدة المرتبطة به وما يمكن أن يشكله من مخاطر على حياة المرضى.
وفي حديث له لـ TechCrunch قال أندرو بوركوسكي، كبير مسؤولي الذكاء الاصطناعي في شبكة Sunshine Healthcare Network، وهي أكبر نظام صحي تابع لوزارة شؤون المحاربين القدامى الأمريكية:
“إحدى المشكلات الرئيسية المتعلقة بالذكاء الاصطناعي التوليدي هي عدم قدرته على التعامل مع الاستفسارات الطبية المعقدة أو حالات الطوارئ”.
وأضاف:
“إن قاعدته المعرفية المحدودة، التي تفتقر إلى المعلومات السريرية الحديثة والخبرة البشرية تجعله غير مناسب لتقديم مشورة طبية شاملة أو توصيات علاجية.”
كما شدد على أن الاعتماد فقط على الذكاء الاصطناعي التوليدي في مجال الرعاية الصحية يمكن أن يؤدي إلى تشخيصات خاطئة أو علاجات غير مناسبة؛ مما يهدد حياة الكثيرين في معظم الأحوال.
شركة OpenAI تحذر من الاعتماد على ChatGPT و GPT-4 في المجال الطبي
حذرت شركة OpenAI الرائدة في مجال التكنولوجيا والعديد من منتجي الذكاء الاصطناعي التوليدي الآخرين من الاعتماد على نماذجهم الذكية للحصول على المشورة الطبية.
وفي بحث نُشر في مجلة JAMA Pediatrics، وجد العلماء أن روبوت الدردشة المولد بالذكاء الاصطناعي التابع لشركة OpenAI، ChatGPT، والذي قامت بعض منظمات الرعاية الصحية بتجربته على نطاق محدود، ارتكب أخطاء في تشخيص بعض أمراض الأطفال بنسبة 83%.
وبحسب معيار MedAlign المستخدم لتقييم مدى قدرة الذكاء الاصطناعي على أداء بعض المهام في مجال الرعاية الصحية مثل تلخيص السجلات الخاصة بالمرضى، فشل GPT-4 في إنجاز 35% من المهام. وهذا ما يعكس أن الذكاء الاصطناعي التوليدي يواجه صعوبة في أداء المهام الإدارية الطبية التي تعد جزءًا لا يتجزأ من سير العمل اليومي للمنشآت الطبية.
مخاوف من التحيز في نتائج الذكاء الاصطناعي التوليدي
في دراسة أجريت عام 2023 بجامعة ستانفورد الأمريكية، لاحظ الأطباء أن الإجابات المقدمة من روبوت الدردشة ChatGPT حول بعض الأسئلة الطبية عن وظائف الكلى وسُمك الجلد وغيرها، قد شابها نوع من التنميط والتحيز.
وأوضح العلماء المشاركون في الدراسة أنه علاوة على النتائج المغلوطة، فقد أظهر تميزا ملحوظًا في إجابات نموذج الذكاء الاصطناعي بين كل من أصحاب البشرة البيضاء والآخرين من الأجناس الملونة.
وأكدوا أنه إذا شابت توصيات الذكاء الاصطناعي التحيز، فقد يؤدي ذلك إلى تفاقم عدم المساواة في العلاج، وبخاصة أن الأشخاص الملونين هم الأكثر احتياجًا للخدمات الصحية، وبالتالي قد يكونون الأكثر اعتمادًا على الذكاء الاصطناعي للحصول على المعلومات.
إلا أن العديد من الخبراء قد أكدوا مؤخرًا أن خوارزميات الذكاء الاصطناعي بصدد التحسن في هذا المجال للتخلص من كافة أوجه التنميط.
ما وراء روبوتات الدردشة
الأمر لا يقتصر على مجرد طرح سؤال على روبوت الدردشة فقط، ولكن يقول بعض الباحثين أن مجال التصوير التشخيصي الطبي medical imaging – والذي يتعاون إلى حد بعيد مع علم الأشعة – يمكن أن يستفيد بصورة كبيرة من قوة الذكاء الاصطناعي التوليدي.
وفي نوفمبر الماضي قام فريق بحث صيني باختبار نموذج “باندا”، وهو نموذج للذكاء الاصطناعي يُستخدم للكشف عن آفات البنكرياس المحتملة بالأشعة السينية. وأظهرت إحدى الدراسات أن “باندا” دقيق للغاية في تصنيف هذه الآفات.
ويوصي العلماء بوجه عام بضرورة تطبيق نماذج الذكاء الاصطناعي في مجال الرعاية الصحية بصورة حذرة وتحت إشراف طبي بشري كامل.
يذكر أن منظمة الصحة العالمية قد حذرت في تقرير سابق من أن تطبيقات الذكاء الاصطناعي التوليدي يمكن أن تؤدي إلى نتائج خاطئة، أو غير دقيقة، أو متحيزة، أو غير كاملة، ما قد يفضي بجلاء إلى عواقب سلبية.
المصدر: تيك كرانش
اشترك في نشرة نيو نيوز الإخبارية
كن أول يصله آخر الأخبار العربية والعالمية