الذكاء الاصطناعي في الطب... المخاطر والتوجهات المستقبلية
رائد مهدي صالح
29/8/2024، 12:16:24 ص
حذر الأبُّ الروحي للذكاء الاصطناعي دكتور جيفري هينتن (Geoffrey Hinton) من اننا حاليا ننتقل إلى مرحلة يكون لدينا أنظمة أو (آلات) أذكى بكثير من الإنسان، و اضاف إن هناك احتمال ان هذه آلأنظمة ممكن ان تتحكم و تسيطر على عدة مجالات في حياتنا. بالرغم إن أنظمة الذكاء الاصطناعي لا تتمتع بوعي ذاتي كبير، إلا أنها حاليا أذكى وتستطيع تحليل البينات بشكل افضل ولا سيما في مجالات الطب و الرعاية الصحية.
كي نفهم ببساطة كيف يمكننا إن يعمل الذكاء الاصطناعي، يجب إن نفهم متطلباته و أنواع نماذجه. ابتداء من التعريف، فان الذكاء الاصطناعي هو إعطاء أجهزة الحاسوب القدرة على التفكير والتعلم مثل البشر.
▪︎ متطلبات العمل
تعتمد أنظمة الذكاء الاصطناعي على العناصر الرئيسية التالية:
- البيانات(Data):
تدعى بوقود الذكاء الاصطناعي و تستخدم كميات ضخمة من البيانات لتدريب نماذج الذكاء الاصطناعي على التعرف على الأنماط اللغوية او الصورية واتخاذ القرارات.
- الخوارزميات (Algorithms)
هي مجموعات القواعد أو الإجراءات التي تتبعها أنظمة الذكاء الاصطناعي لمعالجة البيانات والتعلم، وتكتب بلغات برمجية مختلفة.
- أجهزة حواسب قوية (Powerful computers)
أجهزة تحتوي وحدات معالجة الرُّسُوم (Graphics processing units) الضرورية للحسابات المعقدة و المشاركة في بناء نماذج الذكاء الاصطناعي.
أذن نموذج الذكاء الاصطناعي هو حاسوب يقوم بتنفيذ برنامج يمثل خوارزمية تعلم تقوم بمعالجة بيانات معدة للخوارزمية. المعالجة الرئيسة و ألأولى في نموذج الذكاء الاصطناعي تسمى التعلم (Learning) والمعالجة الثانية هي الاختبار (Testing) أو التقييم (Validating).
▪︎ التعلم الآلي (Machine learning)
هذا هو جزء من الذكاء الاصطناعي يسمح للأنظمة بالتعلم من البيانات دون برمجة صريحة. مثال مبسط لتوضيح التعلم الآلي:
كي نقوم بتعليم نموذج ذكاء اصطناعي على التمييز بين التفاح و البرتقال مثلا، يجب اولا إن نعلمه باستخدام خوارزمية تمييز انماط على معالجة عدة صور من التفاح و البرتقال، طبعا يجب ان نصنف الصور (Data Labeling) أي نضع اسما و صنف (على هيئة نص) أن هذه "تفاحة" تشير إلى صورة من التفاح و كذلك بنفس الطريقة نرمز صور كل انواع البرتقال. وبهذه تصبح لدينا البيانات او كما تدعى .(Dataset ) الخطوة التي تلي ذلك هو ان نتجزء هذه البيانات إلى جزأين بشكل عام (في بعض الدراسات الى عدة أجزاء)، احدهما كبير يدعى بيانات التعلم (Training Set) و الجزء الأخر يدعى بيانات الاختبار (Testing Set) تقوم الخوارزمية (برنامج) بمعالجة بيانات التعلم المرمزة لفترة من الزمن. بعد ذلك يتم عرض صوره من بيانات التحقق لنموذج الذكاء الاصطناعي (الخوارزمية) و يطلب منه التعرف على الصورة و يعطي قرار اذا ما كانت تفاحة إم برتقالة. خلال فترة التعلم الخوارزمية تقوم ببناء معرفي من خلال انماط الصور التي تتعلمها لدعم نموذج الذكاء الاصطناعي، هذا البناء يكون اكثر دَقَّة عن طريق معالجة اكبر عدد ممكن من الصور. و بالتالي كلما كانت بيانات التعلم اكثر كلما استطاعت الخوارزمية إن تتحقق من اي صورة تعالجها بشكل سريع. التعلم الآلي سريع ولكن نتائجه محدودة وفي بعض الاحيان غير دقيقة.
▪︎ التعلم العميق (Deep learning)
شكل متخصص من أشكال التعلم الآلي يستخدم الشبكات العصبية (Neural Networks) الاصطناعية لتحليل البيانات. الشبكات العصبية هي محاكاة برمجية لخلايا دماغ الإنسان العصبية تنتظم على شكل مستويات و تقوم فيما بينها بتمييز أنماط معرفة من اجل اتخاذ قرارات. الفرق الأساسي بين التعلم الآلي و التعلم العميق، أن الأخير يعتمد على بيانات ضخمة جدا. التعلم العميق يحتاج زمن اكبر في الإعداد و لكن نتائجه سريعة ودقيقة.
دكتور هينتن هو أول من اقترح بناء محاكاة للشبكات العصبية عند الإنسان خلال دراسة الدكتوراة في سبعينيات القرن الماضي. دكتور هينتن امضى عشرة سنوات مع غوغل انتجت برنامج المحادثة بارد(Bard) أو كما يدعى حاليا جيمني (Gemini) بعد حصوله على جائزة نوبل في الحوسبة مع بعض زملائه في عام 2019.
▪︎ أنواع النماذج
نماذج الذكاء الاصطناعي تكون على نوعين كما يوضح الدكتور لانس اليوت (Lance Eliot) كاتب و باحث في هذا المجال: الأول يدعى الذكاء الاصطناعي العام (Generic AI) و الذي يعتمد على قواعد معرفة مسندة ومرتبطة بالأنترنت، أي نظام مفتوح، مثال على ذلك برنامج المحادثة (جات جي بي تي) وكذلك (جيمني) المطور من قبل غوغل. هذا النوع من تطبيقات الذكاء الاصطناعي يعتمد على يسمى نموذج اللغة الكبير (Large Language Model). النوع الثاني هو الذكاء الاصطناعي المبني على قواعد المعرفة (Rule-Based AI) و هو نظام مغلق و يعتمد قواعد معرفة مخزونه ضمنا و مطورة من قبل مبرمجين متخصصين.
نستنج مما تقدم، أن عماد تطور نماذج الذكاء الاصطناعي هو البيانات و تطور خوازميات التعلم. و الحقيقة في ايامنا هذه اكثر ما تقوم بتوليده ألأنظمة المستخدمة هو الكم الهائل من البيانات و خاصة النصية منها في جميع المجالات و بالخصوص في مجال الطب و الرعاية الصحية.
بالرغم مما نشهده حاليا من تطور تطبيقات الذكاء الاصطناعي العام بسبب توفر البيانات النصية العامة وازدياد عدد المستخدمين مقارنة بالنوع الثاني، ألا أن الذكاء الاصطناعي العام لازال يعاني توليد نتائج غير متوقعة كما تظهر ضمن برنامج المحادثة جيمني و التي تسمى الهلوسة (Hallucinations) وهي نوع من المخرجات غير الصحيحة وفي بعض الاحيان مضللة بسبب محدودية البيانات التدريبية او مشكلات تقنية او فنية في بناء الخوارزمية. (ممكن الاشارة هنا الى مقالي حول جيمني في مجلة المجلة من هنا).
▪︎ في مجال الطب
يؤكد دكتور هينتن أن الذكاء الاصطناعي مهم جدا و مفيد في الطب و الرعاية الصحية بالخصوص في مجال ألأشعة و التصوير الطبي وأضاف انه يلعب دور مهم حاليا في تصميم العقاقير و الأدوية الطبية. ألا أن هناك خطورة مرافقة لهذا التطور هو ان الذكاء الاصطناعي ربما يكون قادر نسبيا على استبدال أعداد كبيرة من الأفراد في مجال الرعاية الصحية لأنه ببساطة يقوم بما ممكن ان يقوم به واحد من المتمرسين في إحدى التخصصات الطبية. مثال بسيط يوضحه دكتور ليود ماينر عميد كلية الطب في جامعة ستانفورد من ان قدرة الذكاء الاصطناعي في تشخيص مرضى السرطان من خلال معالجة صور الأشعة حاليا يقارب تشخيص أي دكتور متخصص ولكن في استثناءات معينة. يضيف ليود أن الذكاء الاصطناعي ممكن ان يساعد طبيب مبتدئ في تحديد مدى خطورة حالة المريض في أماكن او مناطق لا يوجد فيها طبيب متخصص بالاعتماد على صور طبية او حتى صور ملتقطة من خلال المحمول و بالتالي يستطيع الوصول الى قرار ارسال المريض الى طبيب متخصص أم لا.
الذكاء الاصطناعي ممكن ان يكون جزء من الحل في مجال الطب والرعاية الصحية، ألا انه لن يكون بعيد من المخاطر والأخطاء حاليا وفي المستقبل وذلك للأسباب التالية:
▪︎ أسباب الأخطاء الطبية و اخطاء التشخيص لا تتغير
بشكل عام اغلب اسباب حدوث الأخطاء الطبية بما فيها أخطاء التشخيص هو أما عدم توفر البيانات الكافية حول حالة المريض أو في حالة توفرها، عادة ما تفسر هذه البيانات بشكل خاطئ وهذا ما يحدث كل يوم. حسب تقرير سلامة المرضى العالمي لهذه السنة، قدمت دراسة متخصصة في الوقاية من الأضرار أن ما نسبته 36% من الأضرار لما يقارب 3000 حالة ولادة حدثت في مستشفى واحد في ألمانيا (عام 2018) كانت نتيجة أخطاء تشخيصية وان 44% منها بسبب تأخر العلاج.
نفس هذه الأخطاء ممكن ان تكون موجودة إذا ما استخدم الذكاء الاصطناعي لان اصل المشكلة لا زال قائما وهو محدودية البيانات و التفسير الخاطئ لها، وهذا ما عرضته دراسة أمريكية هذا العام في مجلة الطب الرقمي (npj Digital Medicine) هدف الدراسة هو تطوير منهجية لتقييم وتصنيف الأخطاء التشخيصية التي ترتكبها أدوات الذكاء الاصطناعي، مع التركيز بشكل خاص على مجالات علم الأمراض ألنسيجي والتصوير الطبي. قامت الدراسة بتحليل هذه الأخطاء من منظور طبي بحت، و قدمت اقتراحات لتحسين أداء هذه الأدوات.
▪︎ التحيز غير المقصود
خوارزميات التعلم ذكية بقدر البيانات التي تتغذى عليها، بمعنى البيانات المتحيزة أو غير الكاملة تنتج نتائج متحيزة وغير دقيقة في نماذج الذكاء الاصطناعي، مما يؤثر على اتخاذ القرارات. يذكرنا هذا بمفهوم مهم في مجال علوم الحاسبات هو القمامة الداخلة و القمامة خارجة (Garbage In, Garbage Out) هو مبدأ بسيط ولكنه أساسي في مجال الحوسبة والتحليلات. يعني هذا المبدأ أن أي نظام أو برنامج، مهما كان متطورًا، سيُنتج نتائج سيئة إذا كانت البيانات التي يتم إدخالها إليه سيئة.
▪︎ الأفراط في ملائمة البيانات (Overfitting)
مشكلة شائعة في مجال تعلم الآلي، وتحدث عندما يتعلم نموذج الذكاء الاصطناعي على بيانات تدريبية بشكل جيد جدًا لدرجة أنه يصبح حساسًا جدًا للانماط والاختلافات الصغيرة في البيانات، مما يؤدي إلى أداء سيء عند تطبيقه على بيانات جديدة لم يسبق له التعامل بها. الإفراط في الملائمة يؤدي إلى انخفاض دَقَّة النموذج في اتخاذ القرار أو التنبؤ.
▪︎ تمثيل المعرفة والتعلم المعقد المبهم
يتفوق الذكاء الاصطناعي في معالجة كميات هائلة من البيانات وتحديد الانماط العشوائية والاختلافات فيما بينها، مما يؤدي إلى التعلم السريع ولكن ضمن مهام محددة، في حين يتفوق الإنسان في فهم المفاهيم، والتكيف مع المواقف الجديدة، ونقل المعرفة، مما يؤدي إلى تعلم أعمق وقابلية تطبيق أوسع. إلى يومنا هذا، لم يستطع العلماء الوصول إلى تفسير واضح لما يحدث في الدماغ خلال التفكير أو استرجاع الذكريات. يوضح دكتور ين - شن لي (Ying-Cheng Lai) عملية حفظ الأنماط المعقدة هو أمر يستطيع الإنسان فقط عمله من خلال التعرف على وجوه الناس دون عناء، في حين جهاز الحاسوب يواجه صعوبة في ذلك. يقوم دكتور لي بتطوير استراتيجيات التعلم الآلي بالاعتماد على المبادئ النفسية المرتبطة بذاكرة الإنسان.
بعبارة أخرى، لا زال الذكاء الاصطناعي عاجز عن نقل المعرفة و تمثيلها وهذا ما يجعل عمله محدودا و يستجلب الكثير من الأخطاء المستقبلية التي تتطلب المتابعة و السيطرة. في نهاية العام الماضي أوقفت الرابطة الوطنية لاضطرابات الآكل في الولايات المتحدة الأمريكية مشروع برنامج دردشة يدعى تيسا (Tessa) لمساعدة الأشخاص الذين يعانون من الإكتاب و القلق واضطرابات الآكل. السبب ببساطة أن نموذج الذكاء الاصطناعي الذي يدعم هذا التطبيق قام بإعطاء نصائح "مضللة" تقود إلى اضطرابات آكل متقدمة و معقدة. تجدر الإشارة أن النموذج هو من فئة الذكاء الاصطناعي العام.
▪︎ الحمل المعرفي (Cognitive Load)
في مثالنا السابق، تصور نفس النظام (نموذج الذكاء الاصطناعي) الذي يستطيع أن يميز بين التفاح و البرتقال عبر التعلم الآلي، تسند له مهمة تمييز كل ال 2000 نوع فاكهة الموجودة حاليا على الأرض. لك ان تتخيل كم الصور التي يجب على النموذج معالجتها! التساؤل هنا هو إذا ما كان النموذج قادر على أنجاز هذه المهمة (مدى صعوبة المهمة) وهو ما يدعى بالحمل المعرفي الداخلي أو الجوهري (Intrinsic Cognitive Load)، يضاف إلى ذلك مقدار العمل المطلوب للوصول إلى أهداف النموذج، وهذا ما يسمى الحمل المعرفي الخارجي (Extraneous Cognitive Load).
عندما تكون البيانات اكبر من طاقة النموذج الحسابية، يقوم بتوليد أخطاء عبثية وربما ينهار بسبب الحمل المعرفي (Cognitive Load) بشقيه الجوهري و الخارجي. وهذا ما ينطبق مثلا على الصور الطبية المقطعية (CT Scan) و التي تمتاز بحجمها الكبير جدا الذي يحتاج إلى أجهزة حاسوب قوية جدا لبناء خوارزمية تعالج أو تتعلم من هكذا نوع من الصور كبيرة الحجم.
▪︎ تسمم البيانات (Data poisoning)
كأي نظام أخر، ممكن خداع نموذج الذكاء الاصطناعي باستخدام بيانات معدلة أو مشوهة، مما يؤدي إلى نتائج غير دقيقة وقرارات خاطئة. تسمم البينات هو هجوم يتمثل في حقن بيانات مسمومة في مجموعة بيانات تدريب نموذج الذكاء الاصطناعي بغرض التأثير على نتائج النموذج، وهذا ما يقوم به المهاجمين عبر استغلال نقاط ضعف النموذج للوصول به إلى نتائج تخدمهم. يستغل المهاجمون التطورات التكنولوجية السريعة لتطوير هجمات أكثر تعقيدًا وفتكًا.
▪︎ التوجهات المستقبلية والتداعيات
يؤكد دكتور هينتن انه شخصيا لا يعرف مسار ممكن ان يضمن السلامة في استخدام نماذج الذكاء الاصطناعي مشير إلى أننا حاليا نتعامل مع أنظمة لم نتعامل معها سابقا. يخشى دكتور هينتن أن هكذا أنظمة ممكن ان تصل إلى مستوى وعي ذاتي يجعلها قادرة على تغير البرامج التي كتبت بها أصلا و من ثم تقوم بتنفيذها حسب معطيات وعيها الذاتي المتطور.
التوجهات المستقبلية لاستخدام الذكاء الاصطناعي تشمل الأسناد في تسيير ومراقبة الأجرات الطبية، وتحسين جودة الرعاية الصحية عن طرق الوقاية والتشخيص المبكر، أضافه إلى تعزيز الكفاءة في الصناعات الدوائية و التشخيص السريري و الصوري، ووضع حلول صحية مبتكرة بالذكاء الاصطناعي.
يشبه دكتور هينتن أن التنبؤ بمستقبل الذكاء الاصطناعي مثل النظر إلى ضباب، ربما يمكن أن ترى بوضوح خلال مئة ياردة ولكنك لاترى تماما بعد مائتين ياردة. لهذا يؤكد انه حان الوقت لمراجعة و فهم خوارزميات الذكاء الاصطناعي ووضع آليات ضبط حكومية لتحديد عملها في بعض التطبيقات و خاصة التي تمس حياة الإنسان بشكل مباشر.