نگاهی تازه به فلسفه پزشکی بیندازید.

مواجهه بالینی در عصر تکنولوژی از گوشی پزشکی

امین حبیبی

0

پژوهشکده تاریخ و فلسفه علمِ پژوهشگاه علوم انسانی و مطالعات فرهنگی با همکاری سازمان‌ها و نهادهای علمی کشور،
همایش ملّی «تکنولوژی و فرهنگ؛ تأملات انتقادی با رویکردهای فلسفی_تاریخی» در ۱۶ و ۱۷ دی‌ماه ۱۴۰۲ برگزار کرد.

سخنران بعدی دکتر امین حبیبی که دکترای آموزش پزشکی دارند عضو هیئت علمی دانشگاه علوم پزشکی هوشمند است.
***
عرض سلام دارم خدمت حاضرین در جلسه. خیلی ممنونم از فرصتی که در اختیار من گذاشته شد. عرض خسته نباشید خدمت آقای دکتر منجمی گرامی، آقای دکتر حیدری و آقای دکتر نمازی. خب در حضور اساتید واقعاً سخت هست ارائه کردن چنین موضوعی. در ابتدا عرض کنم که این مسئله در واقع نتیجه یک مطالعه اسکوپینگ ریویو هست که با همکاری خانم دکتر کلانتریون و دکتر خانی انجام شد، که افتخار حضور در جلسه بر عهده بنده قرار داده شد. من بخش هایی از نتایج این مطالعه را فقط در اینجا ذکر می کنم و باتوجه به اینکه آخر وقت هم هست سعی می کنم که از اطاله کلام خودداری بشود. بحثمان را از جمله ایی از نیل پستمن که حالا معرف حضور اساتید هست و اینکه در مورد صحبتی که در واقع من در کل جلسه خواهم داشت این تاثیراتی هست که در حقیقت مسئله فناوری یا در واقع استفاده همه جانبه از تکنولوژی در حوزه علوم پزشکی و آموزش پزشکی خواهد داشت. اول این نکته را هم بعنوان یک بخشی از پرسپکتیو شخصی بگویم که من شخصاً خودم در واقع طرفدار فناوری هستم و از تمام شئون تکنولوژی استفاده می کنم و در دانشگاهی هم در حال کار هستم که قرار هست که خط مقدم استفاده از فناوری های نوین در حوزه علوم پزشکی باشد، در واقع معنی منظورم این هست که خودم یک شخص ضد تکنولوژی نیستم، اما به طور کلی آن چیزی که حالا در ادامه توضیح می دهم و تجربه زیستی خودم و حالا اتفاقاتی که پیرامون مسائل مربوط به استفاده از فناوری در حوزه علوم پزشکی وجود داشته، باعث شد که در واقع این تحقیق را انجام بدهیم.
مطلب را من در سه بخش انشاءالله خدمتتان ارائه خواهم کرد. گفته شد که مسئله فناوری یا استفاده از آن در حوزه های مختلفی که مورد کاربرد هست، یکی از مهمترین حوزه هایش آموزش پزشکی و در حقیقت علوم پزشکی هست. اگر در واقع این اسلاید را نگاه کنید شما با یک سرچ ساده انبوهی از این تصاویر را در وبلاگ ها و سایت ها حتی مقالات متعدد که همانطور که ملاحظه می کنید مثلاً ده تا تکنولوژی برتر آموزش پزشکی چطور به ما کمک می کند که مشکلاتمان را حل بکنیم، پنج تا راه استفاده از فناوری و… یعنی این مثلاً یک شکل عجیب و عظیمی استفاده از فناوری در حوزه علوم پزشکی را می توانید ملاحظه بکنید. یک نکته جالب دیگر هم این هست که خودمان در سرچ ها متوجه شدیم و اگر اساتید هم خودشان سرچ بکنند حتی اگر شما در مورد چالش¬های استفاده از فناوری در حوزه مثلاً آموزش پزشکی سرچ بکنید خیلی از آن چیزی که در ذهنتان هست را در واقع به شما نمی دهد. اتفاقاً آن چیزی که به عنوان چالش به شما می دهد این هست که چالش های شما چه چیزی هست که نمی توانید از این استفاده بکنید. یعنی به شما نمی گوید که استفاده از این ممکن هست چه پیامدهایی داشته باشد. مثلاً به شما می گوید شما زیرساخت خوب ندارید. آدم ها مقاوم هستند فرهنگتان در مقابل تکنولوژی همچنان آپگرید نشده و به شما در واقع این چلنج های استفاده از تکنولوژی و بخصوص در حال حاضر آن چیزی که به عنوان ai و هوش مصنوعی هست را به شکل عجیبی در مقالات شما مشاهده نمی کنید.
آن چیزی که زمینه ساز اولیه این فرآیند شد هم خب دیدگاه های نیل پستمن هست البته فارغ از اینکه ما نظریات ایشان را بپذیریم یا قبول داشته باشیم ان چیزی که باز حداقل به عنوان شخص خودم به نظر می رسد این هست که ما در آموزش پزشکی تا حدودی دچار این مسئله هستیم. نیل پستمن در واقع به عنوان جامعه شناس و نظریه پرداز آمریکایی در این کتاب در واقع تکنوپولیش حالا تاریخ فرهنگ بشر را به سه تا دسته تقسیم می کند بعنوان فرهنگ ابزار فرهنگ تکنوکراسی و فرهنگ تکنوپولی و آن چیزی که در بخش سوم در واقع فرهنگ تکنوپولی بحث می کند که سیستمی که در آن جامعه انسانی قدرت دفاعی خود را در مقابل سیر اطلاعات و تکنولوژی از دست داده است. یعنی ما در جامعه ایی داریم زندگی می کنیم که دیگر آن مسئله استفاده از تکنولوژی هدف خودش را از دست داده است و خب بعنوان یک وسیله ایی که هر شکلی باید ازش استفاده کرد ما استفاده می کنیم و انسان در مقابل تکنولوژی تقریباً ناتوان هست و هر ان چیزی که به دستش می رسد را بدون اینکه خودش بداند چرا مورد استفاده قرار می دهد.
این مسئله یعنی چنین در واقع کانتکسی را اگر شما در حوزه آموزش پزشکی و علوم پزشکی را هم در نظر بگیرید تقریباً ما با آن مواجه هستیم من در رابطه با تجربه زیستی خودم خدمتتان عرض بکنم. دانشگاه علوم پزشکی هوشمند تقریباً یکی از معدود از موسسات آموزشی هست که به خارج از دانشگاه گرنت حوزه تغییر فناورانه و نوآورانه می دهد من این چهار سال به عینه این مسئله را با آن برخورد داشتم یعنی این فشن شدن یک موضوع و اینکه ما نمی دانیم چرا داریم از آن استفاده می کنیم برای مثال شما اگر به دو سال قبل برگردید مسئله VR و استفاده از واقعیت مجازی را ما می دیدیم در بسیاری از طرح ها و در واقع آن مقالاتی که اساتید و اعضای هیئت علمی می خواستند کار کنند و خب خیلی هم جالب بود که ما اکثراً این داوری ها را انجام می دادیم می دیدیم که خیلی از داورانی که حالا شاید خیلی هم سر رشته ایی از همان مفهوم تکنولوژیک هم ندارند ولی در پاسخ به آن طرح مثلاً می گفتند چرا مثلاً vr و مثلاً شما با یک دوتا عکس هم می توانید اینکار را انجام بدهید و نکته جالب این هست که در دو سال اخیر شما اگر مقالات مثلاً سیستماتیک در حوزه vr مواجه شدیم می بینید چقدر انتقادات زیادی به این مسئله واقعیت مجازی و استفاده لاکچری گونه از این شده است.
الآن هم باز با همین مسئله مواجه هستیم یعنی اگر شما نگاه کنید در الآن خب تب اپلیکیشن هست و متأسفانه مثلاً سامانه. در کشور هم این مسئله مثلاً برای هر چیزی یک سامانه طراحی بکنیم و حالا هرچقدر هم می توانیم پیچیده ترش بکنیم.این مقدمه ایی که خدمتتان عرض کردم آن چیزی که به نظر می رسد مطالعات عرض می کنم خدمتتان ما مطالعات خیلی در سطح جهان هم در این حوزه زیاد انجام نشده است اما آن چیزی که ما می توانیم در پنج دسته اساسی به عنوان کانسرن یا چلنج ها یا چیزهایی که بنظر می رسد استفاده همه جانبه از فناوری برای ما دردسرساز هست اینها هستند:
اولین مسئله کاهش تجربه انسانی هست بعد از دست دادن شهود و قضاوت بالینی ملاحظات اخلاقی و استقلال کالایی شدن آموزش پزشکی و چالش آموزش انسان گرا که خب همه اینها خودشان باز تبدیل می شوند به یک سری زیر مجموعه که من به طور خلاصه هر کدام از اینها را سعی می کنم خدمتتان توضیح بدهم مسئله اول مسئله کاهش تجربه انسانی هست در واقع اولین نگرانی برای استفاده بی مورد و بی رویه از فناوری در آموزش پزشکی هست خب پزشکی همانطور که می دانید یک رشته عمیقاً انسانی هست که نیاز دارد به همدلی شهودو درک جامعه از شرایط منحصر بفرد بیماران و خب اتکای بیش از اندازه به فناوری و آن چیزی که حالا ما در بخشی از شکل های آموزش حتی در کشور خودمان می بینیم باعث می شود که این اصطلاحاً به یک مجموعه ایی از داده ها و نشانه ها تقلیل می دهند که حتی پزشک نداند که این فرد چه کسی است ولی با استفاده از یکسری فناوری هایی که در ادامه مثال هم می زنم خدمتتان شروع می کند به تشخیص آن فرد خود این در واقع کانسپت اولیه یا در واقع این تم خودش مسائل مختلفی را شامل می شود یکیش همان مثلاً رابطه بیمار و ارائه دهنده خدمت نکته جالب این هست که فناوری پتانسیل ایجاد مانع دارد بین این آدمهایی که می خواهند ارائه خدمت کنند و کسی که بعنوان بیمار در واقع می تواند خدمت را بگیرد مثلاً اگر فرض کنید یک پزشکی فقط برای تعامل با پرورنده های الکترونیک سلامت که خب الآن خیلی هم باب هست این اچ ار اس ها این مثلاً یا مثلاً سایر حالا رابط های فناوری فقط با استفاده از آنها شروع می کند تشخیص دادن بیمار خیلی از این مواردی که در پزشکی به آن توصیه می شود را عملاً از دست می دهد یکیش در واقع همان بحث همدلی و ارتباط عاطفی هست.
خب تجربه همانطور که گفته شد انسانی در پزشکی شامل همدلی شفقت و درد هست هرچقدر که ما این زمینه ارتباط چه فیس تو فیس و یا به هر شکلی را از پزشک را با بیمار بگیریم این سطح همدلی و ارتباطات عاطفی او کاهش پیدا می کند مسئله بعدی در حوزه کاهش تجربه انسانی ارتباطات و تبادل اطلاعات خب این بحث ارتباطات و تبادل ارتباطات هم همانطور که در اسلاید ملاحظه میکنید این در واقع سنگ بنای تجربه بشر هست در حوزه آموزش و اصطلاحا عمل پزشکی خب ما خیلی از این نشانه های مهم غیر کلامی و اطلاعات متنی را ممکن هست در واقع در استفاده بی رویه از فناوری از دست بدهیم خب ممکن هست منجر باز به سوء تفاهم های بالقوه یا ارزیابی های ناقص بود و مسئله بعدی دیگر مراقبت و شخصی فردی هست که این هم بنظرم خیلی موضوع مهمی هست.
یک نکته ایی که وجود دارد و خب تلاشی هم هست که در حوزه علوم پزشکی می شود این پزشکی شخصی سازی شده است که مسئله پزشکی شخصی سازی شده اتفاقاً به دلیل همچنین نگرانی ای هست که بوجود امده است که حالا تا چه حدی موفق بوده است نمی شود خیلی در موردش نظر داد اما مسئله ایی که وجود دارد تجربه آدمها در مسائل و مشکلات پزشکی تجربیات منحصر بفردی هست و آدمهاهم نیاز دارند که به شکل های ویژه ایی از هرکدامشان به صورت اختصاصی اصطلاحاً تیمار بشوند خود این موضوع باعث می شودکه درست هست که خود ما با استفاده از فناوری حالا من در مورد الگوریتم ها بیشتر توضیح می دهم درست هست فناوری ممکن هست که ما به یکسری دیتاهای جامع و کامل مثلاً در مورد بیماری به ما بدهد ولی اینکه آیا می تواند پیچیدگی های تک تک بیمارها را درک بکند بنظرم جای سوال هست.
مثلاً در واقع در ترم بعدی این موضوع را بیشتر می بینید از دست دادن شهود و قضاوت بالینی یک بخشیش بخش الگوریتم ها هست خب مثلاً شما ببینید الآن در حوزه فرض کنید تصویربرداری و رادیولوژی این موضوع بسیار باب هست دیگر یعنی حتی یک رقابت سنگینی هم در کشور خود ما در مورد این موضوع وجود دارد که مثلاً یک فردی بتواند به دیتاهای رادیولوژی دست پیدا بکند و هرچقدر به دیتاهای بیشتری دست پیدا بکند موفقیت بیشتری کسب می کند. مثلاً در تدوین یک مقاله ایی در رابطه با ai خب این دیتاها تبدیل می شوند به یکسری الگوریتم و ابزارهای تشخیصی موقعیت منحصر بیماران و قضاوت های دقیقی در موارد پیچیده و غیر معمول را انگار در نظر نمی گیرند چون ما تلاش می کنیم در واقع به یک الگوریتم یکسان برسیم و خب حالا نوشتن یک الگوریتم هم که الآن کار ندارد مثلاً در حوزه رادیولوژی تلاش می شود با یکسری عکس ها حالا با یکسری داده های یکسان کنار هم دیگر قرار می گیرند و بعد یکسری نتایج یکسان تولید بشود این هم اتفاقاً علاوه بر اینکه ما اینجا نقش بیمار را در واقع داریم حذف می کنیم.
مسئله بعدی محدودیت های هوش مصنوعی هست چیزی هست که عملاً در طراحی ها اصولاً دیده نمی شود بخصوص در طراحی ابزارهای آموزشی یعنی یک بخشی هست که تصور خیلی هست حالا مثلاً متخصصین حوزه علوم پزشکی این هست که این دستگاهی که ساخته می شود این دیگر خیلی خوب هست یعنی این خیلی کامل هست و این می تواند در واقع مورد استفاده قرار بگیرد ما یک تجربه ایی داشتیم برای یک فرآیند آموزشی در دانشگاه علوم پزشکی شهید بهشتی در واقع در گروه چشم که خب یک کار عظیمی هم انجام شد یک مدل شبیه ساز برای عمل کاتاراگ را در واقع در آن دانشگاه که خب یک مدل آلمانی وجود داشت و در ایران وجود نداشت با همکاری دانشگاه شریف ساخته شد حالا در فرآیندش و خب در کشور هم اول شد من در آن فرآیند دانش پژوهیش حضور داشتم تجربه خیلی جالبی برای خود من این بود که با وجود اینکه این دستگاه ساخته شد و کاملاً مشابه آن در واقع آن نمونه آلمانی بود و حتی بنظر می رسید بهتر هست ولی برخی از کامنت هایی که رزیدنت ها در مورد دستگاه می دادند خیلی جالب بود مثلاً خاطرم یکی از رزیدنت ها وقتی رفت با دستگاه کار کرد برای اینکه حالا آموزش آن عمل را ببیند بعد از چیز به من گفت که من یک مشکلی که دارم این هست که مثلاً خب کامنتهای غیر واقعی و اینها زیاد داشتیم می گفت ما در اتاق عمل وقتی هستیم یک صدای صوتی از این مدام در گوش من هست و این دستگاه صدای صوت را ندارد و اصلاً این چیزی که الآن دارد برای من انجام می شود چون در واقع انگار این خطی بود که قرار بود با دستگاه کار می کنند دیگر بگویند این با دستگاه دارد خوب انجام می دهد برود در اتاق عمل و مسئله این بود که برخی از این رزیدنت ها حتی وارد اتاق عمل می شدند احساس می کردند انگار این بار اول هست که دارند انجام می دهند صدای یکی از وسایلشان انگار روی گوششان می زد حالا خاطرم نیست دقیقاً چه صدایی در اتاق عمل بود.
البته این حالا فیدبکی بودکه به ما به موقع رسید یعنی به ما هم رسید بعد این دستگاه صوت به دستگاه اضافه شد یعنی تلاش شد که باز آن واقعی بشود یعنی بحث این هست که هرچقدر که تلاش بکنید محیط واقعی بشود باز هم شما نمی توانید آن بازنمایی از واقعیت را داشته باشید و انگار آن مسئله واقعیت از شما یک قدم جلوتر هست خب البته این را هم باید گفت که واقعاً چنین دستگاهی مورد نیاز بود مثلاً در گروه چشم ولی چنین کامنت هایی باعث شد که آن سطح توقعشان از چنین دستگاهی واقعاً کاهش پیدا بکند یعنی اینکه چنین کوچکی و خب در دستگاه اگر مثلاً شرکت آلمانی چنین صدای صوتی در دستگاه بود بعنوان یک ضعف شناخته می شد ولی وجودش باعث می شد که این آدم راحت تر کار بکند و فکر بکند که مثلاً در محیط واقعی قرار دارد بخش دیگر در واقع بحث در واقع اصطلاحاً می توانیم بگوییم مقابله با توسعه تفکر انتقادی دانشجویان هست خصوصاً خب این مسئله.
خب گفتیم وابستگی به الگوریتم ها وجود دارد محدودیت ها هم وجود دارد به این تفکر انتقادی یک مهارت پایه هست در علوم پزشکی مبدأ حیاتی که شامل تجزیه و تحلیل اطلاعات می شود ارزیابی و شواهد و تصمیم گیری های منطقی این مسئله به زمانی ایجاد می شود که آدمها در واقع نظریات مختلف را بگیرند آن اولویت ها را خودشان بشناسند استدلال بالینی را به کار بگیرند و خب حالا ما در آماده سازی معمولاً می گوییم مبانی تفکر انتقادی از طریق بحث های گروهی مثلاً کیس دیسکاشن ها مثلاً یادگیری های مثلاً مبتنی بر مورد و قرار گرفتن در مقابل در معرض در واقع ایجاد می شود اینجا باز اتکای بیش از حد به فناوری بنظر می رسد با آن توسعه تفکر انتقادی دانشجویان حوزه پزشکی یک کمی در تضاد هست یعنی ممکن هست که باعث بشود این آدمها مثلاً از یکسری باز همین شبیه سازها و سامانه ها و اپلیکشن ها استفاده بکنند و خب آن فرآیند شناختی که برایشان مورد نیاز هست برایشان این خیلی این فعال نشود و در واقع ان جلسات گروهی هم شرکت نکنند مسئله بعدی در واقع تم سوم ما ملاحظات اخلاقی و استقلال بیماران هست که خب خودش شامل چند تا مسئله می شود:
یکیش مسئله خود مختاری بیماران هست خب ببینید این مسئله ایی که وجود دارد که ما هرچقدر این مسئله پزشکی را پیچیده تر می کنیم بنظر می رسد که بیماران احساس می کنند که اصلاً نمی دانند چه اتفاقی دارد می افتد علاوه بر اینکه دسترسی خودشان به اطلاعات ممکن هست محدود باشد و اصطلاحاً عدم مشارکتشان در فرآیند تصمیم مثلاً فرض کنید براساس یکسری بیگ دیتا ما به آن می گوییم خب این اینجوری شده است در طی سی سال اخیر این هست شما باید اینکار را بکنید اینکه خود آن آدم در فرایند تصمیم گیری هیچ دخالتی ندارد و ما همیشه می گوییم یک چیزی بالاتر هست و دارد به ما می گوید این دست هست و شما باید اطاعت بکنید البته خب این موضوع حالا به طور کلی مشکل پزشکی کشور هم باشد ولی استفاده از هوش مصنوعی اینجا باز دردسر بیشتری ایجاد می کند.
و مسئله دیگری که ما بعنوان فرسایش اعتماد اینجا ذکر می کنیم این هست که همان اطلاعات شخصی ممکن هست به خوبی محافظت نشود اساساً باز مفهوم بیگ دیتا یکجوری مخالف بحث استقلال آدم ها هست یعنی شما وقتی بیگ دیتا می توانید داشته باشید که هر داده ایی را از هرجایی که می توانید جمع آوری کنید مثلاً شما در همین گوشی هوشمند کافیه در گوگل یک موضوعی را یکبار سرچ کنید مثلاً احتمالاً برای همه پیش آمده است شما اگر یک موضوعی را در گوگل سرچ کنید و وارد یوتیوب بشوید یوتیوب همان ویدیو را به شما مرتباً نشان خواهد داد حتی ممکن است شما در یک پلتفرمی که اصلاً فکر نمی کنید مرتبط به یوتیوب باشد این موضوع را سرچ کنید اما باز می بینید در یوتیوب آن موضوع همواره به شما نشان داده می شود یا مثلاً در اینستاگرام در اکسپلور یک چیزهایی را بخواهید دنبالش را بگردید و بعد می بینید که در فیسبوک که قاعدتاً هیچ ارتباط به اینستاگرام ندارد همان موضوع به شما نشان داده می شود.
این هم یک مسئله است مسئله دیگر من حریم خصوصی و امنیت داده ها هست در جریان اخیر اسنپ فود که احتمالاً همه دوستان با آن اشنا هستند ببینید خود مسئله هک اسنپ فود شاید بنظر بیاید که چیز خیلی خب خود مثلاً اینکه ما زنگ می زنیم و غذا می گیریم شاید بنظر بیاید خیلی چیز عجیب و غریبی نیست ولی شما اگر به داده های سمپلی که از آن هک در واقع استخراج شده بود ببینید خود اینها باعث جوک شده بود یعنی ادم ها را با اسم برایشان جوک ساخته بودند چون مثلاً آن آدم با اسم شخصی خودش یک توضیحی نوشته بود که خود آن توضیح باعث جوک شده بود و حتی یک بنده خدایی را سر این موضوع پیدا کردند یعنی گفتنداین آقای دکتر در جوردن این هم مطبش هست یعنی یعنی خود آن داستان می گویم اسنپ فود و غذا بود اینکه ما حریم خصوصی داده های بیمارانمان را نتوانیم رعایت بکنیم باتوجه به اینکه سطح دسترسی ها در حوزه هوش مصنوعی خیلی هم نیاز هست که بیشتر هم باشد و این موضوع را باز در شبکه های اجتماعی احتمالاً مواجه هستید بخصوص حالا دانشجویان که می آیند خیلی از اطلاعات بیمارانشان را کف ان شبکه اجتماعی می گذارند.
موضوع چهارم کالایی شدن آموزش پزشکی هست که خب خود این مسئله چهار تا چهار تا اصطلاحاً چالش را ایجاد خواهد کرد اولین دسترسی ناعادلانه هست به معنی دسترسی ناعادلانه در حوزه آموزش هست بنظر می اید که شما هرچقدر که استفاده از چون ببینید مثلاً فرض کنید در دانشگاه علوم پزشکی هوشمند ما اگر بخواهیم یک فناوری جدید را بیاوریم اولین چیزی که می گوییم خب زیرساختش هست خب زیر ساختش نیست باید چیکار بکنیم باید سرور بیاوریم حالا سرور را بیاریم بعد یک نفر را بیاورید که مراقب سرور باشد همین کارهای اینجوری خب حالا هزینه دوره مون چقدر می شود هزینه دوره خب بالاخره یک صد هزار تومان مثلاً اضافه می شود دیگر مثلاً چون ما الان داریم اینکار را می کنیم. این مسئله یعنی دسترسی ناعادلانه به این معنا که خب دوره آموزشی قرار هست برای آدم هایی که می توانند آن صد هزار تومان را بیشتر پرداخت کنند ران می شود و نه برای همه آنهایی که قرار بوده است پرداخت بکنند حالا من مبلغ کمی را مثال زدم ولی اگر مثلاً هرچقدر ما برویم جلوتر ممکن هست این میزان افزایش هزینه ها اینقدر زیاد بشود آدم ها واقعاً دسترسی نداشته باشند.
مسئله بعدی قشربندی اجتماعی که در پی آن می آید هم در حوزه آموزش و هم در حوزه بیماران . یعنی مثلاً شما اگر بیایید یک بیمارستان هوشمندی که مثلاً همزمان از اینترنت اشیاء و بلاکچین و هوش مصنوعی دارند استفاده می کنند بسازید و خب خدمات خیلی خوبی هم بدهید این خود به خود قشربندی اجتماعی ایجاد می کند بخاطر اینکه آدمهای دیگر نمی توانند عملاً از آن بیمارستان استفاده کنند اینکه برای اینها باید چه کاری کرد البته خب می شود در موردش صحبت کرد. آنکه ماباید خدمات سلامت و آموزش را در اختیار همه قرار بدهیم خب باز خوداین کالایی شدن مثلاً مثل همین ارتباط علم با صنعت و این چیزهایی که الآن خیلی باب هست و گسترش نابرابری جهانی هم که مشخص هست یعنی ما در واقع کشورهایی هستند که قاعدتاً در سطح خیلی بالاتری از نظر اینکه این امکان هزینه داشته باشند فناوری های پیچیده تری استفاده کنند و لزومی هم ندارد این را در اختیار بقیه قرار بدهند و در نهایت هم چالش آموزش انسان گرا هست که این مسئله هم به نظر من اخیراً خیلی وجود دارد.
به طور کلی اموزش پزشکی باید یک رویکرد کل نگر را داشته باشد که در واقع هم مهارت های فنی را در اختیار دانشجویان قرار بدهد و هم در واقع باعث توسعه ارزش های انسانگرایانه بشود اینقدر ما در حقیقت در سالهای اخیر مجدداً بر روی آن مهارت های فناوری تأکید کردیم که مثلاً حتی آزمون های آسکی مان هم دارد به این سمت می رود که ما در ایستگاه مثلاً یک مهارت فنی را از یک آدم می پرسیم بجای اینکه ببینیم این می تواند شرح حال بگیرد یا نه ببینیم اصلاً می تواند با یک دستگاه کار بکند یعنی تمام این آزمون ها حتی به این سمت می رود در کوریکولوم ها هم با وجود اینکه این موضوعات قرارداده می شود ولی بنظر می آید که آدمها دارند تشویق می شوند بتوانند از آن فناوری استفاده کنند بجای اینکه در واقع همان رویکرد کل نگر را داشته باشند خب خود این هم تبعاتش در واقع همان نادیده گرفته شدن انسانیت هست چالش تعادل را داریم که باز بین اهمیت فناوری و اهمیت اینکه ما آدمهایی داشته باشیم که بتوانند حرف بزنند بتوانند شرح حال بگیرند بتوانند برخورد داشته باشند.
در نهایت هم الگوسازی از شفقت هست در قسمت پایانی این را خدمتتان عرض کنم که با توجه به اینکه خود این چالش ها هنوز به درستی شناسایی نشده است خیلی راهکار دادن برایش در واقع بنظرم ساده نیست. چیزی که به نظرم می رسد که ما می توانیم انجام بدهیم این هست که کوریکولوم های علوم پزشکی با وجود اینکه باید تأکید بکنند بر اینکه بهرحال ما می توانیم از فناوری ها استفاده بکنیم اما نباید مرعوب چنین داستانی بشود اصولاً جوگیر شدن در این حوزه بنظرم خیلی خطرناک خواهد بود اینکه کوریکولوم باید بر توسعه ی ارتباطی قوی و همدلی و در واقع درک زمینه و دیدگاه بیماران باقی بماند اینکه ما باید در واقع برخی از این روش های آموزشیمان هم در این مورد باید به آن فکر کنیم مثلاً قطع کردن دوره کمک گرفتن از وسایل دیجیتال در بعضی از مطالعات بهش ذکر شده است اینکه ما باید ببینیم که آیا پزشکان ما می توانند بودن استفاده از یک الگوریتم تشخیص بدهند یا نه ما دانشجویان ما می توانند اینکار را بکنند یا نه آیا می توانند بدون چت جی پی تی جواب ما ها را بدهند یا نه چون الآن استفاده از چت جی پی تی هم در حوزه آزمون به شدت زیاد شده است. حالا احتمالاً اساتید می دانند هم نمونه هایی مثل کلاد و اینها که آمده است به راحتی مقاله می نویسند برای دانشجویان یا پایان نامه می نویسند. اصلاً با آنها اینکه بدانیم آیا می توانند بدون اینکار انجام بدهند یا نه می گوییم که بعضی از مسائل اخلاقی را هم برایشان گوشزد بکنیم اینکه در مورد مفهوم رضایت آگاهانه اینکه تبعات در واقع اخلاقی که ممکن هست داشته باشد. همانطور که ذکر کردم باید بیان بشود اینکه استفاده از هوش مصنوعی حالا اینجا خیلی وقت نشد اینکه ممکن هست چه خطراتی ممکن هست داشته باشد باید تبیین بشود و نکته دیگر هم از نظر مالی هم به نظر می رسد که بهرحال باید تلاش بشود که موسسات تا جاییکه فشار بر در واقع فراگیران خودشان نباشد از آن فناوری استفاده بکنند و بقیه اش را بسپارند به در حقیقت آموزش های سنتی و چیزی که قابل استفاده است خیلی ممنونم از فرصتی که در اختیار من قرار داده شد و امیدوارم که در این مدت کم توانسته باشم موضوع را به خوبی منتقل کرده باشم.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.