نگاهی تازه به فلسفه پزشکی بیندازید.

ما در حباب تکنولوژیک زندگی می‌کنیم؛ انسان امروزی سایبورگ است

علیرضا منجمی

0

به گزارش ایسنا، دکتر علیرضا منجمی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت» که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، گفت: وضعیت‌هایی که «خودفهمی» ما را از وضعیت انسانی ما به چالش می‌کشد، جایی است که در آن پرسش‌های فلسفی مهم می‌شود. هوش مصنوعی چنین وضعیتی است و خودفهمی ما را به چالش کشیده است، از این رو در عصر هوش مصنوعی تأمل فلسفی جایگاه رفیعی خواهد داشت.

 

ما امروز در حباب تکنولوژیک زندگی می‌کنیم، گفت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه می‌توانسیتم آن را درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژی‌ها جزئی از انسان است. به همین دلیل طبابت بدون در نظر گرفتن تکنولوژی امکان‌پذیر نیست.

 

وی با بیان این‌که برای بررسی تاثیرات هوش مصنوعی باید بین ریسک و خطر تمایز قائل شد، گفت: وقتی می‌گوییم چیزی خطرناک است یعنی به ما آسیب می‌رساند، ولی وقتی می‌گوییم ریسک دارد یعنی خظرناک است .لی احتمال این‌ هست که به ما سود برساند. از همین رو در ریسک همیشه دو مفهوم احتمال و سودمندی مستتر است.

 

هوش مصنوعی چه ریسک‌هایی به همراه دارد؟

دانشیار پژوهشگاه علوم انسانی و مطالعات فرهنگی در مورد ریسک‌های هوش مصنوعی خاطر نشان کرد: هوش مصنوعی همواره در حال تغییر است و آنچه تا چند سال پیش هوش مصنوعی خوانده میشد اکنون به موزه پیوسته است از همین رو ریسکهای آن هم  متفاوت است. نمونه ای از  آخرین ریسک‌های هوش مصنوعی  را  میتوان در گزارش مرکز ایمنی هوش مصنوعی یا Center for AI Safety آمشاهده کرد.

وی در مورد این ریسک‌ها توضیح داد: یکی از این ریسک‌ها این است که احتمال این وجود دارد که هوش مصنوعی به سلاح تبدیل شود و این در حوزه پزشکی اهمیت زیادی دارد. ریسک دیگر این است که هوش مصنوعی اطلاعات غلط به ما بدهد و این از آن جهت اهمیت دارد که این اطلاعات غلط را چگونه باید تشخیص داد و خطا را چه کسی باید اطلاع دهد؟

منجمی با بیان این‌که یکی از خطرات هوش مصنوعی تغییر ارزش‌ها و اهداف است، گفت: سومین خطر هوش مصنوعی آن است که این سیستم‌ها به مرور ارزش‌ها و اهدافی را به ما ارائه کنند و به مرور ارزش‌ها و اهداف ما را تغییر دهند. مثل رفتارهایی که افراد در پلتفرم‌های اجتماعی انجام می‌دهند که خیلی رادیکال است در صورتی که ممکن است در دنیای واقعی افراد رادیکالی نباشند.

وی یکی از خطرات دیگر را تضعیف‌سازی دانست و گفت: وقتی وظایف را از دوش انسان‌ها برمی‌داریم، انسان‌ها ناتوان می‌شوند. مثل دستخط افراد که الان که همه تایپ می‌کند، به تدریج بدتر شده است. همچنین این‌که داده‌ها در انحصار چند کمپانی بزرگ است نیز یکی دیگر از خطرات است.

استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان این‌که هوش مصنوعی ممکن است اهداف و ارزش‌های جدیدی را تولید کند، گفت: تکنولوژی چند ویژگی دارد. تکنولوژی بی‌قرار است و خودکار است و هیچ راهی وجود ندارد که بتوان متوقفش کرد ولی این به آن معنی نیست که ارزش‌های تکنولوژی را بپذیریم. فریبکاری و خطرهای قدرت طلبانه نیز از دیگر خطرات این تکنولوژی هستند.

ما در حباب تکنولوژیک زندگی می‌کنیم

منجمی، مواجهه تکنولوژی و پزشکی را بسیار با اهمیت دانست و گفت: ما انسان خالص و طبیعی که در طب اخلاطی وجود داشت و با نظریۀ اخلاط چهارگانه می‌توانسیتم  بیماری های او را تشخیص دهیم و  درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و اینترنت و سایر تکنولوژی‌ها جزئی از انسان است. به همین دلیل طبابت بدون در نظر گرفتن تکنولوژی امکان‌پذیر نیست.

وی با بیان این‌که با وجود هوش مصنوعی مسائل و مفاهیم کلیدی فلسفۀ پزشکی باید مورد بازاندیشی قرار گیرند: در مورد مسائلی مثل تعریف سلامت و بیماری باید مجدد فکر کنیم. اگر قرار است به سمت پزشکی شخصی برویم، تعریف بیماری و سلامت تغییر می‌کند. «طبیعی» خیلی معنا پیدا نمی‌کند، چرا که ما در حباب تکنولوژیک زندگی می‌کنیم. موضوع استفاده از هوش مصنوعی رابطه پزشک و بیمار را نیز تغییر می‌دهد. معنی زیست ما را تغییر می‌دهد و درک ما را از بدن تغییر می‌دهد.

وی افزود: بخشی از مشکلات مربوط به مسائل حقوقی و اخلاقی است که دچار تغییر می‌شود. در مورد استدلال‌های پزشکی، در مورد تبیین و علیت مجدد باید فکر کرد.

منجمی با اشاره به این‌که هم‌بستگی نمی‌تواند نشان‌دهنده علیت باشد، گفت: اگر در پس پشت جمع آوری داده ها فرضیه‌ای، تحلیل یافته‌ها هیچ معنایی ندارد. فلسفه علم به ما آموخته است که مشاهده ها نظریه بار هستند و برای تحلیل یافته‌ها نیاز به چارچوب و الگو است. نباید مقهور حجم زیاد داده ها شویم.

 

برای فهم هوش مصنوعی در سلامت نیازمند تعامل فلسفه پزشکی و فلسفه تکنولوژی هستیم.

 

وی خاطر نشان کرد: سواد تکنولوژی اهمیت زیادی دارد که همه شهروندان، پزشکان و سیاست‌گذاران نیاز است آن را بدانند و فهم عام از تکنولوژی و ارزیابی نقادانه تکنولوژی بسیار مهم است. اینکه می‌گویند تکنولوژی یک ابزار است که می‌توان از آن استفاده خوب یا بد کرد، تلقی بسیار سطحی و خام اندیشانه ای است. در مورد هوش مصنوعی این‌گونه نیست. برای مثال سازندگان دارو متعهد به تولید دارو هستند و در مورد عوارض و نحوه مصرف و … در راهنمای دارو نکاتی وجود دارد. ولی مثلاً نور آبی موبایل باعث بی‌خوابی می‌شود، اما در کدام دفترچه موبایل چنین چیزی نوشته شده است؟ این تعهد نسبت به طراحی و ساخت تکنولوژی باید در هوش مصنوعی لحاظ گردد.

از سوی دیگر هوش مصنوعی نیاز به رصد دائم دارد که مسلما فعالیتی چندرشته ای و میان رشته ای است و نیازمند مشارکت پزشکان، مهندسان و فیلسوفان است. از سوی دیگر ما نیازمند چارچوبهای نظری و مفهومی جدیدی برای مواجهه و فهم هوش مصنوعی هستیم.

انتهای پیام

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.