ما در حباب تکنولوژیک زندگی میکنیم؛ انسان امروزی سایبورگ است
علیرضا منجمی
به گزارش ایسنا، دکتر علیرضا منجمی در وبینار «هوش مصنوعی و ملاحظات اخلاقی آن در نظام سلامت» که توسط مرکز تحقیقات اخلاق و تاریخ پزشکی و با مشارکت کمیسیون ملی یونسکو ایران برگزار شد، گفت: وضعیتهایی که «خودفهمی» ما را از وضعیت انسانی ما به چالش میکشد، جایی است که در آن پرسشهای فلسفی مهم میشود. هوش مصنوعی چنین وضعیتی است و خودفهمی ما را به چالش کشیده است، از این رو در عصر هوش مصنوعی تأمل فلسفی جایگاه رفیعی خواهد داشت.
ما امروز در حباب تکنولوژیک زندگی میکنیم، گفت: ما انسان خالص و طبیعی که در کتاب قانون وجود داشت و با اخلاط چهارگانه میتوانسیتم آن را درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و دیگر تکنولوژیها جزئی از انسان است. به همین دلیل طبابت بدون در نظر گرفتن تکنولوژی امکانپذیر نیست.
وی با بیان اینکه برای بررسی تاثیرات هوش مصنوعی باید بین ریسک و خطر تمایز قائل شد، گفت: وقتی میگوییم چیزی خطرناک است یعنی به ما آسیب میرساند، ولی وقتی میگوییم ریسک دارد یعنی خظرناک است .لی احتمال این هست که به ما سود برساند. از همین رو در ریسک همیشه دو مفهوم احتمال و سودمندی مستتر است.
هوش مصنوعی چه ریسکهایی به همراه دارد؟
دانشیار پژوهشگاه علوم انسانی و مطالعات فرهنگی در مورد ریسکهای هوش مصنوعی خاطر نشان کرد: هوش مصنوعی همواره در حال تغییر است و آنچه تا چند سال پیش هوش مصنوعی خوانده میشد اکنون به موزه پیوسته است از همین رو ریسکهای آن هم متفاوت است. نمونه ای از آخرین ریسکهای هوش مصنوعی را میتوان در گزارش مرکز ایمنی هوش مصنوعی یا Center for AI Safety آمشاهده کرد.
وی در مورد این ریسکها توضیح داد: یکی از این ریسکها این است که احتمال این وجود دارد که هوش مصنوعی به سلاح تبدیل شود و این در حوزه پزشکی اهمیت زیادی دارد. ریسک دیگر این است که هوش مصنوعی اطلاعات غلط به ما بدهد و این از آن جهت اهمیت دارد که این اطلاعات غلط را چگونه باید تشخیص داد و خطا را چه کسی باید اطلاع دهد؟
منجمی با بیان اینکه یکی از خطرات هوش مصنوعی تغییر ارزشها و اهداف است، گفت: سومین خطر هوش مصنوعی آن است که این سیستمها به مرور ارزشها و اهدافی را به ما ارائه کنند و به مرور ارزشها و اهداف ما را تغییر دهند. مثل رفتارهایی که افراد در پلتفرمهای اجتماعی انجام میدهند که خیلی رادیکال است در صورتی که ممکن است در دنیای واقعی افراد رادیکالی نباشند.
وی یکی از خطرات دیگر را تضعیفسازی دانست و گفت: وقتی وظایف را از دوش انسانها برمیداریم، انسانها ناتوان میشوند. مثل دستخط افراد که الان که همه تایپ میکند، به تدریج بدتر شده است. همچنین اینکه دادهها در انحصار چند کمپانی بزرگ است نیز یکی دیگر از خطرات است.
استادیار پژوهشگاه علوم انسانی و مطالعات فرهنگی با بیان اینکه هوش مصنوعی ممکن است اهداف و ارزشهای جدیدی را تولید کند، گفت: تکنولوژی چند ویژگی دارد. تکنولوژی بیقرار است و خودکار است و هیچ راهی وجود ندارد که بتوان متوقفش کرد ولی این به آن معنی نیست که ارزشهای تکنولوژی را بپذیریم. فریبکاری و خطرهای قدرت طلبانه نیز از دیگر خطرات این تکنولوژی هستند.
ما در حباب تکنولوژیک زندگی میکنیم
منجمی، مواجهه تکنولوژی و پزشکی را بسیار با اهمیت دانست و گفت: ما انسان خالص و طبیعی که در طب اخلاطی وجود داشت و با نظریۀ اخلاط چهارگانه میتوانسیتم بیماری های او را تشخیص دهیم و درمان کنیم، نیستیم. انسان امروز سایبورگ است و موبایل و اینترنت و سایر تکنولوژیها جزئی از انسان است. به همین دلیل طبابت بدون در نظر گرفتن تکنولوژی امکانپذیر نیست.
وی با بیان اینکه با وجود هوش مصنوعی مسائل و مفاهیم کلیدی فلسفۀ پزشکی باید مورد بازاندیشی قرار گیرند: در مورد مسائلی مثل تعریف سلامت و بیماری باید مجدد فکر کنیم. اگر قرار است به سمت پزشکی شخصی برویم، تعریف بیماری و سلامت تغییر میکند. «طبیعی» خیلی معنا پیدا نمیکند، چرا که ما در حباب تکنولوژیک زندگی میکنیم. موضوع استفاده از هوش مصنوعی رابطه پزشک و بیمار را نیز تغییر میدهد. معنی زیست ما را تغییر میدهد و درک ما را از بدن تغییر میدهد.
وی افزود: بخشی از مشکلات مربوط به مسائل حقوقی و اخلاقی است که دچار تغییر میشود. در مورد استدلالهای پزشکی، در مورد تبیین و علیت مجدد باید فکر کرد.
منجمی با اشاره به اینکه همبستگی نمیتواند نشاندهنده علیت باشد، گفت: اگر در پس پشت جمع آوری داده ها فرضیهای، تحلیل یافتهها هیچ معنایی ندارد. فلسفه علم به ما آموخته است که مشاهده ها نظریه بار هستند و برای تحلیل یافتهها نیاز به چارچوب و الگو است. نباید مقهور حجم زیاد داده ها شویم.
برای فهم هوش مصنوعی در سلامت نیازمند تعامل فلسفه پزشکی و فلسفه تکنولوژی هستیم.
وی خاطر نشان کرد: سواد تکنولوژی اهمیت زیادی دارد که همه شهروندان، پزشکان و سیاستگذاران نیاز است آن را بدانند و فهم عام از تکنولوژی و ارزیابی نقادانه تکنولوژی بسیار مهم است. اینکه میگویند تکنولوژی یک ابزار است که میتوان از آن استفاده خوب یا بد کرد، تلقی بسیار سطحی و خام اندیشانه ای است. در مورد هوش مصنوعی اینگونه نیست. برای مثال سازندگان دارو متعهد به تولید دارو هستند و در مورد عوارض و نحوه مصرف و … در راهنمای دارو نکاتی وجود دارد. ولی مثلاً نور آبی موبایل باعث بیخوابی میشود، اما در کدام دفترچه موبایل چنین چیزی نوشته شده است؟ این تعهد نسبت به طراحی و ساخت تکنولوژی باید در هوش مصنوعی لحاظ گردد.
از سوی دیگر هوش مصنوعی نیاز به رصد دائم دارد که مسلما فعالیتی چندرشته ای و میان رشته ای است و نیازمند مشارکت پزشکان، مهندسان و فیلسوفان است. از سوی دیگر ما نیازمند چارچوبهای نظری و مفهومی جدیدی برای مواجهه و فهم هوش مصنوعی هستیم.
انتهای پیام