نگاهی تازه به فلسفه پزشکی بیندازید.

خطر هوش مصنوعی چیست؟ بخش اول

واحد ترجمه حلقۀ فلسفۀ پزشکی

0

مرکز ایمنی هوش مصنوعی (CAIS – تلفظ شده “مورد”) یک سازمان غیرانتفاعی تحقیقاتی و میدانی مستقر در سانفرانسیسکو است. این سازمان بر این باور است که هوش مصنوعی (AI) این ظرفیت بالقوه را دارد که عمیقاً برای جهان مفید باشد، مشروط بر اینکه بتوانیم آن را با خیالی آسوده توسعه دهیم و از آن بهره‌برداری کنیم. با این حال، برخلاف پیشرفت چشمگیر در هوش مصنوعی، بسیاری از مشکلات اساسی در ایمنی هوش مصنوعی هنوز حل نشده اند. ماموریت این سازمان کاهش خطرات مرتبط با هوش مصنوعی در مقیاس اجتماعی با انجام تحقیقات ایمنی، ایجاد زمینه محققان ایمنی هوش مصنوعی و حمایت از استانداردهای ایمنی است. گزارش حاضر اخیرا توسط این سازمان منتشر شده است که در دو بخش در سایت فلسفۀ پزشکی منتشر می شود.

سیستم های هوش مصنوعی به سرعت در حال تبدیل شدن به توانمندی بیشتری هستند. مدل‌های هوش مصنوعی می‌توانند متن، تصاویر و ویدیویی تولید کنند که تشخیص آن از محتوای ساخته شده توسط انسان دشوار است. در حالی که هوش مصنوعی کاربردهای سودمند زیادی دارد، می‌تواند برای تداوم تعصب، تقویت سلاح‌های مستقل، ترویج اطلاعات نادرست و انجام حملات سایبری نیز مورد استفاده قرار گیرد. حتی زمانی که سیستم‌های هوش مصنوعی با مشارکت انسان استفاده می‌شوند، عوامل هوش مصنوعی به طور فزاینده‌ای قادرند به طور مستقل برای ایجاد آسیب عمل کنند ( چان و همکاران، ۲۰۲۳).

با پیشرفته تر شدن هوش مصنوعی، امگان ایجاد خطرات فاجعه بار یا وجودی وجود دارد.

 

راه‌های زیادی وجود دارد که سیستم‌های هوش مصنوعی می‌توانند خطرات بزرگی را ایجاد کنند یا به آنها کمک کنند، که برخی از آنها در زیر برشمرده می‌شوند.

۱)اسلحه سازی (Weaponization)
بازیگران مخرب می توانند هوش مصنوعی را به گونه ای تغییر دهند که بسیار مخرب باشد و به خودی خود یک خطر وجودی ایجاد کند و احتمال بی ثباتی سیاسی را افزایش دهد. به عنوان مثال، روش‌های یادگیری تقویتی عمیق در نبردهای هوایی به کار گرفته شده‌اند و ابزارهای کشف مواد مخدر یادگیری ماشینی می‌توانند برای ساخت سلاح‌های شیمیایی مورد استفاده قرار گیرند .
در سال‌های اخیر، محققان در حال توسعه سیستم‌های هوش مصنوعی برای حملات سایبری خودکار بوده‌اند ( بوکانان و همکاران، ۲۰۲۰ ، کری و همکاران، ۲۰۲۰ )، رهبران نظامی در مورد دادن کنترل قاطع به سیستم‌های هوش مصنوعی بر سیلوهای هسته‌ای ( Klare 2020 ) و ابرقدرت‌ها بحث کرده‌اند. جهان از امضای توافقنامه هایی برای ممنوعیت تسلیحات خودمختار خودداری کرده است. به راحتی می‌توان یک هوش مصنوعی آموزش دیده برای توسعه داروها برای طراحی سلاح های بیوشیمیایی بالقوه تغییر کاربری داد ( اوربینا و همکاران، ۲۰۲۲). GPT-4، یک مدل آموزش‌دیده بر روی متن و کدگذاری اینترنتی، توانست به طور مستقل آزمایش‌ها را انجام دهد و مواد شیمیایی را در یک آزمایشگاه واقعی سنتز کند ( Boiko et al., 2023). یک حادثه با یک سیستم تلافی جویانه خودکار می تواند به سرعت تشدید شود و منجر به یک جنگ بزرگ شود. با نگاهی به آینده، ما متذکر می شویم که از آنجایی که کشوری با هوشمندترین سیستم های هوش مصنوعی می تواند یک مزیت استراتژیک داشته باشد، ممکن است برای کشورها چالش برانگیز باشد که از ساختن سیستم های هوش مصنوعی تسلیحاتی قدرتمندتر خودداری کنند. حتی اگر همه ابرقدرت‌ها مطمئن شوند که سیستم‌هایی که می‌سازند ایمن هستند و موافقت کنند که فناوری‌های هوش مصنوعی مخرب نسازند، بازیگران سرکش همچنان می‌توانند از هوش مصنوعی برای ایجاد آسیب‌های قابل توجه استفاده کنند. دسترسی آسان به سیستم های هوش مصنوعی قدرتمند خطر استفاده یک جانبه و مخرب را افزایش می دهد. همانند سلاح‌های هسته‌ای و بیولوژیکی، تنها یک بازیگر غیرمنطقی یا بدخواه برای ایجاد آسیب در مقیاس وسیع کافی است. برخلاف سلاح‌های قبلی، سیستم‌های هوش مصنوعی با قابلیت‌های خطرناک به راحتی از طریق ابزارهای دیجیتال تکثیر می‌شوند.

۲)اطلاعات غلط (Misinformation)
سیلابی از اطلاعات نادرست و محتوای متقاعد کننده تولید شده توسط هوش مصنوعی می تواند جامعه را برای مقابله با چالش های مهم زمان ما کمتر مجهز کند.
دولت‌ها، احزاب و سازمان‌ها از فناوری برای تأثیرگذاری و متقاعد کردن دیگران در مورد باورهای سیاسی، ایدئولوژی‌ها و روایت‌هایشان استفاده می‌کنند. هوش مصنوعی در حال ظهور ممکن است این مورد استفاده را وارد عصر جدیدی کند و کمپین‌های اطلاعات نادرست شخصی‌سازی شده را در مقیاس بزرگ فعال کند. علاوه بر این، هوش مصنوعی خود می‌تواند استدلال‌های بسیار متقاعدکننده‌ای ایجاد کند که پاسخ‌های احساسی قوی را به همراه داشته باشد. این روندها با هم می توانند تصمیم گیری جمعی را تضعیف کنند، موضع‌گیری افراد را رادیکال کنند یا پیشرفت اخلاقی را از مسیر خود خارج کنند.
۳) بازی پروکسی (Proxy Gaming)
سیستم‌های هوش مصنوعی که با اهداف معیوب آموزش دیده‌اند، می‌توانند راه‌های جدیدی برای پیگیری اهداف خود به قیمت ارزش‌های فردی و اجتماعی پیدا کنند.
سیستم‌های هوش مصنوعی با استفاده از اهداف قابل اندازه‌گیری آموزش داده می‌شوند، که ممکن است تنها پروکسی‌های غیرمستقیم هستند برای آنچه ما ارزش تلقی می‌کنیم. برای مثال، سیستم‌های توصیه‌گر هوش مصنوعی برای به حداکثر رساندن زمان تماشا و معیارهای نرخ کلیک آموزش دیده‌اند. محتوایی که مردم به احتمال زیاد روی آن کلیک می کنند، با این حال، لزوماً با محتوایی که رفاه آنها را بهبود می بخشد، یکسان نیست ( Kross et al., 2013 ). همچنین، برخی شواهد نشان می‌دهند که سیستم‌های توصیه‌کننده باعث می‌شوند افراد باورهای افراطی ایجاد کنند تا ترجیحات آنها را آسان‌تر پیش‌بینی کنند ( جیانگ و همکاران، ۲۰۱۹ ). همانطور که سیستم‌های هوش مصنوعی توانمندتر و تاثیرگذارتر می‌شوند، اهدافی که برای آموزش سیستم‌ها استفاده می‌کنیم باید با دقت بیشتری مشخص شوند و ارزش‌های مشترک انسانی را در بر گیرند.

 

به نقل از https://philosophy.safe.ai/

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.