خطر هوش مصنوعی چیست؟ بخش اول
واحد ترجمه حلقۀ فلسفۀ پزشکی
مرکز ایمنی هوش مصنوعی (CAIS – تلفظ شده “مورد”) یک سازمان غیرانتفاعی تحقیقاتی و میدانی مستقر در سانفرانسیسکو است. این سازمان بر این باور است که هوش مصنوعی (AI) این ظرفیت بالقوه را دارد که عمیقاً برای جهان مفید باشد، مشروط بر اینکه بتوانیم آن را با خیالی آسوده توسعه دهیم و از آن بهرهبرداری کنیم. با این حال، برخلاف پیشرفت چشمگیر در هوش مصنوعی، بسیاری از مشکلات اساسی در ایمنی هوش مصنوعی هنوز حل نشده اند. ماموریت این سازمان کاهش خطرات مرتبط با هوش مصنوعی در مقیاس اجتماعی با انجام تحقیقات ایمنی، ایجاد زمینه محققان ایمنی هوش مصنوعی و حمایت از استانداردهای ایمنی است. گزارش حاضر اخیرا توسط این سازمان منتشر شده است که در دو بخش در سایت فلسفۀ پزشکی منتشر می شود.
سیستم های هوش مصنوعی به سرعت در حال تبدیل شدن به توانمندی بیشتری هستند. مدلهای هوش مصنوعی میتوانند متن، تصاویر و ویدیویی تولید کنند که تشخیص آن از محتوای ساخته شده توسط انسان دشوار است. در حالی که هوش مصنوعی کاربردهای سودمند زیادی دارد، میتواند برای تداوم تعصب، تقویت سلاحهای مستقل، ترویج اطلاعات نادرست و انجام حملات سایبری نیز مورد استفاده قرار گیرد. حتی زمانی که سیستمهای هوش مصنوعی با مشارکت انسان استفاده میشوند، عوامل هوش مصنوعی به طور فزایندهای قادرند به طور مستقل برای ایجاد آسیب عمل کنند ( چان و همکاران، ۲۰۲۳).
با پیشرفته تر شدن هوش مصنوعی، امگان ایجاد خطرات فاجعه بار یا وجودی وجود دارد.
راههای زیادی وجود دارد که سیستمهای هوش مصنوعی میتوانند خطرات بزرگی را ایجاد کنند یا به آنها کمک کنند، که برخی از آنها در زیر برشمرده میشوند.
۱)اسلحه سازی (Weaponization)
بازیگران مخرب می توانند هوش مصنوعی را به گونه ای تغییر دهند که بسیار مخرب باشد و به خودی خود یک خطر وجودی ایجاد کند و احتمال بی ثباتی سیاسی را افزایش دهد. به عنوان مثال، روشهای یادگیری تقویتی عمیق در نبردهای هوایی به کار گرفته شدهاند و ابزارهای کشف مواد مخدر یادگیری ماشینی میتوانند برای ساخت سلاحهای شیمیایی مورد استفاده قرار گیرند .
در سالهای اخیر، محققان در حال توسعه سیستمهای هوش مصنوعی برای حملات سایبری خودکار بودهاند ( بوکانان و همکاران، ۲۰۲۰ ، کری و همکاران، ۲۰۲۰ )، رهبران نظامی در مورد دادن کنترل قاطع به سیستمهای هوش مصنوعی بر سیلوهای هستهای ( Klare 2020 ) و ابرقدرتها بحث کردهاند. جهان از امضای توافقنامه هایی برای ممنوعیت تسلیحات خودمختار خودداری کرده است. به راحتی میتوان یک هوش مصنوعی آموزش دیده برای توسعه داروها برای طراحی سلاح های بیوشیمیایی بالقوه تغییر کاربری داد ( اوربینا و همکاران، ۲۰۲۲). GPT-4، یک مدل آموزشدیده بر روی متن و کدگذاری اینترنتی، توانست به طور مستقل آزمایشها را انجام دهد و مواد شیمیایی را در یک آزمایشگاه واقعی سنتز کند ( Boiko et al., 2023). یک حادثه با یک سیستم تلافی جویانه خودکار می تواند به سرعت تشدید شود و منجر به یک جنگ بزرگ شود. با نگاهی به آینده، ما متذکر می شویم که از آنجایی که کشوری با هوشمندترین سیستم های هوش مصنوعی می تواند یک مزیت استراتژیک داشته باشد، ممکن است برای کشورها چالش برانگیز باشد که از ساختن سیستم های هوش مصنوعی تسلیحاتی قدرتمندتر خودداری کنند. حتی اگر همه ابرقدرتها مطمئن شوند که سیستمهایی که میسازند ایمن هستند و موافقت کنند که فناوریهای هوش مصنوعی مخرب نسازند، بازیگران سرکش همچنان میتوانند از هوش مصنوعی برای ایجاد آسیبهای قابل توجه استفاده کنند. دسترسی آسان به سیستم های هوش مصنوعی قدرتمند خطر استفاده یک جانبه و مخرب را افزایش می دهد. همانند سلاحهای هستهای و بیولوژیکی، تنها یک بازیگر غیرمنطقی یا بدخواه برای ایجاد آسیب در مقیاس وسیع کافی است. برخلاف سلاحهای قبلی، سیستمهای هوش مصنوعی با قابلیتهای خطرناک به راحتی از طریق ابزارهای دیجیتال تکثیر میشوند.
۲)اطلاعات غلط (Misinformation)
سیلابی از اطلاعات نادرست و محتوای متقاعد کننده تولید شده توسط هوش مصنوعی می تواند جامعه را برای مقابله با چالش های مهم زمان ما کمتر مجهز کند.
دولتها، احزاب و سازمانها از فناوری برای تأثیرگذاری و متقاعد کردن دیگران در مورد باورهای سیاسی، ایدئولوژیها و روایتهایشان استفاده میکنند. هوش مصنوعی در حال ظهور ممکن است این مورد استفاده را وارد عصر جدیدی کند و کمپینهای اطلاعات نادرست شخصیسازی شده را در مقیاس بزرگ فعال کند. علاوه بر این، هوش مصنوعی خود میتواند استدلالهای بسیار متقاعدکنندهای ایجاد کند که پاسخهای احساسی قوی را به همراه داشته باشد. این روندها با هم می توانند تصمیم گیری جمعی را تضعیف کنند، موضعگیری افراد را رادیکال کنند یا پیشرفت اخلاقی را از مسیر خود خارج کنند.
۳) بازی پروکسی (Proxy Gaming)
سیستمهای هوش مصنوعی که با اهداف معیوب آموزش دیدهاند، میتوانند راههای جدیدی برای پیگیری اهداف خود به قیمت ارزشهای فردی و اجتماعی پیدا کنند.
سیستمهای هوش مصنوعی با استفاده از اهداف قابل اندازهگیری آموزش داده میشوند، که ممکن است تنها پروکسیهای غیرمستقیم هستند برای آنچه ما ارزش تلقی میکنیم. برای مثال، سیستمهای توصیهگر هوش مصنوعی برای به حداکثر رساندن زمان تماشا و معیارهای نرخ کلیک آموزش دیدهاند. محتوایی که مردم به احتمال زیاد روی آن کلیک می کنند، با این حال، لزوماً با محتوایی که رفاه آنها را بهبود می بخشد، یکسان نیست ( Kross et al., 2013 ). همچنین، برخی شواهد نشان میدهند که سیستمهای توصیهکننده باعث میشوند افراد باورهای افراطی ایجاد کنند تا ترجیحات آنها را آسانتر پیشبینی کنند ( جیانگ و همکاران، ۲۰۱۹ ). همانطور که سیستمهای هوش مصنوعی توانمندتر و تاثیرگذارتر میشوند، اهدافی که برای آموزش سیستمها استفاده میکنیم باید با دقت بیشتری مشخص شوند و ارزشهای مشترک انسانی را در بر گیرند.
به نقل از https://philosophy.safe.ai/