نگاهی تازه به فلسفه پزشکی بیندازید.

بورسیه فلسفه هوش مصنوعی در CAIS

واحد خبر حلقۀ فلسفۀ پزشکی

0

مرکز ایمنی هوش مصنوعی (CAIS – تلفظ شده “مورد”) یک سازمان غیرانتفاعی تحقیقاتی و میدانی مستقر در سانفرانسیسکو است. این سازمان بر این باور است که هوش مصنوعی (AI) این ظرفیت بالقوه را دارد که عمیقاً برای جهان مفید باشد، مشروط بر اینکه بتوانیم آن را با خیالی آسوده توسعه دهیم و از آن بهره‌برداری کنیم. با این حال، برخلاف پیشرفت چشمگیر در هوش مصنوعی، بسیاری از مشکلات اساسی در ایمنی هوش مصنوعی هنوز حل نشده اند. ماموریت این سازمان کاهش خطرات مرتبط با هوش مصنوعی در مقیاس اجتماعی با انجام تحقیقات ایمنی، ایجاد زمینه محققان ایمنی هوش مصنوعی و حمایت از استانداردهای ایمنی است. گزارش حاضر اخیرا توسط این سازمان منتشر شده است که در دو بخش در سایت فلسفۀ پزشکی منتشر می شود.

بورس فلسفه هوش مصنوعی به منظور ایضاح و روشن سازی ریسک های هوش های مصنوعی پیشرفته به مدت هفت ماهه است و این محورهای برای پژوهش پیشنهاد شده است:

اجرای تصمیم گیری اخلاقی

چگونه می‌توانیم سیستم‌هایی بسازیم که در مواجهه با دنیایی که به سرعت در حال تغییر است، رفتار اخلاقی بیشتری داشته باشند؟ آیا باید سیستم های پیشرفته هوش مصنوعی را با ارزش های انسانی، نیات انسانی یا فرآیندهای اجتماعی هماهنگ کنیم؟ چگونه می توانیم ذینفعان متعدد و عدم اطمینان اخلاقی را در تصمیم گیری هوش مصنوعی در عمل بگنجانیم؟
چگونه می‌توانیم سیستم‌هایی بسازیم که در مواجهه با دنیایی که به سرعت در حال تغییر است، رفتار اخلاقی بیشتری داشته باشند؟ آیا باید سیستم های پیشرفته هوش مصنوعی را با ارزش های انسانی، نیات انسانی یا فرآیندهای اجتماعی هماهنگ کنیم؟ چگونه می توانیم ذینفعان متعدد و عدم اطمینان اخلاقی را در تصمیم گیری هوش مصنوعی در عمل بگنجانیم؟

ریسک ها، پویایی ها، استراتژی ها

چه فرآیندهایی ممکن است رفتار سیستم های هوش مصنوعی پیشرفته را شکل دهند؟ چگونه توسعه و تکثیر یک سیستم هوش مصنوعی ممکن است به اشتباه پیش برود؟ آیا سیستم‌های هوش مصنوعی پیشرفته می‌توانند خطر وجودی ایجاد کنند؟ چه راهکارهایی برای مقابله با این خطرات وجود دارد؟

تنش در طراحی سیستم های هوش مصنوعی

تنش‌های ذاتی پیرامون توسعه هوش مصنوعی چیست و چگونه این تنش‌ها حل خواهند شد؟ مزایا و معایب سیستم های هوش مصنوعی (غیرمتمرکز) چیست؟ چگونه فشارهای رقابتی سیستم‌های هوش مصنوعی را تضعیف می‌کنند که قدرت گریز یا نوع دوست هستند؟ برای کارگزارانی که وظیفه دارند مجموعه وسیعی از اهداف را دنبال کنند، چگونه می توان از تشویق عوامل برای توسعه تمایلات قدرت جویی اجتناب کرد؟

نقد ادبیات موجود

آیا در مفاهیم، ​​استدلال‌ها، استراتژی‌های موجود در مورد ریسک وجودی هوش مصنوعی نقص‌های اساسی وجود دارد؟ آیا خطراتی وجود دارد که در ادبیات موجود نادیده گرفته شده است؟

 

به نقل از https://philosophy.safe.ai/

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.