نگاهی تازه به فلسفه پزشکی بیندازید.

آیا هوش مصنوعی می تواند ارزش ها و اخلاق انسانی را توسعه دهد؟ تفاوت یادگیری ماشینی با یادگیری انسانی

واحد ترجمه حلقه فلسفه پزشکی

0

هوش مصنوعی کماکان بسیار متفاوت از خرد انسانی باقی مانده است.
کودکان انسان ( و نه هوش مصنوعی) انگاره ها و باورهای درست و نادرست را به مرور و تدریجی کسب میکنند و اخلاق در این مراحل رشد برمی آید.
کودکان انسان ( و نه هوش مصنوعی) در طمینه و با هدایت والدین و معلمان رخ میدهد.
به موازات انکه ماشین های انسان نما میسازیم باید هوش مصنوعی را از منظر اخلاقی هم تربیت کنیم.

به رغم همه هیاهوی رسانه ای پیرامون هوش مصنوعی (AI)، هوش این ربات های هوشمند بسیار متفاوت از انسان است. هوش مصنوعی ممکن است در حین شبیه‌سازی گفتار مکالمه، حجم بسیار بالای از داده ها را تجلیل کند، اما ربات‌ها هنوز پیچیدگی، تفاوت‌های ظریف و هوش چندگانه ذهن انسان را نشان نمی‌دهند.

ربات‌های هوش مصنوعی می‌توانند شطرنج بازی کنند، اما هنوز نمی‌توانند واقعاً احساس خود را در برد یا باخت بیان کنند. گفتگوهای شبیه سازی شده با عبارات مبتنی بر الگوریتم و دستور زبان به ربات های چت ظرفیت بینش یا همدلی انسانی را نمی دهد . شاید به همین دلیل است که برخی از افراد از هوش مصنوعی می ترسند یا حداقل به نظر می رسد مطمئن نیستند که آیا هوش مصنوعی ما را نجات می دهد یا نابود می کند.

مراحل رشد در انسانها توسط دیگران هدایت می شود.

برای القای ارزش ها و اخلاق در هوش مصنوعی، برنامه نویسان ممکن است سعی کنند از روشی که کودکان یاد می گیرند و مفاهیم درست و غلط را توسعه می دهند، تقلید کنند. به نظر می رسد تفکر کودکان در مراحلی ظاهر می شود و گاهی اوقات دچار جهش های ذهنی و جهش های رشد قابل توجهی می شود. سالها طول می کشد تا کودکان تفکر بزرگسالان، هوش هیجانی ، نظریه ذهن و فراشناخت را تکامل دهند .

مهم‌تر از همه، انسان‌ها در بستر والدین، معلمان، همسالان و دیگرانی که رفتارهای کمکی خود را با سطح و ظرفیت هر کودک تنظیم می‌کنند، یاد می‌گیرند (داربست). آیا حتی باید انتظار داشته باشیم که هوش مصنوعی مانند یک انسان فکر کند یا زمانی که آنها برای یادگیری تدریجی، مرحله‌ای و با راهنمایی انسان برنامه‌ریزی نشده‌اند، روزی همدلی نشان دهد؟ آیا می‌توانیم انتظار داشته باشیم که هوش مصنوعی ارزش‌ها، همدلی یا اخلاقیات را بیاموزد، مگر اینکه ربات‌ها به دقت توسط دیگران هدایت شوند تا مانند کودکان انسان درباره «درست در مقابل اشتباه» فکر کنند؟

علاوه بر این، انسان ها دارای کنجکاوی طبیعی منحصر به فردی هستند. کودکان به طور مداوم مشتاق دانستن بیشتر هستند و در تلاش برای کشف و درک جهان و خود هستند. بنابراین، برنامه‌ریزی ساده ماشین‌ها برای یادگیری کافی نیست. ما همچنین باید به هوش مصنوعی یک کنجکاوی ذاتی داشته باشیم – نه فقط گرسنگی داده، بلکه چیزی شبیه به انگیزه بیولوژیکی کودک انسان برای درک، سازماندهی و سازگاری. برنامه نویسان در حال حاضر با مدل های یادگیری عمیق کار می کنند تا به طور مداوم هوش مصنوعی را با الگوریتم های الهام گرفته از عصب شناختی انسان بهبود بخشند.(۱)

اگر ماشین‌های هوش مصنوعی می‌خواهند اخلاق، همدلی، وجدان یا ارزش‌های اخلاقی داشته باشند، باید خودشان به موجوداتی اخلاقی با عملکرد بالا تبدیل شوند. همدلی، مهربانی و شفقت از کجا می آید؟ آیا به صورت فطری است؟ به احتمال زیاد ارزش ها و اخلاقیات خود را از طریق تجربه زندگی به دست آورده اید. شاید هوش مصنوعی باید از طریق تجربه و راهنمایی تدریجی، بیشتر به روشی که انسان ها انجام می دهند، به استدلال اخلاقی بالاتری برسند؟

برای ایجاد هوش مصنوعی اخلاقی، یادگیرندگان ماشینی باید به تدریج و در مراحلی رشد کنند، به طوری که بزرگسالان و اخلاق شناسان هوش مصنوعی را به همان صورتی که والدین یا معلم تکامل اخلاقی کودک را هدایت می کنند، هدایت کنند. این زمان می برد. نسل بعدی هوش مصنوعی به آموزش فراتر از زبان شناسی و ترکیب داده ها نیاز دارد. ما باید به هوش مصنوعی آموزش دهیم که از قواعد کلمات و نحو فراتر رود، به طوری که نسل بعدی هوش مصنوعی درست و غلط را یاد بگیرد. شاید با قوانین روباتیک آسیموف شروع کنیم: «یک روبات (یا هوش مصنوعی) ممکن است به بشریت آسیب نرساند، یا با انفعال، اجازه آسیب رساندن به بشریت را ندهد.»(۲) آیا می‌توانیم هوش مصنوعی ایجاد کنیم که بتواند برای خودش فکر کند، فراتر از اطاعت. قوانین؟

آیا می توانیم یک هوش مصنوعی «پسا متعارف» را برنامه ریزی کنیم؟ آیا ما می خواهیم؟

وقتی انسان ها بالغ می شوند، استدلال اخلاقی «بزرگسالان» سطح بالاتری را توسعه می دهند. روانشناس لارنس کولبرگ از بالاترین سطح به عنوان تفکر «پسا متعارف» یاد می کند. (۳) ایده این است که استدلال اخلاقی پیشرفته می تواند با فراتر رفتن از پایبندی صرف به قوانین محلی به کشف اصول اخلاقی جهانی برای زندگی کردن دست بزند.

سوال این است: آیا ما می‌خواهیم هوش مصنوعی به متفکرانی حساس، فرامتعارف و مستقل تبدیل شود که قادر به فراتر رفتن از قوانین باشند؟ این یک فکر ترسناک است. همانطور که ما در تلاش برای ایجاد ماشین‌های پیچیده‌تر و شبیه به انسان هستیم، باید در نظر داشته باشیم که چگونه برنامه‌نویسان آینده سطح بعدی هوش مصنوعی را برای داشتن هوش هیجانی، همدلی و تفکر و رفتار اخلاقی ایجاد خواهند کرد.

منابع

(۱) A guide to machine learning algorithms and their applications https://www.sas.com/en_gb/insights/articles/analytics/machine-learning-…

(۲) Asimov, Isaac (1950). “Runaround”. in I, Robot (The Isaac Asimov Collection). New York City: Doubleday. ISBN 978-0-385-42304-5.

(۳) Kohlberg, Lawrence, 1927-1987. (1981). The philosophy of moral development: moral stages and the idea of justice. San Francisco: Harper & Row

Kohlberg, L. (1976). Moral stages and moralization: The cognitive-developmental approach. In T. Lickona (Ed.), Moral development and behavior. New York: Holt, Rinehart, & Winston.

See also: Walrath, R. (2011). Kohlberg’s Theory of Moral Development. In: Goldstein, S., Naglieri, J.A. (eds) Encyclopedia of Child Behavior and Development. Springer, Boston, MA. https://doi.org/10.1007/978-0-387-79061-9_1595

منبع یادداشت Jeffrey N Pickens در سایت psychology today

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.