هوش مصنوعی در سالهای اخیر پیشرفتهای چشمگیری داشته، اما هنوز از یکی از مهمترین جنبههای انسانی یعنی اخلاق فاصله زیادی دارد. شرکت OpenAI با راهاندازی پروژهای تحقیقاتی و اختصاص بودجه به دانشگاهها، قصد دارد گامی در راستای توسعه هوش مصنوعی اخلاقمدار بردارد. هدف این پروژه، ساخت الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسانها را پیشبینی کنند.
پروژه اخلاق هوش مصنوعی:
OpenAI از پروژهای تحت عنوان “Research AI Morality” در دانشگاه دوک حمایت مالی میکند. این پروژه که توسط والتر سینوت-آرمسترانگ، استاد اخلاق عملی، و یانا بورگ، محقق اخلاق و هوش مصنوعی، رهبری میشود، در تلاش است تا مفهوم اخلاق را در هوش مصنوعی عملیاتی کند.
- بودجه: این پروژه بخشی از کمک مالی سهساله OpenAI به ارزش یک میلیون دلار است که تا سال ۲۰۲۵ ادامه خواهد داشت.
- هدف: آموزش الگوریتمها برای پیشبینی قضاوتهای اخلاقی انسان در حوزههایی مانند پزشکی، حقوق، و تجارت، بهویژه در سناریوهایی که تضادهای اخلاقی وجود دارد.
اخلاق در هوش مصنوعی؛ چالشها و محدودیتها
اخلاق مفهومی پیچیده و چندبعدی است که نهتنها تحت تأثیر عوامل فرهنگی و اجتماعی قرار دارد، بلکه بهشدت به شرایط و موقعیت بستگی دارد. این مسئله توسعه الگوریتمهای اخلاقمدار را به چالشی بزرگ تبدیل کرده است.
- پیچیدگی مفهوم اخلاق: فلاسفه هزاران سال است که درباره نظریههای مختلف اخلاقی بحث میکنند و هنوز چارچوبی جهانی برای آن ارائه نشده است. به عنوان مثال، رویکردهای اخلاقی متفاوتی مانند کانتی (قوانین مطلق اخلاقی) و فایدهگرایی (بیشترین خیر برای بیشترین تعداد افراد) وجود دارد که هر کدام مزایا و معایب خود را دارند.
- محدودیت مدلهای هوش مصنوعی: هوش مصنوعی نمیتواند مفاهیم اخلاقی را «درک» کند و تنها بر اساس الگوهای آماری آموزش دیده از دادههای موجود در وب عمل میکند. این موضوع باعث میشود تصمیمات آن بازتابی از ارزشهای کشورهای غربی و صنعتی باشد، که دادههایشان بیشتر در دسترس است.
- نمونههای شکست: ابزارهایی مانند Ask Delphi نشان دادند که هوش مصنوعی فعلی حتی در مسائل ساده اخلاقی هم گاهی اشتباه میکند. به عنوان مثال، این ابزار در مواجهه با تغییرات جزئی در فرمولبندی سؤالها، قضاوتهای متناقض ارائه میداد.
آیا اخلاق قابل آموزش به هوش مصنوعی است؟
والتر سینوت-آرمسترانگ و تیم تحقیقاتیاش تاکنون مطالعاتی در زمینه الگوریتمهای اخلاقی انجام دادهاند. این تیم الگوریتمی طراحی کردهاند که میتواند تصمیم بگیرد چه کسی باید اهدای کلیه دریافت کند. همچنین، آنها بررسی کردهاند که در چه سناریوهایی مردم ترجیح میدهند هوش مصنوعی تصمیمات اخلاقی بگیرد.
پروژه OpenAI نیز قصد دارد این تلاشها را ادامه دهد و الگوریتمهایی ایجاد کند که بتوانند اخلاق انسانی را در تصمیمگیریهای پیچیده بازتاب دهند. با این حال، ساخت چنین الگوریتمی به دلیل ذهنیتپذیری اخلاق، چالشی بسیار دشوار است. حتی بین مدلهای هوش مصنوعی موجود نیز تفاوتهایی در رویکردهای اخلاقی مشاهده میشود. به عنوان مثال:
- Claude تمایل به قوانین مطلق اخلاقی (رویکرد کانتی) دارد.
- ChatGPT بیشتر به فایدهگرایی نزدیک است.
چشمانداز آینده:
OpenAI با سرمایهگذاری در این پروژه به دنبال ایجاد الگوریتمهایی است که بتوانند بهعنوان یک راهنمای اخلاقی (Moral GPS) به انسانها کمک کنند تصمیمات بهتری بگیرند. این تلاشها، اگرچه با چالشهای زیادی روبهرو هستند، اما میتوانند مسیر توسعه هوش مصنوعی مسئولیتپذیر و اخلاقمدار را هموار کنند.
- آیا هوش مصنوعی میتواند به درک اخلاق انسانی برسد؟ این سؤالی است که OpenAI و محققان دانشگاه دوک به دنبال پاسخ آن هستند. اگرچه راه طولانی در پیش است، اما نتایج این تحقیقات میتواند تأثیر عمیقی بر آینده هوش مصنوعی و تصمیمگیریهای اخلاقی در سراسر جهان داشته باشد.