گوگل به تازگی از مدل جدید هوش مصنوعی خود با نام PaliGemma 2 رونمایی کرده که ویژگی جالبی دارد: قابلیت شناسایی احساسات افراد از طریق تصاویر. این مدل، که بخشی از مجموعه مدلهای Gemma است، میتواند تصاویر را تحلیل کند و توضیحاتی دقیق و مرتبط با زمینه، از جمله شناسایی احساسات، اعمال و داستان کلی موجود در تصویر، ارائه دهد. گوگل توضیح داده که PaliGemma 2 توانایی فراتر از شناسایی اشیاء را دارد و میتواند احساسات افراد و حتی روایات عاطفی موجود در تصاویر را نیز تحلیل کند.
این قابلیت به طور خاص به دقت و جزئیات در شناسایی احساسات افراد اشاره دارد، اما گوگل تأکید کرده که این قابلیت نیاز به تنظیمات ویژه و «فاینتیونینگ» دارد. این موضوع باعث نگرانیهای گستردهای شده است چرا که بسیاری از کارشناسان بر این باورند که شناسایی دقیق احساسات انسانها از طریق تکنولوژیهای مبتنی بر تصویر، نه تنها امکانپذیر نیست بلکه میتواند منجر به سوءتفاهم و تبعیضهای نادرست شود.
چالشهای شناسایی احساسات توسط هوش مصنوعی
در طول سالها، شرکتهای مختلف از جمله استارتاپها و غولهای فناوری، تلاش کردهاند هوش مصنوعی را برای شناسایی احساسات انسانها توسعه دهند، با این هدف که از آن در کاربردهایی همچون آموزش فروش و جلوگیری از حوادث استفاده کنند. اما به گفته متخصصان، این نوع شناسایی احساسات بر مبنای علوم ضعیف و غیرقطعی است. یکی از پایهگذاران این تحقیقها، روانشناس پل اکهمن است که معتقد بود انسانها شش احساس اصلی مشترک دارند: خشم، شگفتی، تنفر، لذت، ترس و غم. اما تحقیقات بعدی نشان داده است که این فرضیه بهطور کامل نادرست است و راههای مختلفی برای ابراز احساسات در فرهنگهای مختلف وجود دارد.
مایک کوک، محقق هوش مصنوعی در کالج کینگز لندن، تأکید کرده است که شناسایی احساسات در بیشتر موارد امکانپذیر نیست، زیرا احساسات انسانها بهطور پیچیدهای تجربه میشوند. همچنین، هوش مصنوعی تنها میتواند نشانههای عمومی احساسات را شناسایی کند و نمیتواند همیشه بهطور قطعی درک کند که یک فرد واقعاً چه احساسی دارد.
مسائل اخلاقی و تبعیضهای احتمالی
یکی از بزرگترین نگرانیها درباره PaliGemma 2 این است که سیستمهای شناسایی احساسات ممکن است تحت تأثیر تعصبات طراحیکنندگان خود قرار بگیرند. بهعنوان مثال، مطالعات نشان دادهاند که مدلهای تحلیل چهره ممکن است ترجیحات غیرمستقیمی برای برخی از حالات صورت، مانند لبخند، داشته باشند. علاوه بر این، تحقیقاتی که در سال ۲۰۲۰ توسط MIT انجام شد نشان داد که مدلهای تحلیلی صورت ممکن است احساسات منفی بیشتری به چهرههای افراد سیاهپوست نسبت به چهرههای سفیدپوست نسبت دهند.
گوگل ادعا کرده که آزمایشهای گستردهای برای ارزیابی تعصبات جمعیتی در PaliGemma 2 انجام داده و نتایج نشاندهنده “سطوح پایین سم و توهین” در مقایسه با معیارهای صنعتی است. اما منتقدان همچنان به محدودیتهای این آزمایشها و معیارهای استفادهشده انتقاد دارند. برخی از پژوهشگران هم به نقد معیار FairFace پرداختهاند که تنها به تعدادی گروه نژادی محدود است و نمیتواند بهطور دقیق تعصبات جمعیتی را شبیهسازی کند.
پیامدهای اجتماعی و قوانین نظارتی
شناسایی احساسات توسط هوش مصنوعی نگرانیهای زیادی را در سطح جهانی ایجاد کرده است، بهویژه در مورد استفادههای آن در موقعیتهای حساس مانند نظارت بر رفتار کارمندان یا در فرآیندهای تصمیمگیری نژادی و اجتماعی. برای مثال، در اتحادیه اروپا، قانون هوش مصنوعی، استفاده از این فناوری را در مدارس و محلهای کاری محدود کرده است، در حالی که استفاده از آن در نهادهای امنیتی هنوز مجاز است.
از سوی دیگر، بسیاری از کارشناسان نگران سوءاستفاده و استفاده نادرست از مدلهایی مانند PaliGemma 2 هستند. هیدی خلاق، دانشمند ارشد هوش مصنوعی در موسسه AI Now، اشاره کرده که اگر این فناوری بر مبنای پیشفرضهای شبهعلمی ساخته شود، میتواند باعث تبعیض علیه گروههای حاشیهای مانند اقلیتها شود. چنین مدلهایی ممکن است در زمینههایی مانند اجرای قانون، منابع انسانی و سیاستهای مرزی به مشکلات جدی منجر شوند.
پاسخ گوگل و نگرانیهای ادامهدار
گوگل در واکنش به نگرانیها از آزمایشهای خود برای ارزیابی “آسیبهای نمایشی” و ایمنی مدلهای PaliGemma 2 دفاع کرده و اعلام کرده که این آزمایشها شامل ارزیابیهای ایمنی کودک و امنیت محتوا بوده است. با این حال، کارشناسان همچنان تردید دارند که این اقدامات کافی باشد. ساندرا واچر، استاد اخلاق دادهها در دانشگاه آکسفورد، بر این باور است که نوآوری مسئولانه باید از روز اول در نظر گرفته شود و بهطور مداوم از مرحله توسعه تا مرحله پیادهسازی در نظر گرفته شود تا از پیامدهای ناخواسته آن جلوگیری شود.
این تحولات در زمینه شناسایی احساسات توسط هوش مصنوعی هشدارهایی را در پی دارد که نیازمند بررسی دقیق و مسئولانه در استفاده از چنین فناوریهایی در دنیای واقعی است.