گوگل مدل AI با قابلیت شناسایی احساسات معرفی کرد

گوگل به تازگی از مدل جدید هوش مصنوعی خود با نام PaliGemma 2 رونمایی کرده که ویژگی جالبی دارد: قابلیت شناسایی احساسات افراد از طریق تصاویر. این مدل، که بخشی از مجموعه مدل‌های Gemma است، می‌تواند تصاویر را تحلیل کند و توضیحاتی دقیق و مرتبط با زمینه، از جمله شناسایی احساسات، اعمال و داستان کلی موجود در تصویر، ارائه دهد. گوگل توضیح داده که PaliGemma 2 توانایی فراتر از شناسایی اشیاء را دارد و می‌تواند احساسات افراد و حتی روایات عاطفی موجود در تصاویر را نیز تحلیل کند.

این قابلیت به طور خاص به دقت و جزئیات در شناسایی احساسات افراد اشاره دارد، اما گوگل تأکید کرده که این قابلیت نیاز به تنظیمات ویژه و «فاین‌تیونینگ» دارد. این موضوع باعث نگرانی‌های گسترده‌ای شده است چرا که بسیاری از کارشناسان بر این باورند که شناسایی دقیق احساسات انسان‌ها از طریق تکنولوژی‌های مبتنی بر تصویر، نه تنها امکان‌پذیر نیست بلکه می‌تواند منجر به سوء‌تفاهم و تبعیض‌های نادرست شود.

چالش‌های شناسایی احساسات توسط هوش مصنوعی

در طول سال‌ها، شرکت‌های مختلف از جمله استارتاپ‌ها و غول‌های فناوری، تلاش کرده‌اند هوش مصنوعی را برای شناسایی احساسات انسان‌ها توسعه دهند، با این هدف که از آن در کاربردهایی همچون آموزش فروش و جلوگیری از حوادث استفاده کنند. اما به گفته متخصصان، این نوع شناسایی احساسات بر مبنای علوم ضعیف و غیرقطعی است. یکی از پایه‌گذاران این تحقیق‌ها، روان‌شناس پل اکه‌من است که معتقد بود انسان‌ها شش احساس اصلی مشترک دارند: خشم، شگفتی، تنفر، لذت، ترس و غم. اما تحقیقات بعدی نشان داده است که این فرضیه به‌طور کامل نادرست است و راه‌های مختلفی برای ابراز احساسات در فرهنگ‌های مختلف وجود دارد.

مایک کوک، محقق هوش مصنوعی در کالج کینگز لندن، تأکید کرده است که شناسایی احساسات در بیشتر موارد امکان‌پذیر نیست، زیرا احساسات انسان‌ها به‌طور پیچیده‌ای تجربه می‌شوند. همچنین، هوش مصنوعی تنها می‌تواند نشانه‌های عمومی احساسات را شناسایی کند و نمی‌تواند همیشه به‌طور قطعی درک کند که یک فرد واقعاً چه احساسی دارد.

مسائل اخلاقی و تبعیض‌های احتمالی

یکی از بزرگ‌ترین نگرانی‌ها درباره PaliGemma 2 این است که سیستم‌های شناسایی احساسات ممکن است تحت تأثیر تعصبات طراحی‌کنندگان خود قرار بگیرند. به‌عنوان مثال، مطالعات نشان داده‌اند که مدل‌های تحلیل چهره ممکن است ترجیحات غیرمستقیمی برای برخی از حالات صورت، مانند لبخند، داشته باشند. علاوه بر این، تحقیقاتی که در سال ۲۰۲۰ توسط MIT انجام شد نشان داد که مدل‌های تحلیلی صورت ممکن است احساسات منفی بیشتری به چهره‌های افراد سیاه‌پوست نسبت به چهره‌های سفیدپوست نسبت دهند.

گوگل ادعا کرده که آزمایش‌های گسترده‌ای برای ارزیابی تعصبات جمعیتی در PaliGemma 2 انجام داده و نتایج نشان‌دهنده “سطوح پایین سم و توهین” در مقایسه با معیارهای صنعتی است. اما منتقدان همچنان به محدودیت‌های این آزمایش‌ها و معیارهای استفاده‌شده انتقاد دارند. برخی از پژوهشگران هم به نقد معیار FairFace پرداخته‌اند که تنها به تعدادی گروه نژادی محدود است و نمی‌تواند به‌طور دقیق تعصبات جمعیتی را شبیه‌سازی کند.

پیامدهای اجتماعی و قوانین نظارتی

شناسایی احساسات توسط هوش مصنوعی نگرانی‌های زیادی را در سطح جهانی ایجاد کرده است، به‌ویژه در مورد استفاده‌های آن در موقعیت‌های حساس مانند نظارت بر رفتار کارمندان یا در فرآیندهای تصمیم‌گیری نژادی و اجتماعی. برای مثال، در اتحادیه اروپا، قانون هوش مصنوعی، استفاده از این فناوری را در مدارس و محل‌های کاری محدود کرده است، در حالی که استفاده از آن در نهادهای امنیتی هنوز مجاز است.

از سوی دیگر، بسیاری از کارشناسان نگران سوءاستفاده و استفاده نادرست از مدل‌هایی مانند PaliGemma 2 هستند. هیدی خلاق، دانشمند ارشد هوش مصنوعی در موسسه AI Now، اشاره کرده که اگر این فناوری بر مبنای پیش‌فرض‌های شبه‌علمی ساخته شود، می‌تواند باعث تبعیض علیه گروه‌های حاشیه‌ای مانند اقلیت‌ها شود. چنین مدل‌هایی ممکن است در زمینه‌هایی مانند اجرای قانون، منابع انسانی و سیاست‌های مرزی به مشکلات جدی منجر شوند.

پاسخ گوگل و نگرانی‌های ادامه‌دار

گوگل در واکنش به نگرانی‌ها از آزمایش‌های خود برای ارزیابی “آسیب‌های نمایشی” و ایمنی مدل‌های PaliGemma 2 دفاع کرده و اعلام کرده که این آزمایش‌ها شامل ارزیابی‌های ایمنی کودک و امنیت محتوا بوده است. با این حال، کارشناسان همچنان تردید دارند که این اقدامات کافی باشد. ساندرا واچر، استاد اخلاق داده‌ها در دانشگاه آکسفورد، بر این باور است که نوآوری مسئولانه باید از روز اول در نظر گرفته شود و به‌طور مداوم از مرحله توسعه تا مرحله پیاده‌سازی در نظر گرفته شود تا از پیامدهای ناخواسته آن جلوگیری شود.

این تحولات در زمینه شناسایی احساسات توسط هوش مصنوعی هشدارهایی را در پی دارد که نیازمند بررسی دقیق و مسئولانه در استفاده از چنین فناوری‌هایی در دنیای واقعی است.

اشتراک گذاری

پیمایش به بالا