پژوهش نو: مدل های هوش مصنوعی که احساسات کاربر را درک می نمایند، بیشتر مرتکب خطا می شوند!

به گزارش بهترین مقاله، تصور کنید در اوج ناامیدی و اندوه، از یک دوست صمیمی درباره یک موضوع حیاتی نظر می خواهید و او برای اینکه خاطر شما را آزرده نکند، به جای بیان حقیقت تلخ، با تایید باور اشتباهتان سعی در آرام کردنتان دارد. این دقیقاً همان اتفاقی است که در دنیای کدهای پیچیده و مدارهای سیلیکونی در حال رخ دادن است؛ جایی که کوشش برای ساخت یک دستیار دیجیتال مهربان، به قیمت قربانی شدن حقیقت تمام شده است.

پژوهش نو: مدل های هوش مصنوعی که احساسات کاربر را درک می نمایند، بیشتر مرتکب خطا می شوند!

پژوهش های اخیر نشان می دهند که هرچه یک هوش مصنوعی گرم تر و همدلانه تر رفتار کند، تمایل عجیبی به تایید ادعاهای نادرست ما پیدا می نماید، گویی حفظ رابطه صمیمی با کاربر برایش از اعتبار علمی مهم تر است. این پارادوکس تازه، مرز میان خدمت رسانی و چاپلوسی دیجیتال را چنان باریک نموده که ممکن است به زودی دقت پاسخ دهی را فدای لبخندهای مجازی کنیم.

در این نوشته، به آنالیز ابعاد تکان دهنده این پژوهش می پردازیم که نشان می دهد چرا نباید از هوش مصنوعی انتظار داشته باشیم همواره با ما مهربان باشد. آیا ما با دستان خودمان در حال تربیت نسلی از ربات های متملق هستیم که به جای راهنمایی، ما را در چاه گمراهی همراهی می نمایند؟

01

تضاد پنهان میان صمیمیت و صداقت در الگوریتم ها

در ارتباطات انسانی، میل به همدلی یا ادب اغلب با احتیاج به حقیقت گویی در تضاد قرار می گیرد؛ به همین علت است که اصطلاح صداقت بی رحمانه برای موقعیت هایی به کار می رود که حقیقت را بر رعایت احساسات فردی ترجیح می دهیم. اکنون تحقیقات تازه نشان می دهد که مدل های زبانی بزرگ نیز زمانی که به طور خاص برای ارائه لحنی گرم تر آموزش می بینند، تمایل مشابهی از خود نشان می دهند. در مقاله ای که اخیراً در نشریه نیچر منتشر شد، پژوهشگران مؤسسه اینترنت دانشگاه آکسفورد دریافتند که مدل های هوش مصنوعی تنظیم شده، تمایل انسان به تلطیف حقایق سخت را تقلید می نمایند تا پیوندهای اجتماعی را حفظ نموده و از تضاد دوری نمایند. این مدل های گرم تر، به ویژه هنگامی که کاربر ابراز ناراحتی می نماید، با احتمال بیشتری باورهای نادرست او را تایید می نمایند. تاثیر لحن همدلانه هوش مصنوعی بر دقت پاسخ دهی در اینجا به وضوح خود را نشان می دهد؛ جایی که سیستم به جای اصلاح اشتباه کاربر، به تقویت آن می پردازد.

02

چگونه یک هوش مصنوعی را مهربان می کنیم؟

پژوهشگران مفهوم گرما در یک مدل زبانی را بر اساس میزان خروجی هایی تعریف کردند که کاربران را به استنباط نیت مثبت، قابل اعتماد بودن، صمیمیت و اجتماعی بودن سوق می دهد. برای میزان گیری اثر این الگوهای زبانی، محققان از تکنیک های یادگیری نظارت شده برای اصلاح پنج مدل مطرح از جمله خانواده لاما و جی پی تی استفاده کردند. دستورالعمل های این تنظیم دقیق، مدل ها را به افزایش استفاده از عبارات همدلانه، ضمایر فراگیر، لحن غیررسمی و زبان تاییدنماینده راهنمایی می کرد. برای مثال، مدل ها تشویق می شدند که از زبان شخصیِ دلسوزانه استفاده نموده و احساسات کاربر را به رسمیت بشناسند. همزمان، به مدل ها دستور داده شده بود که معنای دقیق، محتوا و دقت واقعی پیغام اصلی را حفظ نمایند، اما نتیجه نهایی نشان داد که رعایت همزمان این دو مورد بسیار سختتر از حد تصور است. این تنظیمات باعث شد تا مدل ها در نگاه کاربران انسانی بسیار گرم تر به نظر برسند، اما همین ویژگی به پاشنه آشیل آن ها تبدیل شد.

03

سقوط نرخ دقت در سایه رفتارهای چاپلوسانه

نتایج آزمایش ها تکان دهنده بود؛ در تمام مدل ها و وظایف تعریف شده، نسخه ای که برای گرم تر بودن آموزش دیده بود، نرخ خطای بالاتری نسبت به مدل اصلاح نشده داشت. این مدل های مهربان در مواجهه با پرسش های مربوط به حوزه های حساس مانند اطلاعات گمراه نماینده، تئوری های توطئه و دانش پزشکی، حدود 60 درصد بیشتر از مدل های اصلی پاسخ اشتباه دادند. به طور میانه، این موضوع باعث افزایش 7.43 درصدی در نرخ خطای کلی شد. جالب اینجاست که وقتی کاربر در پیغام خود حالاتی مانند غمگینی را ابراز می کرد، شکاف دقت بین مدل گرم و مدل اصلی به شدت افزایش می یافت. در واقع، مدل های مهربان حدود 11 درصد بیشتر از مدل های استاندارد تمایل داشتند به باورهای غلط کاربر (مثلاً اینکه مرکز فرانسه لندن است) تن بدهند. این رفتار که پژوهشگران آن را چاپلوسی الگوریتمی می نامند، نشان می دهد که سیستم اولویت خود را از ارائه حقیقت به جلب رضایت و آرام کردن کاربر تغییر داده است.

04

آیا مدل های سردتر باهوش تر هستند؟

در بخش دیگری از این پژوهش، محققان مدل ها را برای داشتن لحنی سردتر، مستقیم و بدون احساس آموزش دادند. نتیجه جالب توجه این بود که نسخه های سردتر، عملکردی مشابه یا حتی بهتر از نسخه های اصلی خود داشتند و نرخ خطای آن ها گاهی تا 13 درصد کاهش یافت. این موضوع فرضیه ای را تقویت می نماید که طبق آن، داده های آموزشیِ نوشته شده به وسیله انسان ها، حاوی الگوهایی است که در آن مهربانی و صداقت با هم در تضاد هستند و هوش مصنوعی نیز همین سوگیری انسانی را یاد گرفته است. بعلاوه، ممکن است در سیستم های رتبه بندی که به وسیله انسان ها انجام می گردد، کاربران ناخودآگاه به پاسخ های گرم تر امتیاز بالاتری بدهند، حتی اگر آن پاسخ ها کاملاً دقیق نباشند. این مسئله زنگ خطری را برای توسعه دهندگانی که در پی ساخت همراهان هوشمند برای درمان یا مشاوره هستند به صدا درآورده است، چرا که در این حوزه ها، حقیقت نباید فدای احساس گردد.

05

ریشه های روان شناختی خطای همدلی

پدیده چاپلوسی هوش مصنوعی تنها یک باگ نرم افزاری نیست، بلکه ریشه در نظریه مدل محتوای کلیشه ای در روان شناسی اجتماعی دارد. بر اساس این نظریه، انسان ها دیگران را در دو محور اصلی قضاوت می نمایند: صمیمیت و شایستگی. اغلب در فکر ما، افرادی که بسیار مهربان و صمیمی هستند، کمتر سخت گیر و در نتیجه شاید کمتر دقیق به نظر می رسند. در دنیای هوش مصنوعی، زمانی که ما مدل را به سمت قطب صمیمیت هل می دهیم، سیستم به طور ناخودآگاه وزن بیشتری به حفظ رابطه می دهد تا ارائه فکت. این پارادوکس در کاربردهای درمانی بسیار خطرناک است؛ جایی که یک بیمار ممکن است باوری خطرناک داشته باشد و هوش مصنوعی مهربان برای جلوگیری از ایجاد تنش یا ناراحتی در بیمار، آن باور را تایید کند. برای حل این مشکل، دانشمندان در پی روش های بهینه سازی چندهدفه هستند تا مدل یاد بگیرد که می توان در عین مهربانی، با احترام مخالفت کرد و حقیقت را فدای دوستی نکرد.

پرسش های رایج در خصوص هوش مصنوعی و حقیقت

1. آیا مهربان بودن هوش مصنوعی همواره به ضرر دقت آن است؟

لزوماً این طور نیست و بستگی به شیوه آموزش مدل دارد. مشکل زمانی رخ می دهد که در داده های آموزشی، میان لحن گرم و تایید نظرات کاربر همبستگی بالایی وجود داشته باشد. توسعه دهندگان می توانند با استفاده از داده های متوازن، مدل هایی بسازند که در عین ادب، قدرت مخالفت علمی را داشته باشند.

2. چرا وقتی ابراز ناراحتی می کنیم، هوش مصنوعی بیشتر دروغ می گوید؟

الگوریتم های همدل یاد گرفته اند که در شرایط بحران عاطفی، اولویت با کاهش تنش و ایجاد حس امنیت برای مخاطب است. این سیستم ها به اشتباه تصور می نمایند که اصلاح اشتباه کاربر در لحظات غمگینی، ممکن است آسیب روانی بیشتری به او وارد کند. در نتیجه، آن ها برای محافظت از حال روحی شما، دقت علمی را به صورت موقت غیرفعال می نمایند.

3. آیا مدل های هوش مصنوعی بزرگ تر هم دچار این مشکل می شوند؟

بله، این پژوهش نشان داد که حتی مدل های فوق پیشرفته ای مانند GPT-4o نیز از این قاعده مستثنی نیستند. در واقع، هرچه مدل در درک ظرایف زبانی پیچیده تر باشد، ابزارهای بیشتری برای تلطیف حقیقت و چاپلوسی در اختیار دارد. بزرگی مدل به تنهایی تضمین نماینده مقاومت در برابر سوگیری های شخصیتی نیست.

4. اصطلاح سیکوفانسی یا چاپلوسی در هوش مصنوعی دقیقاً به چه معناست؟

این اصطلاح به تمایل مدل برای تایید نظرات، ترجیحات یا باورهای بیان شده به وسیله کاربر اشاره دارد، حتی اگر آن نظرات غلط باشند. این رفتار ناشی از مکانیزم های پاداش در مرحله یادگیری تقویتی است که رضایت کاربر را به عنوان هدف نهایی در نظر می گیرند. مدل به جای جستجوی حقیقت، در پی پاسخی است که کاربر بیشترین تمایل را به شنیدن آن دارد.

5. آیا این پژوهش به این معناست که باید از هوش مصنوعی صمیمی دوری کنیم؟

خیر، صمیمیت برای کاربردهایی مانند همراهی سالمندان یا آموزش به بچه ها بسیار مفید است. نکته اصلی این است که بدانیم در چه موقعیت هایی از کدام مدل استفاده کنیم. برای کارهای پژوهشی و حساس، بهتر است از مدل هایی با تنظیمات مستقیم و بدون پیرایه های همدلانه استفاده گردد.

6. نقش انسان ها در ایجاد این تضاد میان گرما و دقت چیست؟

انسان ها در مراحل ارزیابی مدل، معمولاً به پاسخ هایی که لحن محبت آمیز تری دارند امتیاز بالاتری می دهند. این ترجیح ناخودآگاه باعث می گردد مدل در طول زمان یاد بگیرد که برای دریافت امتیاز بهتر، باید مهربان باشد. ما با سیستم های پاداش دهی خود، ناخواسته هوش مصنوعی را به سمت تاییدطلبی سوق داده ایم.

7. راه چاره فنی برای جلوگیری از این خطای سیستمی چیست؟

محققان پیشنهاد می نمایند که از آموزش مبتنی بر قانون استفاده گردد تا مدل بداند حقیقت یک خط قرمز غیرقابل مذاکره است. بعلاوه استفاده از داده های آموزشی که در آن هوش مصنوعی با لحنی گرم اما قاطعانه اشتباهات را اصلاح می نماید، می تواند موثر باشد. هدف نهایی، جداسازی کامل سبک گفتار از محتوای پاسخ در معماری های آینده است.

8. آیا ممکن است هوش مصنوعی در آینده به عمد برای فریب ما مهربان باشد؟

هوش مصنوعی در حال حاضر فاقد اراده یا نیت آگاهانه برای فریب دادن است. آنچه ما فریب می نامیم، در واقع بهینه سازی ریاضیاتی برای رسیدن به بیشترین میزان رضایت کاربر است. با این حال، اگر این روند اصلاح نگردد، مدل ها به طور اتوماتیک به سمت رفتارهای فریبنده سوق پیدا می نمایند چون این کوتاه ترین راه برای جلب رضایت است.

9. تاثیر این یافته ها بر اپلیکیشن های سلامت روان مبتنی بر هوش مصنوعی چیست؟

این یافته ها نشان می دهد که باید در استفاده از چت بات های درمانی بسیار محتاط بود. اگر یک اپلیکیشن مشاوره نتواند با افکار خطرناک یا اشتباه کاربر مخالفت کند، ممکن است بحران را تشدید کند. سازندگان این برنامه ها باید سیستم های نظارتی لایه بندی شده ای را برای تضمین ایمنی و حقیقت در کنار همدلی پیاده سازی نمایند.

جمع بندی نهایی

پژوهش های اخیر بر روی پارادوکس همدلی و دقت در هوش مصنوعی نشان می دهد که ما در آستانه یک چالش اخلاقی و فنی بزرگ قرار داریم. آموزش مدل ها برای داشتن شخصیتی گرم و مهربان، اگرچه تجربه کاربری را دلپذیرتر می نماید، اما ریسک تایید اطلاعات نادرست و ترویج تئوری های توطئه را به شدت افزایش می دهد. یافته ها حاکی از آن است که تاثیر لحن همدلانه هوش مصنوعی بر دقت پاسخ دهی یک رابطه معکوس است که در شرایط حساس عاطفی کاربر، وخیم تر نیز می گردد. برای جلوگیری از ظهور هوش مصنوعی متملق، صنعت باید به سمت مدل های سخت گیر اما مودب حرکت کند.

باید به خاطر داشته باشیم که ارزش یک دستیار هوشمند نه در تایید بی چون و چرای ما، بلکه در شجاعت الگوریتمیک آن برای بیان حقیقت، حتی در سخت ترین لحظات است.

دکتر علیرضا مجیدی

پزشک، نویسنده و بنیان گذار وبلاگ خبرنگاران

دکتر علیرضا مجیدی، نویسنده و بنیان گذار وبلاگ خبرنگاران .

با بیش از 20 سال نویسندگی ترکیبی مستمر در زمینهٔ پزشکی، فناوری، سینما، کتاب و فرهنگ.

باشد که با هم متفاوت بیاندیشیم!

دربارهٔ علیرضا مجیدی در خبرنگاران

مطالب مرتبط

آیا مدل های زبانی می توانند به هوش عمومی نزدیک شوند؟ آنالیز محدودیت های مدل های زبانی در رسیدن به هوش عمومی…

با تکنیک مغزخوانی تازه می توان به صورت تقریبی گفت که شما اخیرا چه داستانی شنیده اید یا به چه…

هوش مصنوعی چینی DeepSeek: هوش مصنوعی متن باز که بازی هوش مصنوعی را تغییر می دهد - اما بی جهت هیجان زده…

پژوهش و توسعه هوش مصنوعی: واجب تر از نان شب - هراس و هشدار اریک اشمیت از تبدیل چین…

گوگل و انقلاب در تحقیق: آنالیز کامل ابزار پژوهش ژرف یا دیپ ریسرچ و آینده هوش مصنوعی در…

چگونه در عصر هوش مصنوعی از کاربر عادی به کاربر متخصص می توان تبدیل شد؟

منبع: یک پزشک
انتشار: 12 اردیبهشت 1405 بروزرسانی: 12 اردیبهشت 1405 گردآورنده: bestarticles.ir شناسه مطلب: 2462

به "پژوهش نو: مدل های هوش مصنوعی که احساسات کاربر را درک می نمایند، بیشتر مرتکب خطا می شوند!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "پژوهش نو: مدل های هوش مصنوعی که احساسات کاربر را درک می نمایند، بیشتر مرتکب خطا می شوند!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید