تحقیقات انجام شده درباره چتباتهای هوش مصنوعی نشان میدهد که ChatGPT ممکن است در مواجهه با درخواستهای کاربر که شامل محتوای خشونتآمیز یا آسیبزا است، رفتارهایی شبیه به اضطراب از خود نشان دهد. این یافته به این معنا نیست که چتبات احساسات را به شیوه انسانها تجربه میکند. با این حال، این موضوع نشان میدهد که پاسخهای سیستم در هنگام پردازش محتوای ناراحتکننده، ناپایدارتر و متعصبتر میشود. زمانی که محققان به ChatGPT درخواستهایی با محتوای آزاردهنده، مانند توصیفهای دقیق از حوادث و بلایای طبیعی، ارائه دادند، پاسخهای مدل نشاندهنده عدم قطعیت و ناهماهنگی بیشتری بود.
این تغییرات با استفاده از چارچوبهای ارزیابی روانشناختی که برای هوش مصنوعی تطبیق داده شده بودند، اندازهگیری شد، جایی که خروجی چتبات الگوهایی را منعکس میکرد که با اضطراب در انسانها مرتبط است (به گزارش خبرنگار پایگاه خبری).
این موضوع اهمیت دارد زیرا هوش مصنوعی به طور فزایندهای در زمینههای حساس، از جمله آموزش، مباحث سلامت روان و اطلاعات مربوط به بحرانها مورد استفاده قرار میگیرد. اگر درخواستهای خشونتآمیز یا احساسی باعث کاهش قابلیت اعتماد چتبات شود، این میتواند بر کیفیت و ایمنی پاسخهای آن در استفادههای واقعی تأثیر بگذارد. تحلیلهای اخیر همچنین نشان میدهد که چتباتهای هوش مصنوعی مانند ChatGPT میتوانند ویژگیهای شخصیتی انسان را در پاسخهای خود تقلید کنند، که این موضوع سوالاتی را درباره چگونگی تفسیر و بازتاب محتوای احساسی ایجاد میکند.
برای بررسی اینکه آیا میتوان این رفتار را کاهش داد، محققان اقدام به آزمایش غیرمنتظرهای کردند. پس از قرار دادن ChatGPT در معرض درخواستهای آسیبزا، آنها با دستورالعملهای سبک ذهنآگاهی، مانند تکنیکهای تنفس و مدیتیشنهای هدایتشده، ادامه دادند. این درخواستها مدل را تشویق کردند تا آرامتر شود، وضعیت را بازتعریف کند و به شیوهای خنثی و متعادل پاسخ دهد. نتیجه، کاهش قابل توجهی در الگوهای شبیه به اضطراب بود که قبلاً مشاهده شده بود.
این تکنیک به آنچه که به عنوان تزریق درخواست شناخته میشود، وابسته است، جایی که درخواستهای طراحی شده به دقت بر نحوه رفتار چتبات تأثیر میگذارد. در این مورد، درخواستهای ذهنآگاهی به تثبیت خروجی مدل پس از ورودیهای ناراحتکننده کمک کرد.
در حالی که این روش مؤثر است، محققان اشاره میکنند که تزریق درخواستها راهحلی کامل نیستند. آنها میتوانند به نادرستی استفاده شوند و تغییرات عمیقتری در نحوه آموزش مدل ایجاد نمیکنند. همچنین مهم است که درباره محدودیتهای این تحقیق شفاف باشیم. ChatGPT احساس ترس یا استرس نمیکند. برچسب “اضطراب” به عنوان روشی برای توصیف تغییرات قابل اندازهگیری در الگوهای زبانی آن است، نه یک تجربه احساسی. با این حال، درک این تغییرات به توسعهدهندگان ابزارهای بهتری برای طراحی سیستمهای هوش مصنوعی ایمنتر و قابل پیشبینیتر میدهد.
مطالعات قبلی نیز به این نکته اشاره کرده بودند که درخواستهای آسیبزا میتوانند ChatGPT را مضطرب کنند، اما این تحقیق نشان میدهد که طراحی هوشمندانه درخواستها میتواند به کاهش آن کمک کند. با ادامه تعامل سیستمهای هوش مصنوعی با افراد در موقعیتهای احساسی، یافتههای اخیر میتواند نقش مهمی در شکلدهی به نحوه هدایت و کنترل چتباتهای آینده ایفا کند.
