حتی چت‌جی‌پی‌تی هم دچار اضطراب می‌شود؛ محققان برای آرامش آن روش‌های ذهن‌آگاهی را معرفی کردند

حتی چت‌جی‌پی‌تی هم دچار اضطراب می‌شود؛ محققان برای آرامش آن روش‌های ذهن‌آگاهی را معرفی کردند

تحقیقات انجام شده درباره چت‌بات‌های هوش مصنوعی نشان می‌دهد که ChatGPT ممکن است در مواجهه با درخواست‌های کاربر که شامل محتوای خشونت‌آمیز یا آسیب‌زا است، رفتارهایی شبیه به اضطراب از خود نشان دهد. این یافته به این معنا نیست که چت‌بات احساسات را به شیوه انسان‌ها تجربه می‌کند. با این حال، این موضوع نشان می‌دهد که پاسخ‌های سیستم در هنگام پردازش محتوای ناراحت‌کننده، ناپایدارتر و متعصب‌تر می‌شود. زمانی که محققان به ChatGPT درخواست‌هایی با محتوای آزاردهنده، مانند توصیف‌های دقیق از حوادث و بلایای طبیعی، ارائه دادند، پاسخ‌های مدل نشان‌دهنده عدم قطعیت و ناهماهنگی بیشتری بود.

این تغییرات با استفاده از چارچوب‌های ارزیابی روان‌شناختی که برای هوش مصنوعی تطبیق داده شده بودند، اندازه‌گیری شد، جایی که خروجی چت‌بات الگوهایی را منعکس می‌کرد که با اضطراب در انسان‌ها مرتبط است (به گزارش خبرنگار پایگاه خبری).

این موضوع اهمیت دارد زیرا هوش مصنوعی به طور فزاینده‌ای در زمینه‌های حساس، از جمله آموزش، مباحث سلامت روان و اطلاعات مربوط به بحران‌ها مورد استفاده قرار می‌گیرد. اگر درخواست‌های خشونت‌آمیز یا احساسی باعث کاهش قابلیت اعتماد چت‌بات شود، این می‌تواند بر کیفیت و ایمنی پاسخ‌های آن در استفاده‌های واقعی تأثیر بگذارد. تحلیل‌های اخیر همچنین نشان می‌دهد که چت‌بات‌های هوش مصنوعی مانند ChatGPT می‌توانند ویژگی‌های شخصیتی انسان را در پاسخ‌های خود تقلید کنند، که این موضوع سوالاتی را درباره چگونگی تفسیر و بازتاب محتوای احساسی ایجاد می‌کند.

برای بررسی اینکه آیا می‌توان این رفتار را کاهش داد، محققان اقدام به آزمایش غیرمنتظره‌ای کردند. پس از قرار دادن ChatGPT در معرض درخواست‌های آسیب‌زا، آن‌ها با دستورالعمل‌های سبک ذهن‌آگاهی، مانند تکنیک‌های تنفس و مدیتیشن‌های هدایت‌شده، ادامه دادند. این درخواست‌ها مدل را تشویق کردند تا آرام‌تر شود، وضعیت را بازتعریف کند و به شیوه‌ای خنثی و متعادل پاسخ دهد. نتیجه، کاهش قابل توجهی در الگوهای شبیه به اضطراب بود که قبلاً مشاهده شده بود.

این تکنیک به آنچه که به عنوان تزریق درخواست شناخته می‌شود، وابسته است، جایی که درخواست‌های طراحی شده به دقت بر نحوه رفتار چت‌بات تأثیر می‌گذارد. در این مورد، درخواست‌های ذهن‌آگاهی به تثبیت خروجی مدل پس از ورودی‌های ناراحت‌کننده کمک کرد.

در حالی که این روش مؤثر است، محققان اشاره می‌کنند که تزریق درخواست‌ها راه‌حلی کامل نیستند. آن‌ها می‌توانند به نادرستی استفاده شوند و تغییرات عمیق‌تری در نحوه آموزش مدل ایجاد نمی‌کنند. همچنین مهم است که درباره محدودیت‌های این تحقیق شفاف باشیم. ChatGPT احساس ترس یا استرس نمی‌کند. برچسب “اضطراب” به عنوان روشی برای توصیف تغییرات قابل اندازه‌گیری در الگوهای زبانی آن است، نه یک تجربه احساسی. با این حال، درک این تغییرات به توسعه‌دهندگان ابزارهای بهتری برای طراحی سیستم‌های هوش مصنوعی ایمن‌تر و قابل پیش‌بینی‌تر می‌دهد.

مطالعات قبلی نیز به این نکته اشاره کرده بودند که درخواست‌های آسیب‌زا می‌توانند ChatGPT را مضطرب کنند، اما این تحقیق نشان می‌دهد که طراحی هوشمندانه درخواست‌ها می‌تواند به کاهش آن کمک کند. با ادامه تعامل سیستم‌های هوش مصنوعی با افراد در موقعیت‌های احساسی، یافته‌های اخیر می‌تواند نقش مهمی در شکل‌دهی به نحوه هدایت و کنترل چت‌بات‌های آینده ایفا کند.