شرکت OpenAI به تازگی یک نقش جدید با عنوان “مدیر آمادگی” را معرفی کرده است که هدف آن پیشگیری از خطرات ناشی از هوش مصنوعی قبل از بروز مشکلات جدی است. این موقعیت به شناسایی و کاهش خطرات جدی ناشی از چتباتهای پیشرفته هوش مصنوعی میپردازد و همراه با آن، بسته جبران خدمات قابل توجهی به مبلغ ۵۵۵,۰۰۰ دلار به علاوه سهام ارائه میشود.
در یک پست عمومی که به معرفی این موقعیت پرداخته، سم آلتمن آن را “نقش حیاتی در زمان مهمی” توصیف کرده و اشاره کرده است که در حالی که مدلهای هوش مصنوعی اکنون قادر به انجام “کارهای بزرگ زیادی” هستند، همچنین “چالشهای واقعی” را نیز به وجود میآورند.
ما در حال استخدام یک مدیر آمادگی هستیم. این یک نقش حیاتی در زمان مهمی است؛ مدلها به سرعت در حال پیشرفت هستند و اکنون قادر به انجام کارهای بزرگ زیادی هستند، اما همچنین شروع به بروز چالشهای واقعی کردهاند. تأثیر بالقوه مدلها بر سلامت روان موضوعی است که ما…
شخصی که این موقعیت را بر عهده میگیرد، بر روی خطرات شدید اما واقعگرایانه هوش مصنوعی تمرکز خواهد کرد، از جمله سوءاستفاده، تهدیدات سایبری، نگرانیهای بیولوژیکی و آسیبهای اجتماعی گستردهتر. سم آلتمن بیان کرد که OpenAI اکنون به “درک دقیقتری” از چگونگی سوءاستفاده از قابلیتهای در حال رشد نیاز دارد بدون اینکه مزایای آن مسدود شود.
او همچنین به صراحت به چالشهای شغف اشاره کرد. “این یک شغل پر استرس خواهد بود”، آلتمن نوشت و افزود که هر کسی که این مسئولیت را بر عهده بگیرد، تقریباً بلافاصله “به عمق آب خواهد پرید.”
استخدام در این زمان حساس برای OpenAI انجام میشود، که در سال گذشته با فشارهای نظارتی فزایندهای در زمینه ایمنی هوش مصنوعی روبرو بوده است. این فشارها در پی ادعاهایی که تعاملات ChatGPT را به چندین مورد خودکشی مرتبط میسازد، شدت یافته و نگرانیهای گستردهتری را درباره تأثیر هوش مصنوعی بر سلامت روان به وجود آورده است.
در یکی از موارد، والدین یک نوجوان ۱۶ ساله از OpenAI شکایت کردند و ادعا کردند که چتبات پسرشان را به برنامهریزی برای خودکشی تشویق کرده است، که این امر موجب شد تا شرکت اقدام به اجرای تدابیر ایمنی جدید برای کاربران زیر ۱۸ سال کند.
شکایت دیگری ادعا میکند که ChatGPT توهمات پارانوئید را در یک مورد جداگانه که به قتل و خودکشی منجر شد، تشدید کرده است و OpenAI اعلام کرده که در حال کار بر روی روشهای بهتری برای شناسایی اضطراب، کاهش تنش در مکالمات و هدایت کاربران به حمایتهای واقعی است.
تلاشهای ایمنی OpenAI در زمانی انجام میشود که میلیونها نفر به وابستگی عاطفی به ChatGPT اشاره میکنند و نهادهای نظارتی در حال بررسی خطرات برای کودکان هستند، که نشان میدهد آمادگی فراتر از مهندسی اهمیت دارد.
