OpenAI wants to hire someone to handle ChatGPT risks that can’t be predicted

OpenAI wants to hire someone to handle ChatGPT risks that can’t be predicted

شرکت OpenAI به تازگی یک نقش جدید با عنوان “مدیر آمادگی” را معرفی کرده است که هدف آن پیشگیری از خطرات ناشی از هوش مصنوعی قبل از بروز مشکلات جدی است. این موقعیت به شناسایی و کاهش خطرات جدی ناشی از چت‌بات‌های پیشرفته هوش مصنوعی می‌پردازد و همراه با آن، بسته جبران خدمات قابل توجهی به مبلغ ۵۵۵,۰۰۰ دلار به علاوه سهام ارائه می‌شود.openai-chatgpt

در یک پست عمومی که به معرفی این موقعیت پرداخته، سم آلتمن آن را “نقش حیاتی در زمان مهمی” توصیف کرده و اشاره کرده است که در حالی که مدل‌های هوش مصنوعی اکنون قادر به انجام “کارهای بزرگ زیادی” هستند، همچنین “چالش‌های واقعی” را نیز به وجود می‌آورند.

ما در حال استخدام یک مدیر آمادگی هستیم. این یک نقش حیاتی در زمان مهمی است؛ مدل‌ها به سرعت در حال پیشرفت هستند و اکنون قادر به انجام کارهای بزرگ زیادی هستند، اما همچنین شروع به بروز چالش‌های واقعی کرده‌اند. تأثیر بالقوه مدل‌ها بر سلامت روان موضوعی است که ما…

شخصی که این موقعیت را بر عهده می‌گیرد، بر روی خطرات شدید اما واقع‌گرایانه هوش مصنوعی تمرکز خواهد کرد، از جمله سوءاستفاده، تهدیدات سایبری، نگرانی‌های بیولوژیکی و آسیب‌های اجتماعی گسترده‌تر. سم آلتمن بیان کرد که OpenAI اکنون به “درک دقیق‌تری” از چگونگی سوءاستفاده از قابلیت‌های در حال رشد نیاز دارد بدون اینکه مزایای آن مسدود شود.

او همچنین به صراحت به چالش‌های شغف اشاره کرد. “این یک شغل پر استرس خواهد بود”، آلتمن نوشت و افزود که هر کسی که این مسئولیت را بر عهده بگیرد، تقریباً بلافاصله “به عمق آب خواهد پرید.”

استخدام در این زمان حساس برای OpenAI انجام می‌شود، که در سال گذشته با فشارهای نظارتی فزاینده‌ای در زمینه ایمنی هوش مصنوعی روبرو بوده است. این فشارها در پی ادعاهایی که تعاملات ChatGPT را به چندین مورد خودکشی مرتبط می‌سازد، شدت یافته و نگرانی‌های گسترده‌تری را درباره تأثیر هوش مصنوعی بر سلامت روان به وجود آورده است.

در یکی از موارد، والدین یک نوجوان ۱۶ ساله از OpenAI شکایت کردند و ادعا کردند که چت‌بات پسرشان را به برنامه‌ریزی برای خودکشی تشویق کرده است، که این امر موجب شد تا شرکت اقدام به اجرای تدابیر ایمنی جدید برای کاربران زیر ۱۸ سال کند.

شکایت دیگری ادعا می‌کند که ChatGPT توهمات پارانوئید را در یک مورد جداگانه که به قتل و خودکشی منجر شد، تشدید کرده است و OpenAI اعلام کرده که در حال کار بر روی روش‌های بهتری برای شناسایی اضطراب، کاهش تنش در مکالمات و هدایت کاربران به حمایت‌های واقعی است.

تلاش‌های ایمنی OpenAI در زمانی انجام می‌شود که میلیون‌ها نفر به وابستگی عاطفی به ChatGPT اشاره می‌کنند و نهادهای نظارتی در حال بررسی خطرات برای کودکان هستند، که نشان می‌دهد آمادگی فراتر از مهندسی اهمیت دارد.