تیم ایمنی جدید OpenAI توسط اعضای هیئت مدیره از جمله مدیر عامل سام آلتمن هدایت می شود
این اقدام پس از استعفای برجسته ایمنی در اوایل این ماه، سؤالاتی را در مورد خودپلیسی شدن ایجاد می کند.
به گزارش اپست به نقل از اینجگت، OpenAI کمتر از دو هفته پس از انحلال تیمی که وظیفه محافظت از بشریت در برابر تهدیدات وجودی هوش مصنوعی را بر عهده داشت، کمیته ایمنی و امنیت جدیدی ایجاد کرده است. این جدیدترین تکرار از گروهی که مسئول حفاظهای ایمنی OpenAI است شامل دو عضو هیئتمدیره و مدیر عامل شرکت سام آلتمن میشود و سؤالاتی را در مورد اینکه آیا این حرکت چیزی بیش از یک تئاتر خودپلیسی در بحبوحه رقابت سرسامآور برای کسب سود و تسلط در کنار شریک مایکروسافت است، ایجاد میکند.
کمیته ایمنی و امنیت که توسط هیئت مدیره OpenAI تشکیل شده است، توسط اعضای هیئت مدیره برت تیلور (رئیس)، نیکول سلیگمن، آدام دی آنجلو و سام آلتمن (مدیر عامل) رهبری خواهد شد. تیم جدید به دنبال استعفای سرشناس یکی از بنیانگذاران Ilya Sutskever و Jan Leike است که بیش از چند ابرو را برانگیخت. “تیم سوپرالاینمنت” سابق آنها جولای گذشته ایجاد شد.
پس از استعفای خود، لیک در یک تاپیک X (توئیتر) در ۱۷ می نوشت، اگرچه به مأموریت اصلی شرکت اعتقاد داشت، اما به دلیل اینکه دو طرف (محصول و ایمنی) “به نقطه شکست رسیدند” آن را ترک کرد. لیک اضافه کرد که “نگران است که ما در مسیری قرار نگیریم” تا به اندازه کافی مسائل مربوط به ایمنی را با رشد هوش مصنوعی باهوشتر بررسی کنیم. او پست کرد که تیم Superalignment اخیراً در داخل شرکت “بر خلاف باد” حرکت کرده است و “فرهنگ ایمنی و فرآیندها به محصولات براق تبدیل شده است.”
یک برداشت بدبینانه این است که شرکتی که عمدتاً بر روی “محصولات براق” متمرکز شده است – در حالی که تلاش می کند تا از ضربه روابط عمومی ناشی از انحرافات ایمنی با مشخصات بالا جلوگیری کند – ممکن است یک تیم ایمنی جدید به رهبری همان افرادی ایجاد کند که با سرعت به سمت آن محصولات براق می روند.
هد شات از یان لیک، رئیس سابق سازمان OpenAI. در پس زمینه ای قهوه ای مایل به خاکستری لبخند می زند.

یان لیکه، رئیس سابق سازمان OpenAI (Jan Leike / X)
خروج ایمنی در اوایل این ماه تنها اخبار نگران کننده اخیر از این شرکت نبود. همچنین یک مدل صدای جدید را راه اندازی کرد (و به سرعت آن را بیرون کشید) که به طرز قابل توجهی شبیه اسکارلت جوهانسون نامزد دو دوره اسکار بود. سپس بازیگر جوجو رابیت فاش کرد که OpenAI Sam Altman رضایت او را برای استفاده از صدایش برای آموزش یک مدل هوش مصنوعی دنبال کرده است اما او نپذیرفته است.
تیم جوهانسون در بیانیهای به Engadget گفت که او از اینکه OpenAI پس از پیگیری مجوزش، استعداد صدایی را که “به طرز وحشتناکی شبیه به او بود” به نمایش میگذارد شوکه شده است. در این بیانیه افزوده شد که «نزدیکترین دوستان و رسانههای خبری جوهانسون نمیتوانند تفاوت را تشخیص دهند».
OpenAI همچنین از توافق نامه های عدم تحقیر که از مدیران در حال خروج خواسته بود عقب نشینی کرد و آهنگ خود را تغییر داد و گفت که آنها را اجرا نمی کند. قبل از آن، این شرکت کارمندان خارج شده را مجبور کرد که بین اینکه بتوانند علیه شرکت صحبت کنند و حقوق صاحبان سهام خود را حفظ کنند، یکی را انتخاب کنند.
کمیته ایمنی و امنیت در نظر دارد طی ۹۰ روز آینده فرآیندها و پادمان های شرکت را “ارزیابی و توسعه بیشتر” کند. پس از آن، گروه توصیه های خود را با کل هیئت مدیره در میان می گذارد. پس از اینکه کل تیم رهبری نتایج خود را بررسی کرد، “بهروزرسانی توصیههای اتخاذ شده را به شیوهای که با ایمنی و امنیت سازگار باشد بهطور عمومی به اشتراک میگذارد.”
OpenAI در پست وبلاگ خود که کمیته ایمنی و امنیت جدید را اعلام کرد، تأیید کرد که این شرکت در حال حاضر در حال آموزش مدل بعدی خود است که جانشین GPT-4 خواهد شد. این شرکت نوشت: «در حالی که ما به ساخت و عرضه مدلهایی که هم از نظر قابلیتها و هم ایمنی در صنعت پیشرو هستند، افتخار میکنیم، از بحث قوی در این لحظه مهم استقبال میکنیم.»