• امروز : شنبه, ۲ فروردین , ۱۴۰۴
  • برابر با : Saturday - 22 March - 2025
امروز 6
12

تیم ایمنی جدید OpenAI توسط اعضای هیئت مدیره از جمله مدیر عامل سام آلتمن هدایت می شود

  • کد خبر : 13423
  • ۰۹ خرداد ۱۴۰۳ - ۱۳:۳۳
تیم ایمنی جدید OpenAI توسط اعضای هیئت مدیره از جمله مدیر عامل سام آلتمن هدایت می شود
این اقدام پس از استعفای برجسته ایمنی در اوایل این ماه، سؤالاتی را در مورد خودپلیسی شدن ایجاد می کند.

تیم ایمنی جدید OpenAI توسط اعضای هیئت مدیره از جمله مدیر عامل سام آلتمن هدایت می شود

این اقدام پس از استعفای برجسته ایمنی در اوایل این ماه، سؤالاتی را در مورد خودپلیسی شدن ایجاد می کند.

به گزارش اپست به نقل از اینجگت، OpenAI کمتر از دو هفته پس از انحلال تیمی که وظیفه محافظت از بشریت در برابر تهدیدات وجودی هوش مصنوعی را بر عهده داشت، کمیته ایمنی و امنیت جدیدی ایجاد کرده است. این جدیدترین تکرار از گروهی که مسئول حفاظ‌های ایمنی OpenAI است شامل دو عضو هیئت‌مدیره و مدیر عامل شرکت سام آلتمن می‌شود و سؤالاتی را در مورد اینکه آیا این حرکت چیزی بیش از یک تئاتر خودپلیسی در بحبوحه رقابت سرسام‌آور برای کسب سود و تسلط در کنار شریک مایکروسافت است، ایجاد می‌کند.

اینستاگرام اپست

کمیته ایمنی و امنیت که توسط هیئت مدیره OpenAI تشکیل شده است، توسط اعضای هیئت مدیره برت تیلور (رئیس)، نیکول سلیگمن، آدام دی آنجلو و سام آلتمن (مدیر عامل) رهبری خواهد شد. تیم جدید به دنبال استعفای سرشناس یکی از بنیانگذاران Ilya Sutskever و Jan Leike است که بیش از چند ابرو را برانگیخت. “تیم سوپرالاینمنت” سابق آنها جولای گذشته ایجاد شد.

پس از استعفای خود، لیک در یک تاپیک X (توئیتر) در ۱۷ می نوشت، اگرچه به مأموریت اصلی شرکت اعتقاد داشت، اما به دلیل اینکه دو طرف (محصول و ایمنی) “به نقطه شکست رسیدند” آن را ترک کرد. لیک اضافه کرد که “نگران است که ما در مسیری قرار نگیریم” تا به اندازه کافی مسائل مربوط به ایمنی را با رشد هوش مصنوعی باهوش‌تر بررسی کنیم. او پست کرد که تیم Superalignment اخیراً در داخل شرکت “بر خلاف باد” حرکت کرده است و “فرهنگ ایمنی و فرآیندها به محصولات براق تبدیل شده است.”

مطالب خواندنی :  ChatGPT تا کجا پیش خواهد رفت؟

یک برداشت بدبینانه این است که شرکتی که عمدتاً بر روی “محصولات براق” متمرکز شده است – در حالی که تلاش می کند تا از ضربه روابط عمومی ناشی از انحرافات ایمنی با مشخصات بالا جلوگیری کند – ممکن است یک تیم ایمنی جدید به رهبری همان افرادی ایجاد کند که با سرعت به سمت آن محصولات براق می روند.

هد شات از یان لیک، رئیس سابق سازمان OpenAI. در پس زمینه ای قهوه ای مایل به خاکستری لبخند می زند.

یان لیکه، رئیس سابق سازمان OpenAI (Jan Leike / X)

یان لیکه، رئیس سابق سازمان OpenAI (Jan Leike / X)

خروج ایمنی در اوایل این ماه تنها اخبار نگران کننده اخیر از این شرکت نبود. همچنین یک مدل صدای جدید را راه اندازی کرد (و به سرعت آن را بیرون کشید) که به طرز قابل توجهی شبیه اسکارلت جوهانسون نامزد دو دوره اسکار بود. سپس بازیگر جوجو رابیت فاش کرد که OpenAI Sam Altman رضایت او را برای استفاده از صدایش برای آموزش یک مدل هوش مصنوعی دنبال کرده است اما او نپذیرفته است.

تیم جوهانسون در بیانیه‌ای به Engadget گفت که او از اینکه OpenAI پس از پیگیری مجوزش، استعداد صدایی را که “به طرز وحشتناکی شبیه به او بود” به نمایش می‌گذارد شوکه شده است. در این بیانیه افزوده شد که «نزدیک‌ترین دوستان و رسانه‌های خبری جوهانسون نمی‌توانند تفاوت را تشخیص دهند».

OpenAI همچنین از توافق نامه های عدم تحقیر که از مدیران در حال خروج خواسته بود عقب نشینی کرد و آهنگ خود را تغییر داد و گفت که آنها را اجرا نمی کند. قبل از آن، این شرکت کارمندان خارج شده را مجبور کرد که بین اینکه بتوانند علیه شرکت صحبت کنند و حقوق صاحبان سهام خود را حفظ کنند، یکی را انتخاب کنند.

مطالب خواندنی :  ساخت ربات از خودروی برقی مهم‌تر است

کمیته ایمنی و امنیت در نظر دارد طی ۹۰ روز آینده فرآیندها و پادمان های شرکت را “ارزیابی و توسعه بیشتر” کند. پس از آن، گروه توصیه های خود را با کل هیئت مدیره در میان می گذارد. پس از اینکه کل تیم رهبری نتایج خود را بررسی کرد، “به‌روزرسانی توصیه‌های اتخاذ شده را به شیوه‌ای که با ایمنی و امنیت سازگار باشد به‌طور عمومی به اشتراک می‌گذارد.”

OpenAI در پست وبلاگ خود که کمیته ایمنی و امنیت جدید را اعلام کرد، تأیید کرد که این شرکت در حال حاضر در حال آموزش مدل بعدی خود است که جانشین GPT-4 خواهد شد. این شرکت نوشت: «در حالی که ما به ساخت و عرضه مدل‌هایی که هم از نظر قابلیت‌ها و هم ایمنی در صنعت پیشرو هستند، افتخار می‌کنیم، از بحث قوی در این لحظه مهم استقبال می‌کنیم.»

فروشگاه کوکوهوم
لینک کوتاه : https://www.appest.ir/?p=13423

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.

You have not selected any currencies to display