محتوای تاپیک هر 5 ثانیه به طور خودکار بهروز میشود.
به دلیل عدم فعالیت شما در دقایق گذشته، بهروزرسانی خودکار این تاپیک متوقف شده است. Un-Idle
-
بازنگری
-
November 9th, 2024 09:47
#1
خروج یکی دیگر از محققان ارشد ایمنی از OpenAI؛ لیلیان ونگ شرکت را ترک میکند.
یکی دیگر از محققان ارشد ایمنی شرکت OpenAI، لیلیان ونگ، روز جمعه اعلام کرد که قصد دارد این استارتاپ را ترک کند. ونگ از ماه اوت به عنوان معاون پژوهش و ایمنی فعالیت میکرد و پیش از آن نیز سرپرستی تیم سیستمهای ایمنی OpenAI را بر عهده داشت.
ونگ در پستی در شبکه اجتماعی X نوشت: “بعد از 7 سال کار در OpenAI، احساس میکنم آماده هستم تا تغییر جدیدی را تجربه کرده و به جستجوی چالشهای تازه بپردازم.” او اعلام کرد که آخرین روز کاریاش در OpenAI، 15 نوامبر خواهد بود اما مقصد بعدی خود را مشخص نکرد.
او در این پست گفت: “تصمیم ترک OpenAI برایم بسیار دشوار بود. وقتی به دستاوردهایمان نگاه میکنم، به تیم سیستمهای ایمنی بسیار افتخار میکنم و اطمینان زیادی دارم که این تیم به پیشرفت خود ادامه خواهد داد.”
خروج ونگ آخرین نمونه از سری خروج محققان ایمنی، پژوهشگران سیاستگذاری و دیگر مدیران ارشد است که در سال گذشته از این شرکت جدا شدهاند. برخی از آنها OpenAI را به اولویت دادن به محصولات تجاری به جای ایمنی AI متهم کردهاند. ونگ به افرادی مانند ایلیا سوتسکور و یان لایک میپیوندد که سرپرست تیم سوپرالاینمنت بودند – تیمی که هدف آن توسعه روشهای هدایت سیستمهای هوش مصنوعی فوقالعاده قدرتمند بود و امسال منحل شد.
بر اساس اطلاعات LinkedIn، ونگ در سال 2018 به OpenAI پیوست و روی تیم روباتیک این استارتاپ کار کرد. این تیم موفق شد دستی رباتیک بسازد که میتوانست مکعب روبیک را حل کند – کاری که به گفته ونگ، دو سال زمان برد.
با تمرکز OpenAI بر روی مدل GPT، ونگ نیز به تیم پژوهشهای کاربردی هوش مصنوعی پیوست و در سال 2021 شروع به کار روی این پروژه کرد. پس از عرضه GPT-4، ونگ مأموریت یافت تا تیمی تخصصی برای ساخت سیستمهای ایمنی راهاندازی کند و در سال 2023 این تیم را تشکیل داد. امروز، واحد سیستمهای ایمنی OpenAI بیش از 80 دانشمند، محقق و کارشناس سیاستگذاری دارد.
با اینکه این تعداد از متخصصان ایمنی زیاد به نظر میرسد، بسیاری نگران تمرکز OpenAI بر ایمنی در شرایط توسعه سیستمهای هوش مصنوعی قدرتمند هستند. مایلز بروندیج، پژوهشگر قدیمی سیاستگذاری، در اکتبر این شرکت را ترک کرد و اعلام کرد که تیم آمادگی AGI که او مشاور آن بود نیز منحل شده است. در همان روز، نیویورک تایمز پروفایلی از پژوهشگر سابق OpenAI، سوچیر بالاجی، منتشر کرد که گفته بود به دلیل نگرانی از آسیبهای احتمالی فناوری این شرکت به جامعه، OpenAI را ترک کرده است.
OpenAI در بیانیهای به TechCrunch گفت که مدیران و محققان ایمنی در حال برنامهریزی برای جایگزینی ونگ هستند.
“ما قدردان تلاشهای لیلیان در تحقیقات پیشگام ایمنی و ساخت تدابیر فنی دقیق هستیم. اطمینان داریم که تیم سیستمهای ایمنی همچنان نقش کلیدی در تضمین امنیت و قابلیت اطمینان سیستمهای ما خواهد داشت و به خدمترسانی به میلیونها کاربر در سراسر جهان ادامه خواهد داد.
دیگر مدیران ارشدی که در ماههای اخیر OpenAI را ترک کردهاند شامل مدیر ارشد فناوری، میرا موراتی، مدیر ارشد پژوهش باب مکگرو، و معاون پژوهش، برت زوف، میشوند. در ماه اوت نیز پژوهشگر برجسته آندری کارپاتی و یکی از بنیانگذاران، جان شولمن، اعلام کردند که از شرکت خارج میشوند. برخی از این افراد مانند لایک و شولمن به شرکت رقیب OpenAI، یعنی Anthropic، پیوستند و برخی دیگر نیز کسبوکارهای خود را راهاندازی کردهاند.