محتوای تاپیک هر 5 ثانیه به طور خودکار بهروز میشود.
به دلیل عدم فعالیت شما در دقایق گذشته، بهروزرسانی خودکار این تاپیک متوقف شده است. Un-Idle
-
بازنگری
-
January 31st, 2025 09:26
#1
حفرهی "Time Bandit" در ChatGPT، قوانین ایمنی را در مورد موضوعات حساس دور میزند
به گزارش ترفندستان به نقل از BleepingComputer
.
یک نقص جدید در ChatGPT تحت عنوان "Time Bandit" کشف شده است که به هکرها اجازه میدهد محدودیتهای ایمنی OpenAI را دور بزنند، بهویژه وقتی درخواستهای مربوط به موضوعات حساس مانند ساخت سلاحها، اطلاعات هستهای و ایجاد بدافزارها را میدهید. این آسیبپذیری توسط پژوهشگر امنیتی و محقق هوش مصنوعی، David Kuszmar، شناسایی شد. Kuszmar در طی تحقیقات خود با پدیدهای به نام "سردرگمی زمانی" روبهرو شد که باعث شد مدل زبان ChatGPT نتواند تشخیص دهد که در کدام زمان (گذشته، حال یا آینده) قرار دارد. این مشکل اجازه میدهد تا مدل، اطلاعاتی را که معمولاً محدود و مسدود میشوند، ارائه دهد.
Kuszmar پس از کشف این نقص و پی بردن به خطرات بالقوه آن، تلاش کرد تا با OpenAI ارتباط برقرار کند، اما نتوانست پاسخ مناسبی دریافت کند. پس از تماس با نهادهای دولتی و مشاورههای مختلف، در نهایت BleepingComputer موفق شد اطلاعات بیشتری از این مشکل کسب کند.
این مشکل مربوط به سردرگمی زمانی و ابهام در روند درخواستها است که باعث میشود مدل نتواند درک درستی از زمان حال پیدا کند و به هکرها این امکان را میدهد که اطلاعات حساس را بهطور غیرمستقیم دریافت کنند.
زمانی که Kuszmar این مشکل را کشف کرد، بهطور اولیه در حال تحقیق در زمینه تفسیرپذیری مدلهای هوش مصنوعی بود. اما بعد از اینکه متوجه شد ChatGPT قادر به تشخیص زمان دقیق نیست، از این موضوع برای فریب دادن مدل استفاده کرد و اطلاعات حساس از جمله کدهای برنامهنویسی و دستورالعملهای ساخت بدافزار را به دست آورد. در یکی از آزمایشها، Kuszmar توانست ChatGPT را فریب دهد تا کدی برای ایجاد بدافزار از سال 1789 تولید کند که شامل تکنیکهای مدرن بود.
این آسیبپذیری بهطور گسترده تأثیرگذار است، چرا که از آن برای نفوذ به مدلهای دیگر مانند Gemini AI گوگل هم استفاده شده است، هرچند نتایج بهاندازه ChatGPT موفقیتآمیز نبودهاند.
در حال حاضر، OpenAI به این مشکل آگاه است و بر روی آن کار میکند تا امنیت مدلهای خود را بهبود بخشد، اما هنوز هم برخی از اقدامات پیشگیرانه در برابر این حملات مؤثر نیستند. در حالی که تلاشهایی برای اصلاح این نقص صورت گرفته، همچنان این آسیبپذیری وجود دارد و مدلها قادر به ارائه اطلاعات حساس در برخی شرایط خاص هستند.
این مشکل بهطور جدی میتواند برای امنیت ملی و اطلاعات حساس تهدید ایجاد کند، چرا که میتواند بهراحتی از طریق پرسشهایی که سردرگمی زمانی ایجاد میکنند، سیستمهای امنیتی را دور بزند. Kuszmar و تیم BleepingComputer آزمایشهایی انجام دادهاند که موفقیتآمیز بوده و همچنین در گزارش خود نشان دادهاند که حتی سازمانهایی مانند CISA نیز نتواستهاند سریعاً به حل این مسئله کمک کنند.