جامعه, گوناگون

هوش مصنوعی GPT-4 به جنگ حفره‌های امنیتی ناشناخته می‌رود

محققان با به‌کارگیری تیم‌های خودکار ربات‌های GPT-4 و استفاده از روش‌های ناشناخته و واقعی روز صفر به بیش از نیمی از وب‌سایت‌های آزمایشی نفوذ کردند.

Print Friendly, PDF & Email
کد خبر : 16983
یکشنبه 20 خرداد 1403 - 19:41

دو ماه پیش، گروهی از محققان مقاله‌ای منتشر کردند که نشان می‌داد از GPT-4 برای هک خودکار آسیب‌پذیری‌های یک‌روزه استفاده کرده‌اند. این نوع آسیب‌پذیری‌ها نقص‌های امنیتی شناخته‌شده‌ای هستند که هنوز برای آن‌ها راه‌حلی ارائه نشده است. در‌صورت ارائه‌ی فهرست آسیب‌پذیری‌های رایج (CVE)، GPT-4 به‌طور مستقل ۸۷ درصد از این نوع آسیب‌پذیری‌های بحرانی را هک کرد.

طبق گزارش نیو اطلس، در هفته‌ی جاری، همان گروه از محققان مقاله‌ی دیگری منتشر کردند که نشان می‌دهد با استفاده از گروهی از مدل‌های زبان بزرگ (LLM) خودکار و خودتکثیرشونده و روش برنامه‌ریزی سلسله‌مراتبی با عاملان خاص وظیفه (HPTSA)، به آسیب‌پذیری‌های روز صفر نفوذ کرده‌اند.

بر‌خلاف روش سنتی که در آن مدل LLM واحدی برای حل وظایف پیچیده متعدد به‌کار گرفته می‌شود، HPTSA از عامل برنامه‌ریزی استفاده می‌کند که کل فرایند را نظارت و چندین زیرعامل را برای انجام وظایف خاص راه‌اندازی می‌کند.

این روش به رابطه‌ی رئیس و زیردستانش شبیه است؛ به‌طوری‌که عامل برنامه‌ریزی با عامل مدیریت هماهنگ می‌شود و وظایف هر زیرعامل متخصص را به آن‌ها واگذار می‌کند. این امر بار وظایف را از روی دوش عامل واحد برمی‌دارد و از بروز مشکل در انجام وظایف پیچیده جلوگیری می‌کند.

تکنیک مذکور به روشی شباهت دارد که Cognition Labs در تیم توسعه‌ی نرم‌افزار هوش مصنوعی Devin خود از آن استفاده می‌کند. در این روش، کار برنامه‌ریزی‌شده و نوع کارگران موردنیاز برای انجام آن مشخص می‌شود. سپس، کار تا زمان تکمیل به‌طور کامل مدیریت می‌شود و در‌صورت نیاز، متخصصان جدیدی برای انجام وظایف خاص به کار گرفته می‌شوند.

در‌مقایسه‌با ۱۵ آسیب‌پذیری واقعی وب‌محور، HPTSA در‌این‌میان ۵۵۰ درصد کارآمدتر از LLM واحد در سوءاستفاده از آسیب‌پذیری‌ها نشان داده و توانسته است به ۸ مورد از ۱۵ آسیب‌پذیری روز صفر نفوذ کند. تلاش LLM انفرادی، تنها به ۳ مورد از ۱۵ آسیب‌پذیری نفوذ کرده بود.

نگرانی منطقی آن است که این مدل‌ها به کاربران اجازه دهند تا به‌طور مخربانه به وب‌سایت‌ها و شبکه‌ها حمله کنند. دانیل کانگ، یکی از محققان و نویسنده مقاله، به‌طور خاص اشاره کرد که در حالت چت‌بات، GPT-4 برای درک قابلیت‌های LLM کافی نیست و به‌تنهایی نمی‌تواند فرایند هک را انجام دهد.

منبع: تکناک

Print Friendly, PDF & Email

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *