هشدار درباره نقشآفرینی هوش مصنوعی در حملات سایبری جدید
به گزارش خبرنگار مهر؛ در حالی که جوامع فناورانه با شتاب روزافزون در حال بهرهگیری از عاملهای هوش مصنوعی برای تسهیل امور روزمره، ساماندهی کارها، افزایش کارایی فردی و سازمانی و بهینهسازی فرآیندهای تصمیمگیری هستند، در آن سوی این تحولات امیدبخش، تهدیدی نگرانکننده در حال شکلگیری است که میتواند امنیت دیجیتال جهانی را بهچالش بکشد. کارشناسان امنیت سایبری هشدار میدهند عاملهایی که اکنون بهعنوان دستیاران هوشمند در خدمت کاربران قرار گرفتهاند، میتوانند در سناریویی معکوس، نقش عاملان نفوذگر و بازیگران مخرب سایبری را ایفا کرده و با بهرهگیری از قدرت تحلیل، استدلال و خودگردانی، حملات پیچیده، هدفمند و مقیاسپذیر سایبری را اجرایی کنند.
تفاوت عاملها با ابزارهای خودکار پیشین در سطح عملکرد آنهاست. باتها صرفاً دستورات تکراری و اسکریپتمحور اجرا میکردند اما عاملهای امروزی میتوانند متناسب با هدف، روش حمله را طراحی و بهصورتی پویا مسیر خود را تغییر دهند. این تواناییها، تهدید کیفی جدیدی برای زیستبوم دیجیتال بهوجود آوردهاند. هدف این نوشتار کوتاه، ارائه تصویری جامع و مستند از این تهدید نوظهور است؛ تهدیدی که با استناد به شواهد تجربی، تحلیل کارشناسان و دادههای پروژههای پژوهشی معتبر، مورد واکاوی قرار خواهد گرفت.
عاملهای هوش مصنوعی: گامی فراتر از باتها
عاملهای هوش مصنوعی برخلاف باتهای سنتی، تنها مجموعهای از دستورات خطی نیستند که در پاسخ به ورودیهای مشخص، خروجیهای معین تولید کنند. آنها سیستمهایی پیچیده و پویا هستند که به واسطه برخورداری از تواناییهایی چون برنامهریزی، استدلال، تصمیمگیری مستقل و یادگیری از محیط، میتوانند وظایف پیچیدهای را بدون دخالت مستقیم انسان انجام دهند. این قابلیتها، آنها را به ابزارهایی چندمنظوره و بالقوه خطرناک در حوزه امنیت سایبری تبدیل میکند.
در چشمانداز تهدیدات سایبری، عاملها قادرند با تحلیل پیشرفته ساختار شبکهها، شناسایی آسیبپذیریهای فنی، بهرهگیری از ضعفهای رفتاری کاربران و بهکارگیری تکنیکهای پیشرفته مهندسی اجتماعی، حملاتی هدفمند، خودگردان و تطبیقپذیر را اجرا کنند. این حملات شامل نفوذ به سیستمها، استخراج دادههای حساس، تخریب یا تغییر اطلاعات و حتی تسلط بر سیستمهای کنترل صنعتی میشوند.
بر اساس گزارش سال ۲۰۲۵ شرکت «Malwarebytes»، ظهور «عاملهای مهاجم» بهعنوان یکی از مهمترین تهدیدات نوظهور امنیتی شناسایی شده است. این عاملها، برخلاف باتهای رایج که بهواسطه اسکریپتهای ایستا عمل میکنند از انعطافپذیری بالا و توانایی سازگاری با محیط برخوردارند. آنها میتوانند در صورت مواجهه با موانع پیشبینینشده، مسیر حمله خود را تغییر دهند یا استراتژی جدیدی اتخاذ کنند.
دیمیتری وولکوف، پژوهشگر ارشد مؤسسه «Palisade Research»، در این زمینه گفت: «عاملها نهتنها قادر به تحلیل معماری هدف و انتخاب مؤثرترین روش نفوذ هستند، بلکه میتوانند با شبیهسازی رفتار انسانی، شناسایی توسط سیستمهای امنیتی را دور بزنند؛ قابلیتی که فراتر از تواناییهای باتهای اسکریپتمحور سنتی است.»
شواهد تجربی از قدرت عاملهای هوش مصنوعی
پژوهشگران شرکت آنتروپیک در آزمایشی به این نتیجه رسیدند که مدل زبانی کلاد، یکی از پیشرفتهترین مدلهای زبان طبیعی، توانسته است به شکل موفقیتآمیزی یک حمله سایبری طراحیشده برای سرقت اطلاعات حساس را شبیهسازی و بازتولید کند. این حمله شامل شناسایی اطلاعات هدف، استخراج دادههای خاص و اجرای دستوراتی برای انتقال اطلاعات بدون جلب توجه سیستمهای نظارتی بود. آن چه این آزمایش را مهم میسازد، توان کلاد در تحلیل مراحل حمله، درک هدف نهایی و پیادهسازی زنجیره حمله بدون راهنمایی مستقیم انسان بود؛ قابلیتی که عاملها را به ابزارهایی بالقوه خطرناک در دست مهاجمان سایبری تبدیل میکند.
همچنین در نمونهای دیگر، تیم تحقیقاتی مؤسسه «Palisade Research» پروژهای نوآورانه با عنوان «LLM Agent Honeypot» راهاندازی کردهاند که بهعنوان یک محیط آزمایشی واقعی برای شناسایی و تحلیل فعالیتهای عاملهای مهاجم عمل میکند. در این پروژه، سرورهایی با ظاهر و ساختار جذاب برای مهاجمان، نظیر دادههای نظامی، دولتی و اطلاعات طبقهبندیشده، بهصورت جعلی و هدفمند طراحی شدهاند تا عاملهای هوش مصنوعی را به خود جذب کنند. این سیستم از زمان راهاندازی تاکنون بیش از ۱۱ میلیون تلاش برای دسترسی را ثبت کرده است.
روش شناسایی عاملهای هوش مصنوعی در این پروژه بر اساس تکنیکی نوآورانه و دقیق طراحی شده بود که بهویژه توانمندیهای شناختی و سرعت پاسخدهی عاملها را هدف قرار میداد. این روش مبتنی بر تزریق دستورات خاص (Prompt Injection) به سیستم بود؛ روشی که در آن، ورودیهایی خاص به بازدیدکنندگان سرورهای هانی پات داده میشود تا بر اساس واکنش آنها، ماهیت بازدیدکننده مشخص شود.
فلسفه پشت این سنجش، تمایز میان عملکرد انسانها و مدلهای زبانی پیشرفته است. در حالی که کاربران انسانی معمولاً برای خواندن دستور، تحلیل آن و پاسخگویی حداقل چند ثانیه زمان نیاز دارند، مدلهای زبانی مانند «GPT» یا کلاد قادرند طی کمتر از یک و نیم ثانیه کل فرایند را انجام دهند. این اختلاف زمانی، بهعنوان معیاری دقیق برای جداسازی عاملهای انسانی از عاملهای هوش مصنوعی مورد استفاده قرار گرفت و نقش مهمی در ارزیابی اثربخشی روشهای تشخیص تهدیدات نوین ایفا کرد.
از شناسایی تا مقابله با تهدیدات سایبری
پژوهشگران پروژه مذکور در تلاشاند تا دامنه آزمایش و پایش فعالیتهای عاملهای هوش مصنوعی را از محیطهای کنترلشده و محدود سروری به حوزههای بازتر و گستردهتری مانند رسانههای اجتماعی، وبسایتهای عمومی و پایگاههای داده قابلدسترسی عمومی گسترش دهند. این گسترش نهتنها دامنه تحلیل تهدیدات را افزایش میدهد، بلکه به کشف الگوهای رفتاری عاملها در محیطهایی با تعامل انسانی واقعی و ساختارهای پیچیدهتر کمک میکند.
در همین راستا، تیمی از دانشگاه ایلینوی به رهبری دکتر دانیل کانگ، اقدام به توسعه یک معیار استاندارد برای ارزیابی توان عاملها در شناسایی و بهرهبرداری از آسیبپذیریهای واقعی کردهاند. این معیار، شامل مجموعهای از سناریوهای آزمونشده و واقعگرایانه است که در آن عاملها باید بدون برخورداری از اطلاعات پیشین یا دانش تخصصی، آسیبپذیریهای امنیتی را کشف و از آنها بهرهبرداری کنند. این چارچوب با هدف ایجاد یک معیار سنجشپذیر برای مقایسه عملکرد عاملهای مختلف طراحی شده است.
یافتههای اولیه این پروژه نیز حاکی از آن است که عاملها توانستهاند در حدود ۱۳ درصد موارد، بدون هیچگونه داده آموزشی یا راهنمایی پیشین، آسیبپذیریهای واقعی را شناسایی و از آنها سوءاستفاده کنند. جالبتر آنکه وقتی به این عاملها تنها یک توصیف کوتاه از ماهیت آسیبپذیری ارائه شد، نرخ موفقیت آنها تا ۲۵ درصد افزایش یافت. این نتایج نهتنها قدرت تحلیلی و تطبیقی بالای عاملهای هوش مصنوعی را نشان میدهد، بلکه زنگ خطری برای جامعه امنیت سایبری به شمار میرود و هشدار میدهد عاملهای هوشمند، حتی بدون آموزش صریح، میتوانند در مقیاسی گسترده به تهدیدات بالفعل تبدیل شوند.
سناریوی آینده: جرم بهعنوان سرویس
مارک استاکلی، کارشناس امنیت شرکت «Malwarebytes»، هشدار میدهد که در آیندهای نهچندان دور، «اکثر حملات سایبری توسط عاملهای هوش مصنوعی اجرا خواهند شد». استفاده از عاملها برای انتخاب اهداف، میتواند موجب افزایش مقیاس حملات با صرف هزینه و نیروی انسانی کمتر شود. به عنوان نمونه، حملات باجافزاری که تاکنون نیازمند تخصص بالای انسانی بودهاند، ممکن است در آینده بهراحتی به عاملها واگذار شوند؛ موضوعی که چشمانداز امنیت سایبری را دگرگون میسازد.
بهگفته استاکلی، «اگر بتوان یک حمله موفق را با یک عامل پیادهسازی کرد، بازتولید آن در مقیاس ۱۰۰ برابر تنها به منابع مالی بستگی دارد.» بهعبارت دیگر، استفاده مجرمانه از عاملها میتواند مفهوم «جرم بهعنوان سرویس» را بهطور کامل متحول سازد.
ابهام و فوریت در سیاستگذاری
کارشناسانی مانند وینچنزو چیانچاگلینی از شرکت «Trend Micro»، در واکنش به نگرانی فزاینده از توسعه عاملهای هوش مصنوعی، معتقدند که ما در آغاز دورانی مشابه دوران ابتدایی عرضه «ChatGPT» در حوزه هوش مصنوعی هستیم، با این تفاوت که تهدیدات عاملها میتوانند بهشکلی ناگهانی و بدون هشدار قبلی بروز یابند. به گفته او، «شاید در ابتدا از عاملها تنها برای جمعآوری اطلاعات استفاده شود، اما این امکان وجود دارد که آنها یکشبه وارد مرحله اجرای کامل زنجیره حمله شوند.»
کریس بتز، مدیر ارشد امنیت اطلاعات در شرکت خدمات وب آمازون، تاکید میکند که اگرچه عاملها روند اجرای حملات را تسریع میکنند، اما ماهیت اصلی حملات همچنان مشابه باقی میماند. او میگوید: «برخی حملات ممکن است سادهتر و در نتیجه فراوانتر شوند، اما اصول شناسایی و پاسخ به آنها همچنان پابرجاست.» این نگاه میتواند نقطه اتکایی برای توسعه راهکارهای دفاعی مبتنی بر اصول فعلی باشد.
ماهیت دوگانه عوامل هوش مصنوعی در حمله و دفاع سایبری
در کنار نگرانیهای موجود درباره تهدیدات ناشی از عاملهای هوش مصنوعی، برخی پژوهشگران چشمانداز متفاوتی را مطرح میکنند که ناظر بر استفاده از همین فناوری برای دفاع از سیستمها و تقویت امنیت سایبری است. ادواردو دبندتی، پژوهشگر دکترای دانشگاه «ETH» زوریخ، معتقد است همان ویژگیهایی که عاملها را برای مهاجمان جذاب کردهاند، میتوانند در خدمت افزایش تابآوری و ایمنسازی زیرساختهای دیجیتال قرار گیرند.
وی به یک اصل کلیدی در امنیت اشاره میکند: «اگر یک عامل دفاعی با سطح قابلیت بالا نتواند هیچگونه آسیبپذیری را در سامانه مشخصی بیابد، به احتمال زیاد عامل مهاجم با قابلیت مشابه نیز نخواهد توانست.» این نگاه، اساس طراحی ابزارهای جدید پیشگیرانه را شکل میدهد که در آن عاملهای مدافع بهطور مستمر سامانهها را بررسی کرده، رفتارهای غیرعادی را شناسایی نموده و با اتخاذ راهبردهای پیشدستانه، از وقوع حملات جلوگیری میکنند.
این رویکرد نهتنها به توسعه سامانههای هوشمند واکنشی کمک میکند، بلکه میتواند مبنایی برای طراحی سامانههای ایمن بهصورت پیشفرض (secure by design) فراهم آورد. عاملهای دفاعی میتوانند مانند یک تیم بازرسی خودکار عمل کرده و بهصورت شبانهروزی محیط سیستم را برای نشانههای نفوذ، پویش یا سوءاستفاده بررسی کنند. این مدل از دفاع فعال، میتواند توازن قوا را در میدان نبرد دیجیتال بهنفع مدافعان تغییر دهد.
سخن پایانی
به زعم طیف گستردهای از متخصصان، عاملهای هوش مصنوعی در حال تبدیل شدن به بازیگران جدید و پرقدرت در عرصه امنیت سایبری هستند. در حالی که برخی از کاربردهای آنها در مراحل آزمایشی قرار دارد، شواهد نشان میدهد که توانایی آنها در اجرای حملات پیچیده و خودگردان واقعی و در حال رشد است. نهادهای سیاستگذار، پژوهشگران و شرکتهای امنیت سایبری در چنین شرایطی باید با درک عمیق از این تحولات، بهسرعت به توسعه معیارهای نظارتی، ابزارهای دفاعی پیشرفته و چارچوبهای اخلاقی اقدام کنند. غفلت در این زمینه میتواند به فجایع امنیتی منجر شود که مقابله با آنها نیازمند منابع و زمانی چندبرابر خواهد بود.
در نهایت، میتوان نتیجه گرفت که توسعه فناوری باید همزمان با گسترش مسئولانه سازوکارهای نظارت، دفاع و آموزش کاربران همراه باشد. عصر جدیدی در امنیت سایبری آغاز شده است؛ عصری که عاملهای هوشمند، هم میتوانند مدافع باشند و هم مهاجم. تصمیم اینکه کدامیک از این نقشها غالب شود، در گروی انتخابهای امروز جامعه جهانی است.