دانش و فناوری > فناوری اطلاعات و ارتباطات

هشدار درباره نقش‌آفرینی هوش مصنوعی در حملات سایبری جدید



به گزارش خبرنگار مهر؛ در حالی که جوامع فناورانه با شتاب روزافزون در حال بهره‌گیری از عامل‌های هوش مصنوعی برای تسهیل امور روزمره، ساماندهی کارها، افزایش کارایی فردی و سازمانی و بهینه‌سازی فرآیندهای تصمیم‌گیری هستند، در آن سوی این تحولات امیدبخش، تهدیدی نگران‌کننده در حال شکل‌گیری است که می‌تواند امنیت دیجیتال جهانی را به‌چالش بکشد. کارشناسان امنیت سایبری هشدار می‌دهند عامل‌هایی که اکنون به‌عنوان دستیاران هوشمند در خدمت کاربران قرار گرفته‌اند، می‌توانند در سناریویی معکوس، نقش عاملان نفوذگر و بازیگران مخرب سایبری را ایفا کرده و با بهره‌گیری از قدرت تحلیل، استدلال و خودگردانی، حملات پیچیده، هدفمند و مقیاس‌پذیر سایبری را اجرایی کنند.

تفاوت عامل‌ها با ابزارهای خودکار پیشین در سطح عملکرد آن‌هاست. بات‌ها صرفاً دستورات تکراری و اسکریپت‌محور اجرا می‌کردند اما عامل‌های امروزی می‌توانند متناسب با هدف، روش حمله را طراحی و به‌صورتی پویا مسیر خود را تغییر دهند. این توانایی‌ها، تهدید کیفی جدیدی برای زیست‌بوم دیجیتال به‌وجود آورده‌اند. هدف این نوشتار کوتاه، ارائه تصویری جامع و مستند از این تهدید نوظهور است؛ تهدیدی که با استناد به شواهد تجربی، تحلیل کارشناسان و داده‌های پروژه‌های پژوهشی معتبر، مورد واکاوی قرار خواهد گرفت.

عامل‌های هوش مصنوعی: گامی فراتر از بات‌ها

عامل‌های هوش مصنوعی برخلاف بات‌های سنتی، تنها مجموعه‌ای از دستورات خطی نیستند که در پاسخ به ورودی‌های مشخص، خروجی‌های معین تولید کنند. آن‌ها سیستم‌هایی پیچیده و پویا هستند که به واسطه برخورداری از توانایی‌هایی چون برنامه‌ریزی، استدلال، تصمیم‌گیری مستقل و یادگیری از محیط، می‌توانند وظایف پیچیده‌ای را بدون دخالت مستقیم انسان انجام دهند. این قابلیت‌ها، آن‌ها را به ابزارهایی چندمنظوره و بالقوه خطرناک در حوزه امنیت سایبری تبدیل می‌کند.

در چشم‌انداز تهدیدات سایبری، عامل‌ها قادرند با تحلیل پیشرفته ساختار شبکه‌ها، شناسایی آسیب‌پذیری‌های فنی، بهره‌گیری از ضعف‌های رفتاری کاربران و به‌کارگیری تکنیک‌های پیشرفته مهندسی اجتماعی، حملاتی هدفمند، خودگردان و تطبیق‌پذیر را اجرا کنند. این حملات شامل نفوذ به سیستم‌ها، استخراج داده‌های حساس، تخریب یا تغییر اطلاعات و حتی تسلط بر سیستم‌های کنترل صنعتی می‌شوند.

بر اساس گزارش سال ۲۰۲۵ شرکت «Malwarebytes»، ظهور «عامل‌های مهاجم» به‌عنوان یکی از مهم‌ترین تهدیدات نوظهور امنیتی شناسایی شده است. این عامل‌ها، برخلاف بات‌های رایج که به‌واسطه اسکریپت‌های ایستا عمل می‌کنند از انعطاف‌پذیری بالا و توانایی سازگاری با محیط برخوردارند. آن‌ها می‌توانند در صورت مواجهه با موانع پیش‌بینی‌نشده، مسیر حمله خود را تغییر دهند یا استراتژی جدیدی اتخاذ کنند.

دیمیتری وولکوف، پژوهشگر ارشد مؤسسه «Palisade Research»، در این زمینه گفت: «عامل‌ها نه‌تنها قادر به تحلیل معماری هدف و انتخاب مؤثرترین روش نفوذ هستند، بلکه می‌توانند با شبیه‌سازی رفتار انسانی، شناسایی توسط سیستم‌های امنیتی را دور بزنند؛ قابلیتی که فراتر از توانایی‌های بات‌های اسکریپت‌محور سنتی است.»

شواهد تجربی از قدرت عامل‌های هوش مصنوعی

پژوهشگران شرکت آنتروپیک در آزمایشی به این نتیجه رسیدند که مدل زبانی کلاد، یکی از پیشرفته‌ترین مدل‌های زبان طبیعی، توانسته است به شکل موفقیت‌آمیزی یک حمله سایبری طراحی‌شده برای سرقت اطلاعات حساس را شبیه‌سازی و بازتولید کند. این حمله شامل شناسایی اطلاعات هدف، استخراج داده‌های خاص و اجرای دستوراتی برای انتقال اطلاعات بدون جلب توجه سیستم‌های نظارتی بود. آن چه این آزمایش را مهم می‌سازد، توان کلاد در تحلیل مراحل حمله، درک هدف نهایی و پیاده‌سازی زنجیره حمله بدون راهنمایی مستقیم انسان بود؛ قابلیتی که عامل‌ها را به ابزارهایی بالقوه خطرناک در دست مهاجمان سایبری تبدیل می‌کند.

همچنین در نمونه‌ای دیگر، تیم تحقیقاتی مؤسسه «Palisade Research» پروژه‌ای نوآورانه با عنوان «LLM Agent Honeypot» راه‌اندازی کرده‌اند که به‌عنوان یک محیط آزمایشی واقعی برای شناسایی و تحلیل فعالیت‌های عامل‌های مهاجم عمل می‌کند. در این پروژه، سرورهایی با ظاهر و ساختار جذاب برای مهاجمان، نظیر داده‌های نظامی، دولتی و اطلاعات طبقه‌بندی‌شده، به‌صورت جعلی و هدفمند طراحی شده‌اند تا عامل‌های هوش مصنوعی را به خود جذب کنند. این سیستم از زمان راه‌اندازی تاکنون بیش از ۱۱ میلیون تلاش برای دسترسی را ثبت کرده است.

روش شناسایی عامل‌های هوش مصنوعی در این پروژه بر اساس تکنیکی نوآورانه و دقیق طراحی شده بود که به‌ویژه توانمندی‌های شناختی و سرعت پاسخ‌دهی عامل‌ها را هدف قرار می‌داد. این روش مبتنی بر تزریق دستورات خاص (Prompt Injection) به سیستم بود؛ روشی که در آن، ورودی‌هایی خاص به بازدیدکنندگان سرورهای هانی پات داده می‌شود تا بر اساس واکنش آن‌ها، ماهیت بازدیدکننده مشخص شود.

فلسفه پشت این سنجش، تمایز میان عملکرد انسان‌ها و مدل‌های زبانی پیشرفته است. در حالی که کاربران انسانی معمولاً برای خواندن دستور، تحلیل آن و پاسخ‌گویی حداقل چند ثانیه زمان نیاز دارند، مدل‌های زبانی مانند «GPT» یا کلاد قادرند طی کمتر از یک و نیم ثانیه کل فرایند را انجام دهند. این اختلاف زمانی، به‌عنوان معیاری دقیق برای جداسازی عامل‌های انسانی از عامل‌های هوش مصنوعی مورد استفاده قرار گرفت و نقش مهمی در ارزیابی اثربخشی روش‌های تشخیص تهدیدات نوین ایفا کرد.

از شناسایی تا مقابله با تهدیدات سایبری

پژوهشگران پروژه مذکور در تلاش‌اند تا دامنه آزمایش و پایش فعالیت‌های عامل‌های هوش مصنوعی را از محیط‌های کنترل‌شده و محدود سروری به حوزه‌های بازتر و گسترده‌تری مانند رسانه‌های اجتماعی، وب‌سایت‌های عمومی و پایگاه‌های داده قابل‌دسترسی عمومی گسترش دهند. این گسترش نه‌تنها دامنه تحلیل تهدیدات را افزایش می‌دهد، بلکه به کشف الگوهای رفتاری عامل‌ها در محیط‌هایی با تعامل انسانی واقعی و ساختارهای پیچیده‌تر کمک می‌کند.

در همین راستا، تیمی از دانشگاه ایلینوی به رهبری دکتر دانیل کانگ، اقدام به توسعه یک معیار استاندارد برای ارزیابی توان عامل‌ها در شناسایی و بهره‌برداری از آسیب‌پذیری‌های واقعی کرده‌اند. این معیار، شامل مجموعه‌ای از سناریوهای آزمون‌شده و واقع‌گرایانه است که در آن عامل‌ها باید بدون برخورداری از اطلاعات پیشین یا دانش تخصصی، آسیب‌پذیری‌های امنیتی را کشف و از آن‌ها بهره‌برداری کنند. این چارچوب با هدف ایجاد یک معیار سنجش‌پذیر برای مقایسه عملکرد عامل‌های مختلف طراحی شده است.

یافته‌های اولیه این پروژه نیز حاکی از آن است که عامل‌ها توانسته‌اند در حدود ۱۳ درصد موارد، بدون هیچ‌گونه داده آموزشی یا راهنمایی پیشین، آسیب‌پذیری‌های واقعی را شناسایی و از آن‌ها سوءاستفاده کنند. جالب‌تر آن‌که وقتی به این عامل‌ها تنها یک توصیف کوتاه از ماهیت آسیب‌پذیری ارائه شد، نرخ موفقیت آن‌ها تا ۲۵ درصد افزایش یافت. این نتایج نه‌تنها قدرت تحلیلی و تطبیقی بالای عامل‌های هوش مصنوعی را نشان می‌دهد، بلکه زنگ خطری برای جامعه امنیت سایبری به شمار می‌رود و هشدار می‌دهد عامل‌های هوشمند، حتی بدون آموزش صریح، می‌توانند در مقیاسی گسترده به تهدیدات بالفعل تبدیل شوند.

سناریوی آینده: جرم به‌عنوان سرویس

مارک استاکلی، کارشناس امنیت شرکت «Malwarebytes»، هشدار می‌دهد که در آینده‌ای نه‌چندان دور، «اکثر حملات سایبری توسط عامل‌های هوش مصنوعی اجرا خواهند شد». استفاده از عامل‌ها برای انتخاب اهداف، می‌تواند موجب افزایش مقیاس حملات با صرف هزینه و نیروی انسانی کمتر شود. به عنوان نمونه، حملات باج‌افزاری که تاکنون نیازمند تخصص بالای انسانی بوده‌اند، ممکن است در آینده به‌راحتی به عامل‌ها واگذار شوند؛ موضوعی که چشم‌انداز امنیت سایبری را دگرگون می‌سازد.

به‌گفته استاکلی، «اگر بتوان یک حمله موفق را با یک عامل پیاده‌سازی کرد، بازتولید آن در مقیاس ۱۰۰ برابر تنها به منابع مالی بستگی دارد.» به‌عبارت دیگر، استفاده مجرمانه از عامل‌ها می‌تواند مفهوم «جرم به‌عنوان سرویس» را به‌طور کامل متحول سازد.

ابهام و فوریت در سیاست‌گذاری

کارشناسانی مانند وینچنزو چیانچاگلینی از شرکت «Trend Micro»، در واکنش به نگرانی فزاینده از توسعه عامل‌های هوش مصنوعی، معتقدند که ما در آغاز دورانی مشابه دوران ابتدایی عرضه «ChatGPT» در حوزه هوش مصنوعی هستیم، با این تفاوت که تهدیدات عامل‌ها می‌توانند به‌شکلی ناگهانی و بدون هشدار قبلی بروز یابند. به گفته او، «شاید در ابتدا از عامل‌ها تنها برای جمع‌آوری اطلاعات استفاده شود، اما این امکان وجود دارد که آن‌ها یک‌شبه وارد مرحله اجرای کامل زنجیره حمله شوند.»

کریس بتز، مدیر ارشد امنیت اطلاعات در شرکت خدمات وب آمازون، تاکید می‌کند که اگرچه عامل‌ها روند اجرای حملات را تسریع می‌کنند، اما ماهیت اصلی حملات همچنان مشابه باقی می‌ماند. او می‌گوید: «برخی حملات ممکن است ساده‌تر و در نتیجه فراوان‌تر شوند، اما اصول شناسایی و پاسخ به آن‌ها همچنان پابرجاست.» این نگاه می‌تواند نقطه اتکایی برای توسعه راهکارهای دفاعی مبتنی بر اصول فعلی باشد.

ماهیت دوگانه عوامل هوش مصنوعی در حمله و دفاع سایبری

در کنار نگرانی‌های موجود درباره تهدیدات ناشی از عامل‌های هوش مصنوعی، برخی پژوهشگران چشم‌انداز متفاوتی را مطرح می‌کنند که ناظر بر استفاده از همین فناوری برای دفاع از سیستم‌ها و تقویت امنیت سایبری است. ادواردو دبندتی، پژوهشگر دکترای دانشگاه «ETH» زوریخ، معتقد است همان ویژگی‌هایی که عامل‌ها را برای مهاجمان جذاب کرده‌اند، می‌توانند در خدمت افزایش تاب‌آوری و ایمن‌سازی زیرساخت‌های دیجیتال قرار گیرند.

وی به یک اصل کلیدی در امنیت اشاره می‌کند: «اگر یک عامل دفاعی با سطح قابلیت بالا نتواند هیچ‌گونه آسیب‌پذیری را در سامانه مشخصی بیابد، به احتمال زیاد عامل مهاجم با قابلیت مشابه نیز نخواهد توانست.» این نگاه، اساس طراحی ابزارهای جدید پیشگیرانه را شکل می‌دهد که در آن عامل‌های مدافع به‌طور مستمر سامانه‌ها را بررسی کرده، رفتارهای غیرعادی را شناسایی نموده و با اتخاذ راهبردهای پیش‌دستانه، از وقوع حملات جلوگیری می‌کنند.

این رویکرد نه‌تنها به توسعه سامانه‌های هوشمند واکنشی کمک می‌کند، بلکه می‌تواند مبنایی برای طراحی سامانه‌های ایمن به‌صورت پیش‌فرض (secure by design) فراهم آورد. عامل‌های دفاعی می‌توانند مانند یک تیم بازرسی خودکار عمل کرده و به‌صورت شبانه‌روزی محیط سیستم را برای نشانه‌های نفوذ، پویش یا سوءاستفاده بررسی کنند. این مدل از دفاع فعال، می‌تواند توازن قوا را در میدان نبرد دیجیتال به‌نفع مدافعان تغییر دهد.

سخن پایانی

به زعم طیف گسترده‌ای از متخصصان، عامل‌های هوش مصنوعی در حال تبدیل شدن به بازیگران جدید و پرقدرت در عرصه امنیت سایبری هستند. در حالی که برخی از کاربردهای آن‌ها در مراحل آزمایشی قرار دارد، شواهد نشان می‌دهد که توانایی آن‌ها در اجرای حملات پیچیده و خودگردان واقعی و در حال رشد است. نهادهای سیاست‌گذار، پژوهشگران و شرکت‌های امنیت سایبری در چنین شرایطی باید با درک عمیق از این تحولات، به‌سرعت به توسعه معیارهای نظارتی، ابزارهای دفاعی پیشرفته و چارچوب‌های اخلاقی اقدام کنند. غفلت در این زمینه می‌تواند به فجایع امنیتی منجر شود که مقابله با آن‌ها نیازمند منابع و زمانی چندبرابر خواهد بود.

در نهایت، می‌توان نتیجه گرفت که توسعه فناوری باید هم‌زمان با گسترش مسئولانه سازوکارهای نظارت، دفاع و آموزش کاربران همراه باشد. عصر جدیدی در امنیت سایبری آغاز شده است؛ عصری که عامل‌های هوشمند، هم می‌توانند مدافع باشند و هم مهاجم. تصمیم اینکه کدام‌یک از این نقش‌ها غالب شود، در گروی انتخاب‌های امروز جامعه جهانی است.



منبع:مهر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا