به گزارش پایگاه خبری فضای مجازی ایران فیمنا؛ با توجه به پیشرفت‌های حاصل شده در زمینه هوش مصنوعی و به کارگیری آن در امنیت سایبری، واژه‌ی یادگیری ماشینی یکی از اصلی‌ترین مفاهیم امنیتی را سال ۲۰۱۷ دارد؛ اما دشمنی که به اندازه‌ی کافی هوشمند باشد، می‌تواند از الگوریتم‌های این فناوری سوءاستفاده کرده و کیفیت تصمیم‌های گرفته شده را کاهش دهد.
دوبراه فرینک (Deborah Frincke)، مدیر اداره‌ی تحقیقات مرکز خدمات امنیتی سازمان امنیت ملی آمریکا۱ گفت: «هم‌اکنون نگرانی‌هایی در مورد احتمال پیدایش دشمنی که قادر باشد در یک محیط بزرگ از داده‌ها، آن را با اطلاعات غلط فریب بدهد وجود دارد.»
فرینک در مورد الگوریتم یادگیری ماشینی رقیب۲ (Adversarial machine learning) گفت: «یک حوزه مطالعاتی جدید بوده و شاهد آن هستیم که تا حدی به طور طبیعی در حال پیشرفت است. شاید معقول باشد اگر به استمرار این مسیر باور داشته باشیم»
به عنوان مثال یک سازمان ممکن است تصمیم بگیرد از یادگیری ماشینی برای توسعه یک سامانه‌ی خود تشخیصی با قابلیت رفع آسیب‌پذیری‌ها در شبکه‌ی خود استفاده کند؛ اما چه اتفاقی رخ می‌دهد اگر یک مهاجم بتواند به شبکه نفوذ کند؟ یا حتی قبل از شروع پردازش الگوریتم یاد شده در شبکه حضور داشته باشد؟
فرینک گفت: «رفتار هکرها هم‌اکنون به بخشی از یک هنجار تبدیل شده است؛ در نتیجه فعالیتی که من برای محافظت از سامانه‌ی خود انجام می‌دهم به یک چالش تبدیل می‌گردد. نکته‌ی جالب‌تر این است که اگر شما از یک الگوریتم داده محور برای تغذیه‌ی یادگیری ماشینی استفاده می‌کنید؛ حتی اگر داده‌های اصلی را نگاه‌دارید، نمی‌توانید متوجه شوید چه رویکردی برای الگوریتم مذکور ایجاد شده است.»
تحلیلگران معتقدند یادگیری ماشینی نیز با محدودیت‌هایی همراه است. به عنوان مثال تام درامُند (Tom Drummond) استاد دانشگاه مانش استرالیا (Monash University)، در سال ۲۰۱۶ اشاره کرد شبکه‌های عصبی که اساس یادگیری ماشینی محسوب می‌شود، می‌توانند گمراه شوند، مگر اینکه به آن‌ها گفته شود چرا در اشتباه هستند و مسیر درست کدام است.
برای اشاره به نمونه‌ی کلاسیک دیگری از این مشکل، می‌توان به بخشی از گزارش نیل فراسر (Neil Fraser) با عنوان «حماقت شبکه‌ی عصبی» (Neural Network Follies) در سال ۱۹۹۸ اشاره کرد.
بر اساس گزارش یاد شده وزارت دفاع آمریکا از دهه‌ی ۸۰ در تلاش است از شبکه‌ی عصبی برای تشخیص تهدیدات استفاده کنند. به عنوان مثال می‌توان از شناسایی تانک‌های پنهان شده‌ی دشمن در پشت درخت نام برد. محققان، این شبکه را با دو دسته از تصاویر آموزش دادند. دسته‌ی اول تصاویری از درختانی هستند که پشت آن‌ها تانکی قرار داشته و دیگر عکس‌ها مربوط به درختانی بدون حضور تانک می‌شد؛ اما زمانی که سامانه مورد استفاده قرار گرفت با شکست سنگینی مواجه گشت.
فراسر در مقاله‌ی یاد شده نوشته است: «بعد از انجام بررسی‌های گسترده، در نهایت فردی متوجه شد تمام ۲۰۰ تصویری که تانک در آن حضور داشت در روزی ابری گرفته شده‌اند؛ این در حالی است که دیگر تصاویر را در روزی آفتابی ثبت کرده‌اند. در حال حاضر ارتش دارای ابر رایانه‌ای به ارزش چندین میلیون دلاری است که می‌تواند تشخیص دهد هوا ابری است یا آفتابی.»
در زمان سخنرانی فرینک در اجلاس مرکز امنیت سایبری استرالیا (ACSC۳) در کانبرا در مورد محدودیت‌های یادگیری ماشینی صحبت کرد. وی همچنین به تشریح چند راه بردی که از نظر سازمان سیا مؤثر هستند، پرداخت.
برای نمونه سازمان‌ها می‌توانند با پنهان کردن توان یادگیری ماشینی خود از دشمن قدرت امنیت سایبری خود را متعادل سازند.
به صورت طبیعی دفاع از شبکه‌ها حالتی نامتقارن دارد. امنیت سایبری بسیار نامتعادل است؛ زیرا کارشناسان باید در برابر تمام تهدیدات امنیت ایستاده و آن‌ها را بررسی کنند؛ اما هکرها تنها روی حمله‌ی خود متمرکز می‌شوند.
مدیر اداره‌ی تحقیقات ادامه داد: «در مواجهه با هکرها باید کاری وجود داشته باشد که بتوان انجام داد و این‌طور تصور می‌کنید که احتمالاً از مزیت بازی در زمین خانگی برخوردار خواهید بود.»
به طور معمول سازمان‌ها در تلاش هستند، سامانه‌های اطلاعاتی خود را تا حد امکان کارآمد نگاه داشته و هر چه بیشتر شبکه را کنترل کند؛ اما از دیدگاه یک مهاجم پیش‌بینی رویدادهای داخل شبکه، در هر لحظه بسیار ساده است.
رویکرد فریب در دفاع (defensive deception approach) به معنی ایجاد ظرفیت اضافی برای طراحی رویکردهایی متغیر است تا مهاجمان را گمراه کند. در واقع باعث می‌شود یک هکر در زمان حمله متوجه نشود داده‌های موجود واقعی است یا خیر و عملکردی مشابه هانیپات (honeypot) دارد.
به عنوان مثال می‌توان به پردازش داده‌ها در یک محیط ابری اشاره کرد. در این روش احتمالاً داده‌های تکراری در سراسر بسیاری از گره‌های شبکه به وجود آمده و کاربر در زمان استفاده، بین آن‌ها سوییچ می‌کند.
فرینک خاطر نشان کرد: «اگر شما سعی کنید حمله‌ای یک پارچه انجام بدهید، نمی‌توانید تشخیص دهید که من از کدام‌یک از صدها گره‌ی موجود استفاده می‌کنم. ممکن است که من در حال کار در یک زیرمجموعه از گره‌ها باشم و شما نتوانید آن را پیدا کنید. در نتیجه باید تمام گره‌ها را در یک زمان و با یکدیگر تغییر بدهید؛ اما این کار بسیار سخت است.»
وی اشاره کرد رویکردهای بالا می‌تواند احتمال تشخیص مهاجم‌ها را افزایش بدهد.
مدیر اداره‌ی تحقیقات مرکز خدمات امنیتی سازمان امنیت ملی آمریکا گفت: «ما می‌توانیم هکرها را به سمت نتایج غلط راهنمایی کنیم. ما در حال تلاش برای سخت‌تر شدن کار و ساده شدن شناسایی آن‌ها هستیم.»

_____________________________________

۱- Research Directorate (RD) of the US National Security Agency/Central Security Service
۲- یادگیری ماشینی رقیب یک زمینه‌ی تحقیقاتی مشترک بین یادگیری ماشینی و امنیت رایانه‌ها است. هدف این زمینه‌ی تحقیقاتی تصویب  اتخاذ امن روش‌های یادگیری ماشینی برای کارهایی مانند فیلتر کردن هرزنامه‌ها، بدافزارها و احراز هویت بیومتریک است.
۳- Australian Cyber Security Centre

/سایبربان