Дали изкуственият интелект е решението за заплахите за киберсигурността?
Технологията за изкуствен интелект е модна дума в киберсигурността от десетилетие насам — цитирана като начин за маркиране на уязвимости и разпознаване на заплахи чрез извършване на разпознаване на модели върху големи количества данни . Антивирусните продукти, например, отдавна използват AI за сканиране за злонамерен код или злонамерен софтуер и изпращане на предупреждения в реално време.
Но появата на генериращия AI, който позволява на компютрите да генерират сложно съдържание — като текст, аудио и видео - от обикновен човешки вход, предлага допълнителни възможности на киберзащитниците. Неговите защитници обещават, че ще повиши ефективността на киберсигурността, ще помогне на защитниците да започнат да реагират в реално време на заплахи и дори ще им помогне да изпреварят напълно противниците си.
„Екипите по сигурността използват AI за откриване на уязвимости и генериране сигнали за заплахи в продължение на години, но генеративният AI извежда това на друго ниво,” казва Сам Кинг, главен изпълнителен директор на групата за сигурност Veracode.
„Сега можем да използваме технологията не само за откриване на проблеми, но и за разрешите и в крайна сметка ги предотвратете на първо място.“
Голямото четенеНарастващата заплаха за демокрацията от дезинформация, задвижвана от AI
Генеративната AI технология за първи път беше насочена в светлината на прожекторите от пускането на OpenAI's ChatGPT, потребител chatbot, който отговаря на въпроси и подкани на потребителите. За разлика от технологията, която дойде преди него, генеративният AI „има адаптивна скорост на учене, разбиране на контекста и мултимодална обработка на данни и премахва по-твърдото, базирано на правила покритие на традиционния AI, увеличавайки своите възможности за сигурност“, обяснява Анди Томпсън, евангелист на офанзивните изследвания в CyberArk Labs.
И така, след една година шум около генеративния AI, изпълнени ли са тези обещания?
Вече генеративният AI се използва за създаване на конкретни модели, чатботове, или AI помощници, които могат да помогнат на човешките анализатори да открият и реагират на хакове - подобно на ChatGPT, но за киберсигурност. Microsoft стартира едно такова усилие, което нарича Security Copilot, докато Google има модел, наречен SEC Pub.
„Като обучаваме модела на всички наши данни за заплахи, всички наши най-добри практики за сигурност, всички наши знания за това как да създаваме сигурен софтуер и сигурни конфигурации, вече имаме клиенти, които го използват, за да увеличат способността си да анализират атаки и злонамерен софтуер за създаване на автоматизирани защити“, казва Фил Венейбълс, главен директор по информационна сигурност на Google Cloud.
Има много по-специфични случаи на употреба, казват експерти. Например, технологията може да се използва за симулация на атаки или за да се гарантира, че кодът на фирмата е защитен. King на Veracode казва: „Сега можете да вземете модел на GenAI и да го обучите да препоръчва автоматично корекции за несигурен код, да генерира обучителни материали за вашите екипи по сигурността и да идентифицира мерки за смекчаване в случай на идентифицирана заплаха, преминавайки отвъд простото намиране на уязвимости.“
Generative AI може също да се използва за „генериране [и] синтезиране на данни“, с които да се обучават модели за машинно обучение, казва Ганг Уанг, доцент по компютърни науки в Grainger College of Engineering на Университета на Илинойс. „Това е особено полезно за задачи по сигурността, при които данните са оскъдни или им липсва разнообразие“, отбелязва той.
Потенциалът за разработване на AI системи за киберсигурност сега стимулира сключването на сделки в кибернетичния сектор – като придобиването за 28 милиарда долара на американския производител на софтуер за сигурност Splunk от Cisco през септември. „Това придобиване отразява по-широка тенденция и илюстрира нарастващото приемане на AI от индустрията за подобрена киберзащита“, казва Кинг.
Той посочва, че тези обвързвания позволяват на придобиващия бързо да разшири своите възможности за AI, като същевременно давайки им достъп до повече данни, за да обучават ефективно своите AI модели.
Въпреки това Уанг предупреждава, че управляваната от AI киберсигурност не може „напълно да замени съществуващите традиционни методи“. За да бъдат успешни, „различните подходи се допълват, за да осигурят по-пълна представа за киберзаплахите и да предложат защита от различни гледни точки“, казва той.
В крайна сметка защитниците са тези, които имат надмощие, като се има предвид, че ние притежаваме технологията и по този начин можем да насочваме нейното развитие
Фил Венабълс, Google Cloud< /blockquote>Например, AI инструментите може да имат високи фалшиви положителни нива — което означава, че не са достатъчно точни, за да се разчита само на тях. Въпреки че може да са в състояние да идентифицират и спрат известни атаки бързо, те могат да се борят с нови заплахи, като например така наречените атаки от „нулев ден“, които са различни от стартираните в миналото.
Като реклама на AI продължава да завладява технологичния сектор, киберпрофесионалистите трябва да го внедряват внимателно, предупреждават експертите, като поддържат стандарти за поверителност и защита на данните, например. Според данните на Netskope Threat Labs чувствителните данни се споделят в генерираща AI заявка всеки час от работния ден в големи организации, което може да предостави на хакерите храна за насочване на атаки.
Стив Стоун, ръководител на Rubrik Zero Лабораториите на групата за сигурност на данните Rubrik също отбелязват появата на удобни за хакери генеративни AI чатботове като „FraudGPT“ и „WormGPT“, които са предназначени да позволят на „дори тези с минимални технически“ умения да стартират сложни кибератаки.
Някои хакери използват инструменти за изкуствен интелект, за да пишат и разгръщат измами за социално инженерство в мащаб и по по-целенасочен начин — например чрез възпроизвеждане на стила на писане на човек. Според Макс Хайнемейер, главен продуктов директор в Darktrace, компания за AI за киберсигурност, е имало 135 процента увеличение на „нови атаки за социално инженерство“ от януари до февруари 2023 г., след въвеждането на ChatGPT.
„2024 г. ще покаже как по-напреднали участници като APT [усъвършенствани постоянни заплахи], нападатели на национални държави и напреднали банди за рансъмуер са започнали да възприемат ИИ“, казва той. „Ефектът ще бъде още по-бързи, по-мащабируеми, по-персонализирани и контекстуализирани атаки, с намалено време на престой.“
Въпреки това, много киберексперти остават оптимисти, че технологията ще бъде благодат за киберпрофесионалистите като цяло . „В крайна сметка защитниците са тези, които имат надмощие, като се има предвид, че ние притежаваме технологията и по този начин можем да насочваме нейното развитие с оглед на конкретни случаи на употреба“, казва Венейбълс. „По същество имаме предимството на домашния терен и възнамеряваме да го използваме напълно.“