Технології штучного інтелекту (AI) стали потужною зброєю в арсеналі сучасних кіберзлочинців. Ця трансформація створює набагато складніший ландшафт загроз, з швидшими атаками, дешевшими для здійснення та набагато важчими для виявлення. Експерти попереджають, що кіберзлочинність увійшла в нову еру, де масштаб і охоплення стають головними факторами.
Швидкий розвиток кіберзлочинності через автоматизацію AI
Провідні компанії з розробки AI, такі як Anthropic, OpenAI і Google, повідомляють про значне зростання використання своїх платформ для злочинної діяльності. Злочинці використовують ці технології для розробки складних операцій spear-phishing, створення передового шкідливого програмного забезпечення та проведення багаторівневих цифрових атак.
Одним із найяскравіших змін є поява deepfake аудіо та відео, які використовуються для обману працівників. Мошенники тепер можуть створювати фальшивий мультимедійний контент, що імітує керівників компаній, змушуючи співробітників розкривати конфіденційну інформацію або переказувати кошти без підозр.
Аліса Марвік, дослідниця з Data & Society, пояснює цей феномен Wall Street Journal простими, але вражаючими словами: «Реальні зміни — це масштаб і охоплення. Обмани стають більшими, більш цілеспрямованими і переконливими.»
Фішинг-повідомлення AI домінують у ландшафті загроз
Дослідник Браян Сінгер з Університету Карнегі Меллон, який спеціалізується на використанні великих мовних моделей у кіберзлочинності, прогнозує, що половина або три чверті всіх спамів і фішинг-повідомлень у світі тепер походять із систем AI.
Ці повідомлення досягають нового рівня достовірності. Системи AI, натреновані на стилі спілкування компаній, можуть генерувати тисячі повідомлень, що звучать природно і відповідають стилю цільової організації. Такі повідомлення:
імітують стиль керівників з високою точністю
посилаються на актуальні новини з відкритих джерел
усувають мовні помилки, які раніше викривали міжнародні шахрайські спроби
Джон Хульткіст, головний аналітик Threat Intelligence Group у Google, описує цю зміну як «масштабну довіру».
Цільова атака на основі даних: визначення вразливих жертв
Злочинці стають все більш досвідченими у виборі цілей. Вони використовують AI для аналізу соціальних мереж і визначення осіб, що переживають значні труднощі — розлучення, смерть близьких, втрату роботи — що робить їх більш вразливими до романтичних шахрайств, інвестиційних обманів або підроблених пропозицій роботи.
Такий підхід на основі даних значно підвищує рівень конверсії шахрайств.
Темний ринок знижує бар’єри для входу в кіберзлочинність
Екосистема підпільного ринку перетворилася на центр розповсюдження кримінальних AI-інструментів. Платформи пропонують зломні інструменти за доступними цінами — від $90 на місяць — з підтримкою клієнтів на різних рівнях.
Ці сервіси працюють під іменами, такими як WormGPT, FraudGPT і DarkGPT. Вони дозволяють:
створювати шкідливі програми без ручного кодування
автоматизувати масштабні фішингові кампанії
пропонують структуровані навчальні матеріали з технік хакінгу для початківців
Ніколас Крістін, керівник відділу програмного забезпечення та систем у Carnegie Mellon, пояснює цю бізнес-модель: «Розробники продають підписки на платформи атак за різними рівнями цін і з повною підтримкою клієнтів.»
Магерат Кунінгем, віце-президент з безпеки та стратегій AI у Darktrace, спрощує бар’єри до навичок: «Вам не потрібно знати, як писати код, потрібно лише знати, де знайти інструменти.»
Останні розробки, звані «vibe-coding» або «vibe-hacking», дозволяють потенційним злочинцям використовувати AI для створення власних шкідливих програм замість купівлі їх на чорному ринку. Anthropic повідомляє, що на початку року вони припинили кілька спроб використання Claude AI для створення ransomware «зловмисниками з мінімальними технічними навичками».
Індустріалізація операцій кіберзлочинності
Кіберзлочинність вже багато років функціонує як спеціалізована бізнес-екосистема. Зазвичай операції з викупним програмним забезпеченням включають розподіл ролей:
Посередники доступу проникають у мережі компаній і продають доступ наступним групам.
Команди проникнення рухаються системами для викрадення цінних даних.
Постачальники послуг з викупним ПЗ створюють шкідливі програми, ведуть переговори і розподіляють прибутки.
AI революціонізувала цю модель, підвищуючи швидкість, автоматизацію і масштабованість. Роботи, що раніше вимагали спеціальних технічних навичок, тепер можуть виконуватися автоматично, дозволяючи злочинним організаціям діяти з меншим штатом, з меншими ризиками і більшою прибутковістю.
Крістін проводить точну аналогію: «Уявіть це як наступну індустріальну революцію. AI підвищує продуктивність без потреби у більшій кількості кваліфікованих працівників.»
Чи може AI повністю самостійно здійснювати атаки?
Це критичне питання ще не має однозначної відповіді. Експерти порівнюють ситуацію з розвитком автономних транспортних засобів. Перші п’ять відсотків автоматизації вже досягнуті, але останні п’ять відсотків, що дозволяють повністю незалежні операції, ще дуже далекі.
Дослідники тестують можливості хакінгу AI у лабораторних умовах. Команда з Carnegie Mellon за підтримки Anthropic змогла цього року імітувати злом даних відомого Equifax за допомогою AI — що Сінгер називає «значним проривом» у можливостях автоматизації атак.
Роль AI у захисті: чи є надія?
Хоча злочинці використовують AI для шкідливих цілей, ця сама технологія пропонує потужні засоби захисту. Anthropic і OpenAI розробляють системи, що можуть постійно перевіряти код програмного забезпечення на вразливості до їхнього виявлення злочинцями.
Нові програми AI, створені дослідниками Stanford, показують кращу ефективність у виявленні проблем безпеки мереж порівняно з деякими людськими тестувальниками.
Проте Хульткіст наголошує, що AI — не чарівна пігулка. Організації мають зосередитися на побудові стійких систем, що залишаються функціональними навіть під час атак. Абсолютна профілактика неможлива; справжньою метою є стійкість.
Організації та окремі особи, які розуміють еволюцію кіберзлочинності, вже на крок попереду у своїй обороні.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Загроза кіберзлочинності різко зростає: як штучний інтелект змінює тактики зломів
Технології штучного інтелекту (AI) стали потужною зброєю в арсеналі сучасних кіберзлочинців. Ця трансформація створює набагато складніший ландшафт загроз, з швидшими атаками, дешевшими для здійснення та набагато важчими для виявлення. Експерти попереджають, що кіберзлочинність увійшла в нову еру, де масштаб і охоплення стають головними факторами.
Швидкий розвиток кіберзлочинності через автоматизацію AI
Провідні компанії з розробки AI, такі як Anthropic, OpenAI і Google, повідомляють про значне зростання використання своїх платформ для злочинної діяльності. Злочинці використовують ці технології для розробки складних операцій spear-phishing, створення передового шкідливого програмного забезпечення та проведення багаторівневих цифрових атак.
Одним із найяскравіших змін є поява deepfake аудіо та відео, які використовуються для обману працівників. Мошенники тепер можуть створювати фальшивий мультимедійний контент, що імітує керівників компаній, змушуючи співробітників розкривати конфіденційну інформацію або переказувати кошти без підозр.
Аліса Марвік, дослідниця з Data & Society, пояснює цей феномен Wall Street Journal простими, але вражаючими словами: «Реальні зміни — це масштаб і охоплення. Обмани стають більшими, більш цілеспрямованими і переконливими.»
Фішинг-повідомлення AI домінують у ландшафті загроз
Дослідник Браян Сінгер з Університету Карнегі Меллон, який спеціалізується на використанні великих мовних моделей у кіберзлочинності, прогнозує, що половина або три чверті всіх спамів і фішинг-повідомлень у світі тепер походять із систем AI.
Ці повідомлення досягають нового рівня достовірності. Системи AI, натреновані на стилі спілкування компаній, можуть генерувати тисячі повідомлень, що звучать природно і відповідають стилю цільової організації. Такі повідомлення:
Джон Хульткіст, головний аналітик Threat Intelligence Group у Google, описує цю зміну як «масштабну довіру».
Цільова атака на основі даних: визначення вразливих жертв
Злочинці стають все більш досвідченими у виборі цілей. Вони використовують AI для аналізу соціальних мереж і визначення осіб, що переживають значні труднощі — розлучення, смерть близьких, втрату роботи — що робить їх більш вразливими до романтичних шахрайств, інвестиційних обманів або підроблених пропозицій роботи.
Такий підхід на основі даних значно підвищує рівень конверсії шахрайств.
Темний ринок знижує бар’єри для входу в кіберзлочинність
Екосистема підпільного ринку перетворилася на центр розповсюдження кримінальних AI-інструментів. Платформи пропонують зломні інструменти за доступними цінами — від $90 на місяць — з підтримкою клієнтів на різних рівнях.
Ці сервіси працюють під іменами, такими як WormGPT, FraudGPT і DarkGPT. Вони дозволяють:
Ніколас Крістін, керівник відділу програмного забезпечення та систем у Carnegie Mellon, пояснює цю бізнес-модель: «Розробники продають підписки на платформи атак за різними рівнями цін і з повною підтримкою клієнтів.»
Магерат Кунінгем, віце-президент з безпеки та стратегій AI у Darktrace, спрощує бар’єри до навичок: «Вам не потрібно знати, як писати код, потрібно лише знати, де знайти інструменти.»
Останні розробки, звані «vibe-coding» або «vibe-hacking», дозволяють потенційним злочинцям використовувати AI для створення власних шкідливих програм замість купівлі їх на чорному ринку. Anthropic повідомляє, що на початку року вони припинили кілька спроб використання Claude AI для створення ransomware «зловмисниками з мінімальними технічними навичками».
Індустріалізація операцій кіберзлочинності
Кіберзлочинність вже багато років функціонує як спеціалізована бізнес-екосистема. Зазвичай операції з викупним програмним забезпеченням включають розподіл ролей:
Посередники доступу проникають у мережі компаній і продають доступ наступним групам.
Команди проникнення рухаються системами для викрадення цінних даних.
Постачальники послуг з викупним ПЗ створюють шкідливі програми, ведуть переговори і розподіляють прибутки.
AI революціонізувала цю модель, підвищуючи швидкість, автоматизацію і масштабованість. Роботи, що раніше вимагали спеціальних технічних навичок, тепер можуть виконуватися автоматично, дозволяючи злочинним організаціям діяти з меншим штатом, з меншими ризиками і більшою прибутковістю.
Крістін проводить точну аналогію: «Уявіть це як наступну індустріальну революцію. AI підвищує продуктивність без потреби у більшій кількості кваліфікованих працівників.»
Чи може AI повністю самостійно здійснювати атаки?
Це критичне питання ще не має однозначної відповіді. Експерти порівнюють ситуацію з розвитком автономних транспортних засобів. Перші п’ять відсотків автоматизації вже досягнуті, але останні п’ять відсотків, що дозволяють повністю незалежні операції, ще дуже далекі.
Дослідники тестують можливості хакінгу AI у лабораторних умовах. Команда з Carnegie Mellon за підтримки Anthropic змогла цього року імітувати злом даних відомого Equifax за допомогою AI — що Сінгер називає «значним проривом» у можливостях автоматизації атак.
Роль AI у захисті: чи є надія?
Хоча злочинці використовують AI для шкідливих цілей, ця сама технологія пропонує потужні засоби захисту. Anthropic і OpenAI розробляють системи, що можуть постійно перевіряти код програмного забезпечення на вразливості до їхнього виявлення злочинцями.
Нові програми AI, створені дослідниками Stanford, показують кращу ефективність у виявленні проблем безпеки мереж порівняно з деякими людськими тестувальниками.
Проте Хульткіст наголошує, що AI — не чарівна пігулка. Організації мають зосередитися на побудові стійких систем, що залишаються функціональними навіть під час атак. Абсолютна профілактика неможлива; справжньою метою є стійкість.
Організації та окремі особи, які розуміють еволюцію кіберзлочинності, вже на крок попереду у своїй обороні.