Державні хакери, що використовують популярні інструменти штучного інтелекту, включаючи Gemini, попереджає Google

Decrypt

Коротко

  • Команда Threat Intelligence Group компанії Google опублікувала свій останній звіт про небезпеки штучного інтелекту.
  • У звіті йдеться, що державні хакери використовують такі інструменти, як власний Gemini від Google, щоб прискорити свої кібернапади.
  • Хакери цікавляться агентним ШІ, щоб повністю поставити його на керування атаками.

Група Threat Intelligence Group (GTIG) компанії Google знову попереджає про ризики штучного інтелекту, публікуючи свій останній звіт про те, як небезпечні державні хакери використовують штучний інтелект. Ця команда зафіксувала зростання спроб витягання моделей — методу крадіжки інтелектуальної власності, коли хтось багаторазово запитує модель ШІ, намагаючись зрозуміти її внутрішню логіку та відтворити її у новій моделі.

Наш новий звіт Google Threat Intelligence Group (GTIG) розкриває, як зловмисники використовують ШІ для всього — від просунутого розвідки до фішингу та автоматизованої розробки шкідливого програмного забезпечення.

Детальніше про це та наші заходи протидії ↓ https://t.co/NWUvNeBkn2

— Google Public Policy (@googlepubpolicy) 12 лютого 2026

Хоча це викликає занепокоєння, основною проблемою, якою переймається Google, не є саме це. У звіті попереджається, що урядові та державні актори використовують великі мовні моделі (LLMs) для технічних досліджень, цілеспрямованих атак та швидкого створення нюансованих фішингових пасток. Звіт висловлює занепокоєння щодо таких країн, як Демократична Народна Республіка Корея, Іран, Китай та Росія. Gemini та фішингові атаки Згідно з повідомленнями, ці актори використовують інструменти ШІ, такі як власний Gemini від Google, для розвідки та профілювання цілей, застосовуючи відкриту розвідку на великому масштабі, а також для створення гіперперсоналізованих фішингових схем. «Ця діяльність підкреслює перехід до використання ШІ для підтримки фішингу, де швидкість і точність LLM можуть обійти ручну працю, яка раніше була необхідною для профілювання жертви», — йдеться у звіті Google. «Цілі давно покладаються на ознаки, такі як погана граматика, незграбний синтаксис або відсутність культурного контексту, щоб ідентифікувати фішингові спроби. Все частіше зловмисники використовують LLM для створення гіперперсоналізованих пасток, які можуть імітувати професійний тон цільової організації».

Наприклад, якщо Gemini отримує біографію цілі, він може створити відповідний образ і допомогти сформувати сценарій, який ефективно приверне їхню увагу. Використовуючи ШІ, ці зловмисники також можуть більш ефективно перекладати та виходити з локальних мов. Зі зростанням здатності ШІ генерувати код, відкрилися двері для його зловмисного використання, оскільки ці актори використовують функціонал кодування AI для пошуку та створення шкідливих інструментів. Звіт також попереджає про зростаючий інтерес до експериментів з агентним ШІ. Це форма штучного інтелекту, яка може діяти з певною автономією, підтримуючи задачі, такі як розробка шкідливого програмного забезпечення та його автоматизація.  Google зазначає, що бореться з цією проблемою за допомогою різних заходів. Окрім створення звітів Threat Intelligence кілька разів на рік, у компанії є команда, яка постійно шукає загрози. Google також впроваджує заходи для посилення Gemini у модель, яку не можна використовувати для зловмисних цілей. За допомогою Google DeepMind команда намагається виявити ці загрози ще до їхнього можливого виникнення. Ефективно, Google прагне ідентифікувати шкідливі функції та видалити їх до того, як вони стануть ризиком. Хоча з звіту зрозуміло, що використання ШІ у сфері загроз зросло, Google зазначає, що наразі немає проривних можливостей. Замість цього спостерігається лише зростання використання інструментів і ризиків.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів