Стрічка новин
Сьогодні
1 Листопада 2024

Microsoft: хакери російської розвідки використовують ChatGPT та інші ШІ для покращення атак

14 Лютого 2024, 22:26
2011b969 308ea79d363105a16e477c5 Економічні новини - головні новини України та світу

Хакерська група, пов’язана з російською розвідкою, використовує великі мовні моделі штучного інтелекту (LLM), такі як ChatGPT та Copilot, для вивчення складних систем та покращення ефективності кібератак. Про це йдеться у розслідуванні Microsoft та OpenAI щодо зловмисного використання ШІ. Їхнє дослідження також розповідає про північнокорейських, іранських, китайських та інших хакерів.

Коротка витримка із величезного розслідування розповідає про характер використання ШІ російськими військовими хакерами з групи Forest Blizzard (Strontium). Це угрупування російської військової розвідки, пов’язане із підрозділом 26165 ГРУ, який займався нападами на жертв, які становлять тактичний або стратегічний інтерес для російського уряду. Їхня діяльність охоплює різні сектори, включаючи оборону, транспорт/логістику, уряд, енергетику, неурядові організації та інформаційні технології. Forest Blizzard було надзвичайно активною групою у нападах на організації, пов’язані з війною Росії в Україні.

Microsoft вважає, що операції Forest Blizzard відіграють значну допоміжну роль у зовнішній політиці та військових цілях Росії як в Україні, так і загалом. Forest Blizzard асоціюється з загрозою, яку інші дослідники відстежували як APT28 і Fancy Bear.

Використання LLM групою Forest Blizzard передбачало дослідження різних супутникових і радіолокаційних технологій, які можуть стосуватися військових операцій в Україні, а також загальні дослідження, спрямовані на підтримку кібероперацій.

Microsoft спостерігала активність Forest Blizzard у використанні нових технологій та вимикала усі доступні облікові записи та активності, пов’язані з Forest Blizzard.

Загалом Microsoft оцінює рівень використання ШІ в кібератаках обмеженим, але окрім аналізу даних та покращення кібершпигунських методів, компанія акцентує на небезпеці інших методів, які доступні завдяки штучному інтелекту – таких, як імітація голосу. Компанія звертає увагу, що навіть 3 секундний зразок голосу можна використати для імітації відтворення будь-якого змісту. Нагадуємо, нещодавно зловмисники за допомогою ШІ викрали 25 млн доларів.

Залишити коментар:
Подписаться
Уведомить о
0 Комментарий
Межтекстовые Отзывы
Посмотреть все комментарии
Відео
Всі статті