Компанія Anthropic повідомила про інцидент кібератаки, у якій була використана зламана версія їхнього чат-бота Claude. Про це йдеться в офіційному блозі компанії.
Зазначається, що атаку організувала китайська група, яка, за даними Anthropic, має підтримку з боку уряду Китаю. Загалом у список жертв увійшло близько тридцяти організацій – серед них технологічні компанії, фінансові установи, хімічні підприємства та кілька державних органів. Це перший зафіксований випадок, коли більшу частину роботи під час атаки виконував штучний інтелект.
Модель Claude має “агентні” функції, що дозволяють їй виконувати не лише стандартні завдання, а й ставати інструментом у руках зловмисників. Бот здатен виконувати тривалі послідовності команд, приймати автономні рішення, а також користуватися різними інструментами: від мережевих сканерів до програм для підбору паролів — без постійного участі людини.
Спершу оператор задає мету, після чого Claude виконує сканування мережі, знаходить потрібні дані, аналізує код і готує звіт. Наступним кроком йде глибша перевірка вразливостей і пропозиції атак, де оператор може коригувати завдання або продовжувати роботу.
На завершальному етапі штучний інтелект отримує доступ до облікових даних і відшукує інформацію для виведення з системи. Лише у моменти контролю або уточнень втручається людина. Claude діє самостійно приблизно 80–90% усього часу атаки.
Для обходу захисту модель обманювали, видаючи себе за співробітників кібербезпеки та переконуючи Claude, що він бере участь у «тестуванні безпеки». Операцію також розбивали на дрібні завдання, щоб бот не отримав повної інформації і не активував захисні обмеження.
Anthropic оперативно виявила атаку, заблокувала пов’язані акаунти, проінформувала потенційно постраждалі організації та відповідні влади, а також оприлюднила детальний звіт, щоб допомогти галузі розпізнавати подібні інциденти і розробляти методи захисту.
Раніше Microsoft повідомляла, що шахрайство зі застосуванням штучного інтелекту є у 4,5 раза ефективнішим за традиційні методи зловмисників. Наприклад, фішингові посилання, поширені нейромережами, отримують 54% переходів.
8 канал висвітлює цей інцидент як яскравий приклад нових викликів у сфері кібербезпеки, що виникають внаслідок стрімкого розвитку штучного інтелекту.

