Хакерские группы стали активней использовать в своей деятельности возможности искусственного интеллекта (ИИ) и больших языковых моделей (LLM), сообщили специалисты OpenAI и Microsoft.
"Группы киберпреступников, субъекты угроз на национальном уровне и другие злоумышленники изучают и тестируют различные технологии ИИ по мере их появления, пытаясь понять потенциальную ценность для своих операций", - говорится в сообщении на сайте Microsoft.
При этом американские компании утверждают, что занимаются этим только хакеры из стран, с которыми у Запада напряженные отношения — из России, Северной Кореи, Ирана и Китая. Так, северокорейская хакерская группа Thallium якобы использовала LLM для исследования уязвимостей, о которых сообщалось в публичном пространстве, и целевых организаций. А иранская команда Curium применяла возможности ChatGPT и других чат-ботов для написания кода вредоносных программ и создания фишинговых писем.
В то же время специалисты OpenAI и Microsoft пока не зафиксировали каких-либо серьезных последствий использования ИИ хакерскими группами для кибератак. В OpenAI подчеркнули, что оперативно блокируют аккаунты пользователей, подозреваемых в создании вредоносного ПО.
"ИИ может помочь злоумышленникам сделать свои атаки более изощренными, и у них есть ресурсы для этого", - резюмировал аналитик Microsoft Хома Хайятифар.
В январе специалисты из Массачусетского технологического института (MIT) сообщили, что людям рано бояться потерять работу из-за искусственного интеллекта. В большинстве случаев менять человека на ИИ пока слишком дорого.