Общество

Чат-бот c ИИ ChatGPT научился писать вирусы

Чат-бот c ИИ ChatGPT научился писать вирусы
Чат-бот c ИИ ChatGPT научился писать вирусы

Чат-бот c искусственным интеллектом ChatGPT, основанный на работе нейросетей, научился писать вирусы. Вредоносный код учитывает индивидуальные особенности разных операционных систем и уязвимости отдельно взятых компьютеров. Об этом в интервью ТАСС сообщил замдиректора по развитию Института математики и компьютерных технологий Дальневосточного федерального университета (ДВФУ) Роман Дремлюга.

"Преступники всегда очень быстро адаптируют технологические новшества. В принципе, когда появляется какое-то новое эффективное средство, преступники пытаются его адаптировать и делают это очень быстро. Уже можно найти примеры того, как с помощью этой системы генерируют код вредоносных программ с нужными свойствами под определенные операционные системы, под определенные задачи, под определенные уязвимости, абсолютно кастомизированные", – подчеркнул специалист.

Как утверждает представитель ДВФУ, в настоящее время такого рода "способности" ChatGPT используют прежде всего специалисты по информационной безопасности – так они тестируют уязвимости. В то же время Дремлюга выразил уверенность в том, что киберпреступники уже давно используют нейросеть для написания вирусов: для этого теперь не требуются навыки программирования.

Злоумышленники могут задействовать ChatGPT для формирования индивидуальных способов вымогания денег у жертв, ориентируясь на специфику конкретных людей и делая это в автоматическим режиме. Для защиты пользователям гаджетов важно повышать собственную осведомленность в теме и общую цифровую грамотность, резюмировал эксперт.

Чат-боты в интернете могут красть персональные данные пользователей

В обретающие популярность у россиян чат-боты ни в коем случае не стоит вводить персональные данные, в противном случае они могут быть украдены. Об этом в интервью "Газете.ру" сообщил руководитель направления цифровизации клиентского сервиса Лиги Цифровой Экономики Дмитрий Силуянов.

"Зачастую чат-боты подключены к внутренним системам организации и уже "знают" клиента, поэтому если онлайн-помощник просит вас ввести логин и пароль, то в таком случае нужно сразу прекращать общение. Их нужно вводить только в платежную форму, на которую при оформлении заказа бот должен предоставить ссылку", – заявил он.

Чат-боты могут просить предоставить разную информацию: имя, электронную почту, адрес доставки, предпочтительные каналы связи. Специалист добавил, что чат-боту не следует передавать CVV-код банковской карты или СМС-коды для оплаты заказа. Оценить надежность конкретного чат-бота помогут три параметра.

"Во-первых, источник – следует убедиться, что бот расположен на проверенном ресурсе, например, на официальном сайте компании. Во-вторых, рейтинг и отзывы. Если у чат-бота плохие оценки, лучше отказаться от него. В-третьих, защита данных – нужно проверить, что бот использует надежные методы шифрования и хранения информации. Если данные необязательны для выполнения запроса, то лучше не отправлять их, чтобы снизить риск утечки", – подытожил Силуянов.

Ученые Высшей школы экономики провели эксперимент, в ходе которого нейросеть GPT-3 написала текст итогового школьного сочинения и получила допуск к ЕГЭ. Летом прошлого года российская IT-компания "Яндекс" выложила в интернет код YaLM 100B — нейросети для генерации и обработки текстов на русском и английском языках.