Общество

Раскрыта неочевидная опасность нейросетей вроде ChatGPT

Раскрыта неочевидная опасность нейросетей вроде ChatGPT
Раскрыта неочевидная опасность нейросетей вроде ChatGPT

Антон Якимов, заместитель гендиректора "Группы Т1" по технологическому развитию, в беседе с "Лентой.ру" высказал опасения по поводу возможностей киберпреступников в использовании интеллектуальных чат-ботов, включая ChatGPT. Массовое применение таких ботов даст злоумышленникам уникальные возможности для извлечения полезной информации, анализа данных и прогнозирования поведения пользователей.

Одной из основных опасностей, связанных с использованием ChatGPT, становится предоставление киберпреступникам информации о том, как создавать вредоносный код, вирусы или другие программы. Развитие нейросетей вывело на новый уровень процессы идентификации жертв и кражи их данных киберпреступниками. Для обычных граждан это означает столкновение с угрозами, которые могут быть неочевидными и почти невозможными для распознавания. Методы и схемы, используемые злоумышленниками, постоянно модифицируются, а нейросети способны ускорить этот процесс.

Якимов также привел примеры других способов атак, связанных с использованием искусственного интеллекта, включая фишинг и заражение автономными вредоносными программами. Он отметил, что мошенники активно внедряют искусственный интеллект в привычные атаки, усложняя борьбу с ними. Дипфейки с реалистичными изображениями, видео или аудио, созданными с помощью искусственного интеллекта и машинного обучения, также представляют растущую угрозу, поскольку они могут использоваться для прохождения биометрической защиты, кражи личных данных и шантажа их владельцев.

Ранее группа экспертов и предпринимателей, включая миллиардеров Илона Маска и Стива Возняка, подписала открытое письмо с призывом остановить разработку систем искусственного интеллекта из-за угроз, которые они несут обществу и человечеству. Они призвали ИИ-лаборатории перестать обучать системы мощнее GPT-4, пока не будут созданы общие протоколы безопасности.