Еврокомиссия выступила с инициативой начать маркировать контент, созданный при помощи искусственного интеллекта. Об этом сообщает Politico, ссылаясь на источники. Соответствующее законодательное предложение уже разработано.
Как утверждает собеседник Politico, маркировка будет использоваться во избежание эксплуатации технологии deepfake для опасных манипуляций. Кроме того, Еврокомиссия обратится к крупным игрокам рынка для того, чтобы IT-корпорации разработали программу, позволяющую определить, человек создал упомянутый контент или нет. Речь идет о разных планах выражения контента – видео, аудио, изображении или тексте.
"Сейчас этот контент – это по большей части игра, однако завтра вы можете увидеть фейковый порнографический ролик с кандидатом в президенты", – подчеркнул собеседник издания.
Для начала, считают в ЕК, компании смогут добровольно применять маркировку контента, созданного нейросетями. Затем эта отличительная особенность должна будет включена в добровольный кодекс поведения в цифровой среде – его заключили крупные западные компании в 2018 году. После этого маркировка станет обязательной, а соответствующая информация будет содержаться в Акте цифровых услуг. Документ с 2024 года будет регулировать цифровое пространство ЕС.
Вопросом маркировки созданного при помощи ИИ контента озаботились и в России: накануне депутаты Государственной Думы начали разработку концепции закона о маркировке генеративного контента. В нижней палате уверены, что принятие инициативы позволит снизить риски от распространения дипфейков. Об этом в интервью ТАСС заявил замглавы думского комитета по информационной политике, информационным технологиям и связи Антон Горелкин. По его словам, нейросети уже способны создавать "очень правдоподобное видео", а инструментарий становится все более доступным не только для профессионалов, но и для обыкновенных пользователей интернета.
"Мы приступили к разработке концепции законопроекта о маркировке генеративного контента. Изучаем законодательный опыт других стран, консультируемся с экспертами, работаем над формулировками базовых дефиниций. Цель законопроекта - снизить риски использования продуктов, созданных при помощи технологий искусственного интеллекта, в частности так называемых дипфейков. Задача законодателя – защитить граждан, введение маркировки дипфейков и ответственности за их распространение без нее представляется эффективной мерой", – поделился законодатель.
Ранее в Госдуме предложили сажать за мошеннические дипфейки: уголовно наказуемым в случае принятия соответствующего законопроекта станет финансовое мошенничество с помощью подмены голоса или изображения жертвы.
В Объединенных Арабских Эмиратах мошенники украли 35 млн долларов, представившись директором крупной компании. При помощи технологий искусственного интеллекта они разработали алгоритм, имитировавший его голос. Аферист в ходе разговора с банком заявил, что для обеспечения крупной сделки необходимо перевести указанную сумму на новые счета фирмы, которые в действительности не имели к ней никакого отношения. Свое поручение он подкрепил фальшивыми электронными письмами от компании.