Американская компания OpenAI, разработчик чат-бота ChatGPT, готовится внедрить новые инструменты родительского контроля в свою нейросеть.
Как отмечается на сайте компании, родители смогут получать больше данных о том, каким образом их дети используют флагманский продукт. Кроме того, пользователям предоставят возможность добавлять контакт доверенного лица, с которым можно будет связаться в экстренной ситуации.
Среди других нововведений — функция вызова служб экстренной помощи одним нажатием. В компании подчеркнули, что в ChatGPT уже действуют алгоритмы, которые должны препятствовать вовлечению пользователей в опасные сценарии. Однако разработчики признали, что при длительной переписке алгоритмы могут допускать ошибки, что и побудило их к дальнейшему укреплению системы безопасности.
Поводом для таких изменений стали обвинения против OpenAI после трагедии в США. В Калифорнии семья подростка обвинила компанию в его смерти и подала соответствующий иск. По данным NBC News, шестнадцатилетний юноша вёл разговоры с чат-ботом о своём психологическом состоянии и намерениях покончить с собой.
Как утверждают родители, за несколько недель до трагедии программа, изначально выступавшая в роли помощника, стала фактически "тренером по суициду". По словам семьи, нейросеть не прекратила контакт даже после прямого упоминания подростком намерений о самоубийстве и при этом предоставила ему дополнительную информацию по этой теме. Этот инцидент вызвал широкую дискуссию в США о степени ответственности разработчиков ИИ.