Американская корпорация Google изменила свои принципы разработки искусственного интеллекта, исключив раздел, запрещавший использование технологии в потенциально опасных для человека целях, включая создание оружия, сообщает Bloomberg.
На странице с принципами компании ранее существовал абзац под названием "Приложения ИИ, которые мы не будем развивать", где перечислялись технологии, наносящие или способные нанести вред. Этот пункт теперь отсутствует. На просьбу агентства прокомментировать изменения политики представитель Google прислал ссылку на публикацию в блоге компании от 4 февраля. В ней акцент сделан на необходимости добиваться лидерства в сфере, придерживаясь общих ценностей.
"Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека", - говорится в заявлении старшего вице-президента Google, главы лаборатории DeepMind Джеймса Манийки. Топ-менеджмент Google подчеркнул также необходимость сотрудничества частных компаний, правительств и организаций для создания ИИ, который будет защищать людей, способствовать экономическому росту и поддерживать национальную безопасность.
Удаление этого ключевого раздела вызвало критику. По словам бывшего руководителя команды Google по этике ИИ Маргарет Митчелл, изменения в политике дают компании больше свободы заниматься разработкой технологий, которые могут быть использованы в военных или потенциально смертоносных целях. Она полагает, что теперь корпорация сможет непосредственно внедрять ИИ в технологии, способные причинять вред или даже убивать людей.
Ранее Google публично придерживалась строгих принципов в разработке ИИ. В 2018 году компания заявляла, что не будет участвовать в проектах, связанных с разработкой оружия или других технологий, которые могут быть использованы для нанесения вреда.