Компания Google пересмотрела свои принципы, касающиеся использования технологий искусственного интеллекта, исключив пункт, запрещающий разработку ИИ для применения в оружии. Об этом сообщает Bloomberg.
Ранее принципы Google предусматривали целый абзац, в котором было указано, что компания не будет разрабатывать технологии, которые могут причинить общий ущерб, включая оружие. Теперь этой формулировки больше нет на странице.
Представитель Google прокомментировал изменения, ссылаясь на публикацию в корпоративном блоге, где говорится: “Мы считаем, что демократические страны должны играть ведущую роль в развитии ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. Компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создавать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность”.
Однако данное изменение вызвало критику. Маргарет Митчелл, ранее руководившая группой по этике ИИ в Google, выразила обеспокоенность, заявив, что это решение перечеркнет работу специалистов по этике ИИ и активистов. Она также отметила, что отказ от этого принципа может привести к разработке технологий, потенциально использующихся для ликвидации людей.
Впервые Google заявила о своих этических принципах после того, как ее сотрудники выразили протест против контракта с Пентагоном, известного как Project Maven. Этот проект предполагал использование алгоритмов компьютерного зрения для анализа данных с беспилотников. Тогда тысячи работников подписали петицию с требованием прекратить участие компании в военных проектах. В результате Google не только отказалась от контракта, но и пообещала не участвовать в разработке оружия.
Ранее айтишник показал, как даже безопасные игры шпионят за пользователями iPhone.