Google объявила о внедрении новых мер по контролю за распространением нежелательного контента в своей поисковой системе. Это решение было принято в ответ на растущую проблему с появлением сомнительного контента, созданного с использованием инструментов искусственного интеллекта без согласия заинтересованных лиц. Об этом сообщает издание Bloomberg.
Если в контенте, созданном с помощью ИИ, присутствует изображение реального человека без его разрешения, этот человек теперь может запросить его удаление из результатов поиска. Google подтвердил, что при обоснованности запроса, компания будет фильтровать все подобные результаты и удалять повторяющиеся изображения.
Компания также улучшила алгоритмы ранжирования, чтобы поддельный контент не занимал высокие позиции в поисковой выдаче.
Google является основным источником трафика на сайты, размещающие нежелательный контент, созданный AI. В частности, это относится к эротическому и порнографическому контенту. В связи с этим, Google уже понижает рейтинг веб-сайтов, на которых большое количество страниц было удалено из поиска из-за нарушения политики в отношении ИИ-контента.
Менеджер по продуктам Google Эмма Хайэм в разговоре с Bloomberg отметила, что компания стремится найти баланс между обеспечением доступа к информации и безопасностью пользователей в Интернете.
Ранее российские ученые научили нейросеть находить дипфейки по улучшению изображения.