В среду компания Stability AI представила новую версию модели синтеза изображений – Stable Diffusion 3 Medium. Эта модель преобразует текстовые запросы в изображения, однако её появление вызвало волну критики из-за плохого качества изображений людей, особенно по сравнению с Midjourney и DALL-E 3. Как оказалось, SD3 Medium часто создает анатомически некорректные изображения, что стало причиной насмешек.
На Reddit появилась ветка под названием “Этот выпуск – шутка? [SD3-2B]”, где пользователи делятся примерами неудач SD3 Medium при создании изображений людей, особенно рук и ног.
Другая ветка обсуждает проблемы с генерацией изображений девушек, лежащих на траве.
Создание рук традиционно было сложной задачей для генераторов изображений из-за недостатка примеров в обучающих наборах данных. Современные модели уже научились справляться с этой задачей, но Stable Diffusion 3 Medium сделала шаг назад. Пользователи считают, что причина провалов SD3 Medium – фильтрация контента для взрослых из обучающих данных. “Сильная цензура модели также удаляет анатомические данные, вот что произошло”, – отметил один из пользователей.
Такие же проблемы возникли и при выпуске Stable Diffusion 2.0 в 2022 году. Тогда фильтрация контента для взрослых ухудшила способность модели генерировать точную анатомию человека. Stability AI исправила это в версиях SD 2.1 и SD XL, частично восстановив утраченные способности.
Некоторые пользователи считают, что NSFW-фильтр, использованный для очистки обучающих данных, был слишком строгим. В результате из набора данных могли быть удалены изображения, не содержащие сексуального контента, но важные для обучения модели правильному изображению людей в различных ситуациях. Один из пользователей Reddit написал: “[SD3] работает нормально, пока в кадре нет людей. Кажется, их улучшенный фильтр NSFW решил, что все человекоподобное – это NSFW”.