Реддитор продемонстрировал методику придания героям игр реалистичного вида с помощью ИИ
Пользователь Reddit u/Adnane_Touami привлёк внимание, продемонстрировав использование ИИ для генерации реалистичных лиц для персонажей видеоигр. В посте он показал несколько примеров до и после обработки женских персонажей (ну естественно) игр через Stable Diffusion для добавления детализации и фотореалистичности.
Adnane_Touami использовал многошаговый процесс с применением Stable Diffusion при помощи ControlNet и img2img. Он применил ControlNet inpainting для сохранения цветов оригинального изображения, а ControlNet line art — для улучшения форм и деталей. Начальный проход img2img с низким шумом послужил базой, после чего изображение отправлялось через ControlNet с оптимизированными настройками.
Автор также поделился конкретикой задаваемых промптов и настроек для получения наилучших результатов: "в промпте опишите персонажа и определяющие черты, добавив "реалистичные текстуры кожи, фотография 35мм, киноплёнка, 4К, максимальная детализация" (realistic skin textures, 35mm photograph, film, 4k, highly detailed). А для генерации необходимо использовать модель epiCPhotoGasm.
Эффект получился впечатляющий, тем более, что если развить идею, то таким образом можно будет генерировать текстуры кожи для модернизации старых игр или создания фильтров в реальном времени. Однако некоторые отметили, что ИИ-версии теряют тонкие особенности вроде цвета глаз или уникальности дизайна в погоне за более общей привлекательностью.
- Stable Diffusion 3.5 улучшает точность следования промптам и генерирует более разнообразных людей
- Tumblr и WordPress начнут продавать данные для обучения ИИ компаний OpenAI и Midjourney
- Слух: ИИ-апскейлинг PS5 Pro будет работать на GPU, так как в APU Viola нет нейроблоков