Простая задача для нейросетей на этапе прототипа
Недавно зарелизи зомби-шутер, разработка которого шла довольно долго. Но в одном месте точно удалось процесс ускорить.
Детальная рисовка сплешскрина во «взрослом» сеттинге может в отдельных случаях занимать до недели работы артиста или даже больше в зависимости от объема. Но на этапе прототипа и тестов, когда решающее значение имеют кор-механики и общий look&feel, не факт, что рационально тратить столько ресурсов на одно изображение, которое мелькает во время загрузки.
Совсем не рисовать сплэшскрин — тоже не вариант, так как у игроков пропадает ощущение завершенности проекта, а это влияет на вовлечение.
На помощь пришла Midjourney. Сразу скажу, что сейчас мы перерисовываем сплешскрин вручную, потому что проект отлично растет и нужно полировать каждый аспект. Но когда еще не было первых метрик, я сделал картинку за полчаса самостоятельно без привлечения художников, у которых есть задачи поважнее. Можно сказать, что корпоративная лицензия Midjourney окупилась с одной картинки.
С развитием нейросетей таких кейсов в индустрии станет больше, а пока небольшой пример, где их можно применить на примере нашего гиперказуального зомби-шутера от первого лица Dead Raid.
Подготовка
Для генерации использовал Discord, где подключили отдельный бот, чтобы было удобно видеть все итерации.
Первым запросом отправил одно слово zombie. Результат:
Неплохо, но для сплешскрина не то (с созданием иконок нейросеть тоже может помочь, но об этом в другой раз).
После этого перепробовал длинные и сложные запросы, но они обычно хороши, когда нет определенного видения результата. Картинки могут быть красивые и оригинальные, но совсем не то, что ожидалось.
Тогда решил сделать две разные картинки попроще, чтобы объединить в одну.
Этап 1
Запросом для основы стал long abandoned hospital corridor. Первый же результат был близок к картинке, которую я держал в голове:
При этом повтор одного и того же запроса выдавал похожие вариации с небольшими отличиями. Тогда стал экспериментировать с освещением:
После несколько итераций (каждая занимала секунды) остановился на последнем запросе, добавив к нему параметр (—test —creative), который повышает свободу «творчества» нейросети.
В итоге получился финальный вариант:
Этап 2
Для второго изображения попросил сгенерировать пугающую девочку в белом платье. Но по запросам horror girl in a white dress standing on a floor и little horror girl in a white dress with black long hair результаты были слишком мультяшными:
Добавил in black shoes, и стало чуть интереснее:
Продолжил закидывать Midjourney запросом horror girl in a white dress with black long hair in black shoes, пока не получил вот такой вариант:
Есть особенности с ногами, но для приведения, думаю, не критично. Лицо на затылке решено было просто закрасить.
Этап 3
Переносим оба изображения в Photoshop, пару движений с цветокоррекцией, добавляем прозрачности, немного фильтров с шумами и вуаля:
Руки профессионального художника, конечно, не заменяет, но для прототипа самое то. Далее дело за A/B-тестами и метриками, на которые и будем опираться, как это всегда делаем.
Что касается работы с нейросетями, то тут нужно глубже углубляться в параметры запросов, чтобы исключить заведомо ненужные результаты или, наоборот, добавить креативности, если свои идеи закончились. Для брейнштормов нейросети тоже работают.
Потом проверяем прототип на реальной аудитории и, если виден отклик, работаем над улучшением уже вручную.