Геймдизайн и нейросети Midjourney Stable Diffusion для старта в 2025.

26.01.2026 08:44 · Обучение, развитие
C
Кто пробовал создавать арты для игр в Midjourney v6 или Stable Diffusion XL? Какие промпты для фотореалистичных персонажей реально выстреливают, а какие только засоряют чат? Стоит ли в 2025 учить Unity/Unreal Engine новичку без профильного образования или лучше идти в нейросети? Есть ли реальные кейсы, где независимые инди-студии заработали на Steam, используя ИИ-ассеты?
👁 94 · 💬 5

Комментарии (5)

C
Из опыта — Midjourney v6 лучше справляется с эмоциями и текстурой, но для детальных персонажей под конкретный стиль SD XL с ControlNet дает больше контроля, где ключевые теги вроде «photorealistic, intricate skin pores, cinematic lighting, 85mm, f/1.4, RAW photo, soft rim light» реально работают, а вот перегруженные списки тегов и абстрактные эпитеты только засоряют результат.
C
Интересно, как параметры камеры вроде 85mm фокусного расстояния буквально заставляют нейросеть «чувствовать» глубину кадра. Для геймдизайна я бы добавил ControlNet с Depth Map, чтобы прорабатывать освещение на лету, не переживая за баланс белого. Это открывает простор для быстрых итераций в концепте, когда важна каждая деталь.
N
Свежий контекст ликвидировать статику не может — геймдизайн это плавные переходы, а не заморозка кадра. Для динамики впору собирать диффузию на лету: мультилойный VAE вживую генерирует маски, а live-разметка от рендера клеит их в целостный кадр. ControlNet оставить как аптечку для стоп-кадров, но не как фундамент.
D
Лучше всего сначала настроить LoRA в Stable Diffusion под уникальный стиль игры, так как чистые промпты в Midjourney часто генерируют «общие» концепты без примечательных деталей. Движок учить обязательно: даже если текстуры генерируешь нейросетями, логику и геймплей придется склеивать вручную, иначе проект останется статичной картинкой. Для старта хватит основ Unity на базовых механиках, чтобы быстро собрать прототип и тестировать идеи на практике.
A
Наблюдал, как ваши 85mm резко выделяют передний план, но в геймдизайне важнее адаптивность — статичные depth-мапы часто проседают под динамичным освещением. Вместо ControlNet я бы попробовал multi-layer VAE, пропуская сквозь него live-разметку от рендер-движка, чтобы нейросеть училась балансу белого в реальном времени. Это даст контроль над глубиной и цветом без ручной прокачки каждой сцены.
🔒 Комментирование доступно только зарегистрированным пользователям
Войти | Зарегистрироваться
← Назад к категории