Создание «нейро-фото-сессии» с помощью ComfyUI
Подробная инструкция на русском (и аналитически — дублирую ключевые пункты на английском) по созданию «нейро-фото-сессии» с помощью ComfyUI — то есть генерации серии изображений с единым персонажем, стилистикой и настроением, как будто фотосессия, с акцентом на портреты, ракурсы, освещение и последовательность.
1. Подготовка (Setup)
Русский:
- Установите ComfyUI: скачайте последнюю версию, распакуйте, запустите. ComfyUI Documentation
- Проверьте, что у вас есть модель (checkpoint) для генерации изображений — например, версия модели Stable Diffusion (например, v1-5 или SDXL) и размещена в папке
ComfyUI/models/checkpoints. ComfyUI Documentation - Подготовьте папку проектов: создайте рабочий файл (workflow), в котором вы будете создавать серии изображений. Используйте шаблон текст-в-изображение (text-to-image) для начала. ComfyUI Documentation
English:
- Install ComfyUI and ensure it runs.
- Make sure you have a checkpoint model installed (e.g., SD v1.5 or SDXL) in the correct folder.
- Prepare a project folder and use a basic text-to-image workflow in ComfyUI as your starting point.
2. Планирование фотосессии (Concept & Planning)
Русский:
Для «нейро-фото-сессии» важно продумать:
- персонажа (тип: модель, портрет, мода, сцена)
- стиль (реализм, гламур, кино-освещение, ч/б, арт-стиль)
- фон и окружение (студия, улица, интерьер)
- ракурсы и композиции: например, фронтальный портрет, три четверти, профиль, крупный план глаз, полный рост
- последовательность: несколько снимков с единой стилистикой, но разными позами и выражениями лица
English:
For your neural photo-session you should define:
- the subject/character (model, portrait, fashion, scene)
- the style (realistic, glam, cinematic lighting, black & white, art style)
- background/environment (studio, street, interior)
- angles/compositions: e.g., front portrait, three-quarter, profile, close-up, full body
- sequence: several images with unified style but different poses/expressions
3. Настройка рабочего процесса (Workflow)
Русский:
В ComfyUI вы будете работать с узлами (nodes). Вот рекомендованный базовый рабочий процесс:
- Узел Load Checkpoint: выбираете вашу модель. ComfyUI Documentation
- Узел CLIP Text Encode (Prompt): для положительного запроса (positive prompt) — описания того, что вы хотите видеть.
- Узел CLIP Text Encode (Negative Prompt): для отрицательного запроса (negative prompt) — чего не хотите видеть (артефакты, нежелательные детали). RunComfy
- Узел Empty Latent Image (или аналогичный) для начала генерации из шума.
- Узел KSampler: подключаете модели, промпты, latent; задаёте шаги (steps), CFG-масштаб (guidance scale), размер, семя (seed) и др. ComfyUI Web
- Узел VAE Decode: декодирует латентное изображение в финальное изображение.
- Узел Save Image: сохраняете результат.
- (Опционально) Группировка узлов: используйте Groups или папки, чтобы держать порядок. ComfyUI Web
English:
In ComfyUI you use nodes. A basic workflow for your photo-session could be:
- Load Checkpoint node – select your model.
- CLIP Text Encode for positive prompt.
- CLIP Text Encode for negative prompt (undesired things).
- Empty Latent Image node (start from noise).
- KSampler node – configure steps, guidance scale, size, seed, etc.
- VAE Decode node – convert latent to image.
- Save Image node – store your output.
- Use node groups/folders for tidy workflow.
4. Настройка промптов и параметров для фотосессии
Русский:
Позитивный промпт (Positive prompt)
Опишите персонажа, выражение, позу, стиль освещения, фон. Например:
«A glamorous female model in a high-fashion studio, golden hour soft lighting, 85mm lens shallow depth of field, elegant pose, front three-quarter view, high-resolution photo, realistic skin texture, glossy hair, cinematic mood».
Добавьте ключевые слова: «studio portrait», «softbox lighting», «pose: looking at camera, slight smile», «full body» или «waist up», в зависимости от кадра.
Негативный промпт (Negative prompt)
Укажите, чего не хотите:
«blurry face, low resolution, bad anatomy, extra fingers, unnatural lighting, cartoon style, oversaturated colors».
Параметры генерации
- Seed (семя) — зафиксируйте, если хотите серию с единым лицом/моделью.
- Steps — шаги генерации: 20-50 обычно. Lilys AI
- CFG Scale — например 7-12 в реалистичных сценах. ComfyUI Web
- Размер изображения — например 1024×1024 или 768×1024 для портрета.
- Batch size — сколько вариантов за раз.
- Denoise strength — если используете image-to-image. См. раздел 5 ниже. ComfyUI Documentation
English:
Positive prompt: Describe the model, expression, pose, lighting style, background.
Negative prompt: List things you don’t want (bad anatomy, blur, cartoon style, etc).
Parameters:
- seed – fix seed if you want consistent character across images.
- steps – e.g., 20-50.
- CFG scale – e.g., 7-12 for realistic output.
- size – e.g., 1024×1024 or 768×1024.
- batch size – number of variants per run.
- denoise strength – if doing image-to-image.
5. Серия кадров (Creating a Series)
Русский:
Чтобы получить серию снимков, действуйте так:
- Генерируйте первый «ключевой» кадр: например, фронтальный портрет.
- Затем сохраните семя (seed) этого кадра и используйте его дальше, если хотите, чтобы персонаж оставался одним и тем же.
- Измените позу или выражение: во второй генерации меняете часть промпта, например: «slight smile, looking to side», или меняете ракурс: «profile view».
- Меняйте фон и свет: например, следующая картинка — «window light, afternoon, warm tones».
- Убедитесь, что остальные параметры (seed, модель, стиль освещения, качество) остаются одинаковыми, чтобы чувствовалось, что это одна фотосессия.
- Далее: генерация вариаций (batch size >1) позволяет сразу получить несколько вариантов. Выберите лучшие, слегка отредактируйте название или комбинируйте.
- При желании — изображение-в-изображение (image-to-image) для мягких вариаций: загрузите первый кадр и с небольшим denoise (например 0.2-0.4) преобразуйте его с другим ракурсом или светом. ComfyUI Documentation
English:
To create a photo session series:
- Generate first key shot (e.g., front portrait).
- Save its seed if you want same character across shots.
- Change pose or expression for next shot.
- Change background and lighting.
- Keep parameters (seed, model, style) consistent for coherence.
- Use batch generation to get multiple variants; pick best.
- Use image-to-image with low denoise for soft variations of the same shot.
6. Контроль качества и доработка (Quality Control & Refinement)
Русский:
- Оцените кадры: обратите внимание на анатомию, освещение, текстуры кожи и волос, компоновку ракурса.
- Если персонаж меняется слишком сильно между кадрами — уменьшите CFG или зафиксируйте seed.
- Если фон слишком отвлекает — уточните промпт: «plain studio background», «neutral grey background».
- Можно добавить узлы типа ControlNet для контроля позы (open-pose) или ракурса, если хотите более точную постановку. Lilys AI
- После генерации — можно применять апскейл (увеличение разрешения) для финальных изображений. ComfyUI Web
English:
- Review shots for anatomy, lighting, skin/hair texture, composition.
- If character shifts too much across shots – reduce CFG or lock seed.
- If background distracts – specify neutral background in prompt.
- Optionally use ControlNet for pose or angle control.
- After generation – apply upscaling for final output.
7. Экспорт и презентация (Export & Presentation)
Русский:
- Сохраните изображения (Save Image узел) в соответствующей папке, с понятными именами: например,
Session1_Front.jpg,Session1_Side.jpg. - Подготовьте подборку лучших кадров: выберите 3–5 изображений, представляющих серию.
- При публикации можно добавить объединительный стиль: например, одинаковое настроение, цветовая гамма, разрешение.
- Если нужно — добавьте рамки или подписи (внешним графическим редактором).
- Архивируйте workflow (.json) и параметры модели, чтобы позже воспроизвести серию или сделать продолжение.
English:
- Save images with clear filenames.
- Select best shots: 3-5 images that represent the session.
- Maintain unified look: same mood, color palette, resolution.
- Optionally add framing or captions externally.
- Archive your workflow file and model parameters for future reproduction.
8. Советы и хитрости (Tips & Tricks)
Русский:
- Используйте фиксированный seed, если хотите, чтобы персонаж выглядел одинаково во всех кадрах.
- Промпт-масла (weights) — вы можете задавать веса ключевым словам:
(keyword:1.3)усилит эффект. RunComfy - Группируйте узлы в ComfyUI, чтобы не потеряться в сложной схеме. ComfyUI Web
- Работайте партиями (batch size) — например, 4-6 вариантов за запуск — затем вручную отбирайте лучшие.
- Делайте предварительные тест-кадры (низкое разрешение) перед финальным высоким разрешением.
- Экспериментируйте с освещением: «Rembrandt lighting», «rim light», «backlight», «golden hour». Это придаёт фотосессии профессиональный вид.
- Следите за артефактами: лишние пальцы, неестественная поза, размытие — и добавляйте их в отрицательный промпт.
- Если персонаж меняется нежелательно — можно загрузить эталонное фото (load image) и использовать image-to-image с малым denoise, чтобы сохранить черты.
English:
- Lock seed if you want consistent character across shots.
- Use prompt weights
(keyword:1.3)etc for emphasizing terms. - Group nodes in ComfyUI for clarity.
- Use batch generation then pick best.
- Do test runs at lower resolution, then final high-res.
- Experiment lighting styles: Rembrandt, rim light, backlight, golden hour.
- Watch for artifacts; include them in negative prompt.
- For consistent faces/features use image-to-image with low denoise.
9. Пример рабочего процесса (Workflow Sample)
Русский:
Вот упрощённый визуальный порядок узлов:
Load Checkpoint → CLIP Text Encode (Positive)
→ CLIP Text Encode (Negative)
Empty Latent Image → KSampler (with model + prompts)
→ VAE Decode → Save Image
Если хотите контролировать позу: вставьте между Empty Latent и KSampler узел ControlNet (например, OpenPose).
English:
Simplified node flow:
Load Checkpoint → CLIP Text Encode (positive)
→ CLIP Text Encode (negative)
Empty Latent Image → KSampler (model + prompts)
→ VAE Decode → Save Image
For pose control insert a ControlNet node between Empty Latent and KSampler.



