Создание «нейро-фото-сессии» с помощью ComfyUI

Подробная инструкция на русском (и аналитически — дублирую ключевые пункты на английском) по созданию «нейро-фото-сессии» с помощью ComfyUI — то есть генерации серии изображений с единым персонажем, стилистикой и настроением, как будто фотосессия, с акцентом на портреты, ракурсы, освещение и последовательность.

1. Подготовка (Setup)

Русский:

  1. Установите ComfyUI: скачайте последнюю версию, распакуйте, запустите. ComfyUI Documentation
  2. Проверьте, что у вас есть модель (checkpoint) для генерации изображений — например, версия модели Stable Diffusion (например, v1-5 или SDXL) и размещена в папке ComfyUI/models/checkpoints. ComfyUI Documentation
  3. Подготовьте папку проектов: создайте рабочий файл (workflow), в котором вы будете создавать серии изображений. Используйте шаблон текст-в-изображение (text-to-image) для начала. ComfyUI Documentation

English:

  1. Install ComfyUI and ensure it runs.
  2. Make sure you have a checkpoint model installed (e.g., SD v1.5 or SDXL) in the correct folder.
  3. Prepare a project folder and use a basic text-to-image workflow in ComfyUI as your starting point.

2. Планирование фотосессии (Concept & Planning)

Русский:
Для «нейро-фото-сессии» важно продумать:

  • персонажа (тип: модель, портрет, мода, сцена)
  • стиль (реализм, гламур, кино-освещение, ч/б, арт-стиль)
  • фон и окружение (студия, улица, интерьер)
  • ракурсы и композиции: например, фронтальный портрет, три четверти, профиль, крупный план глаз, полный рост
  • последовательность: несколько снимков с единой стилистикой, но разными позами и выражениями лица

English:
For your neural photo-session you should define:

  • the subject/character (model, portrait, fashion, scene)
  • the style (realistic, glam, cinematic lighting, black & white, art style)
  • background/environment (studio, street, interior)
  • angles/compositions: e.g., front portrait, three-quarter, profile, close-up, full body
  • sequence: several images with unified style but different poses/expressions

3. Настройка рабочего процесса (Workflow)

Русский:
В ComfyUI вы будете работать с узлами (nodes). Вот рекомендованный базовый рабочий процесс:

  1. Узел Load Checkpoint: выбираете вашу модель. ComfyUI Documentation
  2. Узел CLIP Text Encode (Prompt): для положительного запроса (positive prompt) — описания того, что вы хотите видеть.
  3. Узел CLIP Text Encode (Negative Prompt): для отрицательного запроса (negative prompt) — чего не хотите видеть (артефакты, нежелательные детали). RunComfy
  4. Узел Empty Latent Image (или аналогичный) для начала генерации из шума.
  5. Узел KSampler: подключаете модели, промпты, latent; задаёте шаги (steps), CFG-масштаб (guidance scale), размер, семя (seed) и др. ComfyUI Web
  6. Узел VAE Decode: декодирует латентное изображение в финальное изображение.
  7. Узел Save Image: сохраняете результат.
  8. (Опционально) Группировка узлов: используйте Groups или папки, чтобы держать порядок. ComfyUI Web

English:
In ComfyUI you use nodes. A basic workflow for your photo-session could be:

  1. Load Checkpoint node – select your model.
  2. CLIP Text Encode for positive prompt.
  3. CLIP Text Encode for negative prompt (undesired things).
  4. Empty Latent Image node (start from noise).
  5. KSampler node – configure steps, guidance scale, size, seed, etc.
  6. VAE Decode node – convert latent to image.
  7. Save Image node – store your output.
  8. Use node groups/folders for tidy workflow.

4. Настройка промптов и параметров для фотосессии

Русский:

Позитивный промпт (Positive prompt)

Опишите персонажа, выражение, позу, стиль освещения, фон. Например:

«A glamorous female model in a high-fashion studio, golden hour soft lighting, 85mm lens shallow depth of field, elegant pose, front three-quarter view, high-resolution photo, realistic skin texture, glossy hair, cinematic mood».

Добавьте ключевые слова: «studio portrait», «softbox lighting», «pose: looking at camera, slight smile», «full body» или «waist up», в зависимости от кадра.

Негативный промпт (Negative prompt)

Укажите, чего не хотите:

«blurry face, low resolution, bad anatomy, extra fingers, unnatural lighting, cartoon style, oversaturated colors».

Параметры генерации

  • Seed (семя) — зафиксируйте, если хотите серию с единым лицом/моделью.
  • Steps — шаги генерации: 20-50 обычно. Lilys AI
  • CFG Scale — например 7-12 в реалистичных сценах. ComfyUI Web
  • Размер изображения — например 1024×1024 или 768×1024 для портрета.
  • Batch size — сколько вариантов за раз.
  • Denoise strength — если используете image-to-image. См. раздел 5 ниже. ComfyUI Documentation

English:
Positive prompt: Describe the model, expression, pose, lighting style, background.
Negative prompt: List things you don’t want (bad anatomy, blur, cartoon style, etc).
Parameters:

  • seed – fix seed if you want consistent character across images.
  • steps – e.g., 20-50.
  • CFG scale – e.g., 7-12 for realistic output.
  • size – e.g., 1024×1024 or 768×1024.
  • batch size – number of variants per run.
  • denoise strength – if doing image-to-image.

5. Серия кадров (Creating a Series)

Русский:
Чтобы получить серию снимков, действуйте так:

  1. Генерируйте первый «ключевой» кадр: например, фронтальный портрет.
  2. Затем сохраните семя (seed) этого кадра и используйте его дальше, если хотите, чтобы персонаж оставался одним и тем же.
  3. Измените позу или выражение: во второй генерации меняете часть промпта, например: «slight smile, looking to side», или меняете ракурс: «profile view».
  4. Меняйте фон и свет: например, следующая картинка — «window light, afternoon, warm tones».
  5. Убедитесь, что остальные параметры (seed, модель, стиль освещения, качество) остаются одинаковыми, чтобы чувствовалось, что это одна фотосессия.
  6. Далее: генерация вариаций (batch size >1) позволяет сразу получить несколько вариантов. Выберите лучшие, слегка отредактируйте название или комбинируйте.
  7. При желании — изображение-в-изображение (image-to-image) для мягких вариаций: загрузите первый кадр и с небольшим denoise (например 0.2-0.4) преобразуйте его с другим ракурсом или светом. ComfyUI Documentation

English:
To create a photo session series:

  1. Generate first key shot (e.g., front portrait).
  2. Save its seed if you want same character across shots.
  3. Change pose or expression for next shot.
  4. Change background and lighting.
  5. Keep parameters (seed, model, style) consistent for coherence.
  6. Use batch generation to get multiple variants; pick best.
  7. Use image-to-image with low denoise for soft variations of the same shot.

6. Контроль качества и доработка (Quality Control & Refinement)

Русский:

  • Оцените кадры: обратите внимание на анатомию, освещение, текстуры кожи и волос, компоновку ракурса.
  • Если персонаж меняется слишком сильно между кадрами — уменьшите CFG или зафиксируйте seed.
  • Если фон слишком отвлекает — уточните промпт: «plain studio background», «neutral grey background».
  • Можно добавить узлы типа ControlNet для контроля позы (open-pose) или ракурса, если хотите более точную постановку. Lilys AI
  • После генерации — можно применять апскейл (увеличение разрешения) для финальных изображений. ComfyUI Web

English:

  • Review shots for anatomy, lighting, skin/hair texture, composition.
  • If character shifts too much across shots – reduce CFG or lock seed.
  • If background distracts – specify neutral background in prompt.
  • Optionally use ControlNet for pose or angle control.
  • After generation – apply upscaling for final output.

7. Экспорт и презентация (Export & Presentation)

Русский:

  • Сохраните изображения (Save Image узел) в соответствующей папке, с понятными именами: например, Session1_Front.jpg, Session1_Side.jpg.
  • Подготовьте подборку лучших кадров: выберите 3–5 изображений, представляющих серию.
  • При публикации можно добавить объединительный стиль: например, одинаковое настроение, цветовая гамма, разрешение.
  • Если нужно — добавьте рамки или подписи (внешним графическим редактором).
  • Архивируйте workflow (.json) и параметры модели, чтобы позже воспроизвести серию или сделать продолжение.

English:

  • Save images with clear filenames.
  • Select best shots: 3-5 images that represent the session.
  • Maintain unified look: same mood, color palette, resolution.
  • Optionally add framing or captions externally.
  • Archive your workflow file and model parameters for future reproduction.

8. Советы и хитрости (Tips & Tricks)

Русский:

  • Используйте фиксированный seed, если хотите, чтобы персонаж выглядел одинаково во всех кадрах.
  • Промпт-масла (weights) — вы можете задавать веса ключевым словам: (keyword:1.3) усилит эффект. RunComfy
  • Группируйте узлы в ComfyUI, чтобы не потеряться в сложной схеме. ComfyUI Web
  • Работайте партиями (batch size) — например, 4-6 вариантов за запуск — затем вручную отбирайте лучшие.
  • Делайте предварительные тест-кадры (низкое разрешение) перед финальным высоким разрешением.
  • Экспериментируйте с освещением: «Rembrandt lighting», «rim light», «backlight», «golden hour». Это придаёт фотосессии профессиональный вид.
  • Следите за артефактами: лишние пальцы, неестественная поза, размытие — и добавляйте их в отрицательный промпт.
  • Если персонаж меняется нежелательно — можно загрузить эталонное фото (load image) и использовать image-to-image с малым denoise, чтобы сохранить черты.

English:

  • Lock seed if you want consistent character across shots.
  • Use prompt weights (keyword:1.3) etc for emphasizing terms.
  • Group nodes in ComfyUI for clarity.
  • Use batch generation then pick best.
  • Do test runs at lower resolution, then final high-res.
  • Experiment lighting styles: Rembrandt, rim light, backlight, golden hour.
  • Watch for artifacts; include them in negative prompt.
  • For consistent faces/features use image-to-image with low denoise.

9. Пример рабочего процесса (Workflow Sample)

Русский:
Вот упрощённый визуальный порядок узлов:

Load Checkpoint → CLIP Text Encode (Positive)  
                 → CLIP Text Encode (Negative)  
Empty Latent Image → KSampler (with model + prompts)  
                   → VAE Decode → Save Image

Если хотите контролировать позу: вставьте между Empty Latent и KSampler узел ControlNet (например, OpenPose).

English:
Simplified node flow:

Load Checkpoint → CLIP Text Encode (positive)  
               → CLIP Text Encode (negative)  
Empty Latent Image → KSampler (model + prompts)  
                  → VAE Decode → Save Image

For pose control insert a ControlNet node between Empty Latent and KSampler.

Вам может также понравиться...

Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять