Kling AI создаёт кинематографичное видео из фото, переносит твои движения на AI-аватара и воспроизводит вирусные переходы — весь цикл от идеи до публикации занимает 15 минут.

Раньше для такого контента нужны были визажист, реквизит и пост-продакшн на два дня. Сейчас это делает одна нейросеть за четверть часа. В статье — три воркфлоу из первых рук: кинематографичное видео из фотографий, аватар с твоими движениями и вирусный переход с трансформацией. Главное что я понял по итогу — дело не в самом Kling. Объясню дальше. Воркфлоу показала Полина Громова, дипломированный промпт-инженер и спикер NeyroSummit, я разобрал каждый по шагам.

Что такое Kling AI и чем она отличается от Sora и Runway

Kling — китайская нейросеть для создания видео из текста, изображений и готовых роликов. Большинство видеонейросетей умеют работать только с текстом: описал сцену — получил ролик. Kling делает больше.

Три вещи, которые выделяют её на фоне конкурентов. Первое — она принимает несколько изображений как ключевые кадры и строит видео между ними. Второе — функция Motion Control: переносит движения из твоего видео на любой AI-персонаж. Третье — кредитная система с возвратом: если нейросеть сгенерировала явный мусор, жалуешься и получаешь кредиты обратно.

Sora лучше работает с текстом, но не поддерживает кастомных аватаров. Runway силён в постпродакшне, но Motion Control с персонажем там нет. Kling закрывает нишу именно контентных воркфлоу для соцсетей.

Полноценный рабочий месяц обходится меньше тысячи рублей при умеренном использовании. Для старта бесплатного лимита хватит чтобы пройти все три воркфлоу по разу.

Воркфлоу 1. Кинематографичное видео из фотографий

Принцип простой: твои изображения — это раскадровка фильма. Первый кадр — начало сцены, последний — финал. Kling придумывает всё что происходит между ними.

Шаг 1. Готовишь образ персонажа. Берёшь своё фото или генерируешь образ через ChatGPT. Главное — чёткие детали: одежда, обувь, аксессуары.

Шаг 2. Если нужен брендовый аксессуар на сумке или специфическая деталь — используй NanoBanano, не ChatGPT. GPT при image-to-image редактировании теряет мелкие детали: цепочки, бусины, шармы упрощает или вовсе игнорирует. NanoBanano справляется значительно лучше.

Шаг 3. Генерируешь финальное изображение с персонажем в сцене. Подаёшь два референса: портретное фото (для сохранения черт лица) и фото образа. В промпте детально прописываешь сцену, позу, свет, угол камеры. Отдельный блок — IDENTITY PRESERVATION: форма лица, цвет глаз, линия подбородка. Это не лишнее, это критично.

Шаг 4. Генерируешь дополнительные кадры: крупный план ног, сумки, лица. Каждый отдельно, с теми же референсами.

Шаг 5. Загружаешь в Kling. Первый и последний кадры — как Key Frames (не просто референсы). Промпт для основной сцены:

A smooth frame quickly descends, a woman falls from the sky, and the movement of the fall and hangs in the air as if floating

Для крупных планов универсальный промпт: Slow motion, slow-mo effect, a person falling downward

Шаг 6. Собираешь всё в CapCut. Обрезаешь конец каждого клипа там где начались артефакты — это нормальная практика. Экспорт в AI UHD.

На выходе получается кинематографичный ролик с персонажем, который парит в небе. Без студии и съёмки.

Воркфлоу 2. AI-аватар с твоими движениями через Motion Control

Это самая эффектная функция Kling. Ты снимаешься один раз — и потом выходишь в контент в любом образе. Na'vi, эльф, аниме-персонаж, любой стиль.

Шаг 1. Записываешь оригинальное видео. Нейтральный фон, хорошее освещение, плавные движения. Делаешь скриншот первого кадра в максимальном разрешении — он станет основой аватара.

Шаг 2. На основе скриншота генерируешь аватара в ChatGPT или другой нейросети. Важный нюанс: аватар должен быть в том же ракурсе, что и первый кадр видео. Если ракурсы не совпадают — Motion Control даст плохой результат.

Шаг 3. В Kling выбираешь Generate Video → Motion Control. Сначала загружаешь видео, потом фото аватара. Именно в таком порядке. Kling создаёт ролик где аватар двигается точно как ты: мимика, жесты, пластика — всё сохраняется. Голос тоже остаётся твоим.

Бонус: в CapCut можно совместить оригинальное видео и AI-версию в одном кадре. Добавляешь аватара через Overlay, удаляешь фон у оригинала — получается эффект "раздвоения", ты и твой AI-персонаж в одном пространстве.

Снялся один раз. Получил контент в разных образах на несколько недель.

Воркфлоу 3. Вирусный переход "трансформация с макияжем"

Один из самых популярных форматов в бьюти-контенте: человек без макияжа, резкий поворот, и в следующем кадре уже в ярком образе. Раньше нужна была реальная съёмка. Теперь — только Kling.

Шаг 1. Находишь референсное видео с нужным движением-переходом: резкий поворот головы, взмах руки, щелчок пальцев. Именно это движение станет монтажным швом.

Шаг 2. Создаёшь два изображения одного персонажа. Первое — нейтральный студийный портрет без макияжа с детальным блоком IDENTITY PRESERVATION в промпте. Второе — создаёшь не из своего оригинального фото, а из первого сгенерированного изображения. Это ключевой момент: так нейросеть сохраняет единство лица.

Шаг 3. Каждое фото отдельно отправляешь в Kling через Motion Control вместе с референсным видео. Получаешь два клипа: один с нейтральным образом, второй с ярким.

Шаг 4. Монтируешь в CapCut. Обрезаешь конец первого клипа на моменте перехода. Второй клип начинаешь с того же момента. Стыкуешь встык — без переходных эффектов. Магия бесшовного перехода именно в точном монтажном срезе, а не в эффектах CapCut.

Где Kling не справляется — честно об ограничениях

Галлюцинации в конце клипа — норма, не исключение. Лишняя рука, нога в неестественной позиции, хаотичное движение в финале. Большинство артефактов появляются именно там, когда нейросеть не знает чем закончить сцену. Решение простое: обрезай. Используй только чистую часть.

Промпты только на английском. Kling обучена на англоязычных данных, русский понимает поверхностно. Базовые слова распознаёт, детали атмосферы и движения теряет. Пиши на английском с самого начала — или попроси ChatGPT перевести промпт. Это 30 секунд, но кратно лучший результат.

Блокировки контента бывают неожиданными. Взрывы, оружие, огонь — ожидаемо. Но Полина столкнулась с блокировкой из-за голого плеча на изображении. Если генерация заблокирована — проверяй исходное изображение и убирай открытые зоны.

Размытый вход даёт размытый выход. Если исходное фото тёмное или низкого разрешения — никакой промпт не исправит. Минимум 720p, идеально 1080p.

GPT для мелких деталей не подходит. Аксессуары, ювелирка, текстуры ткани — это к NanoBanano.

Нейрограмма

Результат: кинематографичный ролик "падение в небе" — персонаж с фирменным аксессуаром, slow-mo эффект, без единого дня съёмки

Инструменты: NanoBanano (генерация аксессуара и образа) + Kling AI (анимация по Key Frames) + CapCut (финальная сборка)

Промпт / метод:

Генерируешь обвес в NanoBanano как отдельный предметный кадр в стиле luxury accessoriesДобавляешь обвес на сумку через image-to-image промпт в NanoBananoСоздаёшь финальный образ в сцене с блоком IDENTITY PRESERVATION: форма лица, цвет глаз, возраст, пропорции, запрет на ретушьГенерируешь детальные кадры (ноги, сумка, лицо) с тем же промптомВ Kling загружаешь первый и последний кадр как Key Frames, промпт движения на английскомСобираешь в CapCut в логике: общий план, крупные детали, финальное "падение" за кадр

Личный опыт: первые две попытки с основным кадром Kling заблокировала — открытое плечо на референсном изображении. Перегенерировала образ с закрытым плечом. GPT для переноса обвеса на сумку попробовала первым — потеряла все детали цепочек. Только после переключения на NanoBanano детализация получилась как нужно.

Что меняется, когда воркфлоу освоен

Снялся один раз — получил контент на несколько недель. Это не метафора. Одно видео через Motion Control превращается в 3-4 разных ролика в разных образах: ты, твой Na'vi-аватар, персонаж в другом стиле.

Владелец продукта может создать рекламный ролик с персонажем, держащим товар в небе, без фотографа и студии. Бьюти-контентмейкер делает вирусный переход без съёмки нескольких версий себя. Эксперт с личным брендом ведёт разные рубрики в разных AI-образах — всё с одного захода.

Ролик, на который раньше уходила съёмочная группа и два дня работы, теперь делается за 15 минут если материал готов. Это другая скорость производства контента. Совсем другая.

То что неочевидно, пока не попробуешь

Качество входа решает всё, промпт вторичен. Можно написать идеальный промпт и получить плохой ролик из-за тёмного референса. Поэтому сначала чистое фото от 720p, потом промпт.

NanoBanano и ChatGPT не конкуренты, они специалисты в разном. GPT хорош в генерации образов с нуля. NanoBanano точнее переносит детали между изображениями. Понимание этой разницы экономит время и кредиты.

Аватар должен смотреть в ту же сторону что и ты в первом кадре видео. Это не очевидное требование, но оно критично для Motion Control. Ракурсы не совпали — результат будет странным.

Промпт без финала сцены — это лотерея. Kling сама придумает как закончить клип. Иногда красиво. Чаще с галлюцинациями. Прописывай финал явно: куда уходит персонаж, что происходит в последней секунде.

Вирусный переход делает точный монтажный срез, не эффекты CapCut. Никаких дополнительных переходов не нужно. Если оба клипа сняты по одному референсному движению, стык встык работает лучше любого эффекта.

CapCut здесь — полноценный финальный этап, не "добавить музыку". Правильный порядок клипов, точная обрезка артефактных концов, удаление фона для наложения — это отдельная работа. Минут 10-15, но от неё зависит итоговое впечатление от ролика.

Галлюцинации в конце клипа — рабочая ситуация, не провал. Обрезай последние секунды, используй только чистую часть. Если весь клип непригоден — жалуйся в интерфейсе Kling, кредиты вернут.

Главный инсайт. Честно, я думал что основная ценность здесь — сам Kling. Оказалось нет. Главная ценность — это понимание связки: NanoBanano готовит детализированный образ, Kling анимирует, CapCut собирает финал. Ни один из этих инструментов в одиночку не даёт кинематографичного результата. Связка из трёх заменяет съёмочную команду. Вот это и меняет то, как вообще думаешь о производстве контента.

Если хочешь разбираться в AI-видео глубже — заходи в сообщество Нейрорежиссёров на Neyrogram. Такие воркфлоу там разбираются регулярно, и там же можно опубликовать свою нейрограмму с первым AI-роликом.