动作控制结果
预计等待时间 3-5 min
Kling 2.6 动作控制
用 AI 将控制视频的动作迁移到你的角色图片上
常见问题
什么是 Kling 2.6 动作控制?
Kling 2.6 动作控制是一款 AI 视频生成工具,可将控制视频中的动作迁移到静态角色图片上。上传角色照片和动作参考视频,AI 会生成一段角色执行相同动作的新视频。
动作控制是如何工作的?
AI 分析控制视频中的肢体动作、姿势和行为,然后将这些动作应用到你的角色图片上。在生成自然流畅动作的同时,保留面部特征和外观。
动作控制有哪些应用场景?
动作控制适用于舞蹈视频、动作场景、带人物模特的产品展示、社交媒体内容、角色动画,以及任何需要让特定人物执行另一段视频中动作的项目。
视频和图片朝向有什么区别?
视频朝向会让角色面向与控制视频一致(最长支持 30 秒)。图片朝向会保留角色在上传图片中的原始姿态(限制在 10 秒内)。
什么样的控制视频效果好?
使用清晰、光线良好且肢体动作可见的视频。单人画面效果最好。避免快速镜头运动、多人场景或被严重遮挡的主体。参考视频中的动作越清晰,结果越好。
什么样的角色图片效果好?
上传高分辨率、面部和身体清晰可见的图片。光线良好、背景简洁更有帮助。角色应该是画面主体,避免大面积遮挡或杂乱背景。
视频最长多少?费用怎么算?
视频朝向模式下可生成 3-30 秒,图片朝向模式下可生成 3-10 秒。积分按秒计费:720p 每秒 3 积分,1080p 每秒 5 积分。
可以自定义提示词吗?
可以。可选的提示词字段让你添加场景细节,如光线、环境或风格。动作来自控制视频,提示词帮助优化生成视频的整体观感和氛围。
目前有哪些限制?
动作控制对单人内容和清晰动作效果最佳。复杂的多人场景、极端姿势或高度风格化的角色可能产生不一致的结果。非常快或复杂的动作可能无法完美迁移。
