平台能力
视频生成模型
1. 使用场景
视频生成模型是一种利用文本或图像描述生成动态视频内容的技术,随着技术的不断发展,它的应用场景也越来越广泛。以下是一些潜在的应用领域:
- 动态内容生成:视频生成模型可以生成动态的视觉内容,用于描述和解释信息;
- 多模态智能交互:结合图像和文本输入,视频生成模型可用于更智能、更交互式的应用场景;
- 替代传统视觉技术:视频生成模型可以替代或增强传统的机器视觉技术,解决更复杂的多模态问题; 随着技术的进步,视频生成模型的多模态能力会与视觉语言模型融合,推动其在智能交互、自动化内容生成以及复杂场景模拟等领域的全面应用。此外,视频生成模型还能与图像生成模型(图生视频)结合,进一步拓展其应用范围,实现更加丰富和多样化的视觉内容生成。
2. 使用建议
在编写提示词时,请关注详细、按时间顺序描述动作和场景。包含具体的动作、外貌、镜头角度以及环境细节,所有内容都应连贯地写在一个段落中,直接从动作开始,描述应具体和精确,将自己想象为在描述镜头脚本的摄影师,提示词保持在200单词以内。
为了获得最佳效果,请按照以下结构构建提示词:
- 从主要动作的一句话开始
- 示例:A woman with light skin, wearing a blue jacket and a black hat with a veil,She first looks down and to her right, then raises her head back up as she speaks.
- 添加关于动作和手势的具体细节
- 示例:She first looks down and to her right, then raises her head back up as she speaks.
- 精确描述角色/物体的外观
- 示例:She has brown hair styled in an updo, light brown eyebrows, and is wearing a white collared shirt under her blue jacket.
- 包括背景和环境的细节
- 示例:The background is out of focus, but shows trees and people in period clothing.
- 指定镜头角度和移动方式
- 示例:The camera remains stationary on her face as she speaks.
- 描述光线和颜色效果
- 示例:The scene is captured in real-life footage, with natural lighting and true-to-life colors.
- 注意任何变化或突发事件
- 示例:A gust of wind blows through the trees, causing the woman’s veil to flutter slightly.
上述prompt生成的视频示例:
3. 体验地址
可以点击playground进行体验
注意:文生视频模型,对英文支持更友好,建议使用英文prompt进行视频生成。
4. 支持模型
4.1 文生视频模型
目前已经支持的文生视频模型:
-
Lightricks/LTX-Video
该模型进行文生视频调用时候,限时免费,可在playground进行体验,支持API调用。
-
tencent/HunyuanVideo
该模型价格0.7元/Video,支持API调用。
-
genmo/mochi-1-preview
该模型价格2.8元/Video,支持API调用。
4.2 图生视频模型
-
Lightricks/LTX-Video
该模型进行图生视频调用时候,价格0.14元/Video,当前仅支持API调用。
注意:支持的文生视频模型可能发生调整,请在「模型广场」筛选“视频”标签,了解支持的模型列表。