Runway 王炸更新!5个笔刷让人人都能成为神笔马良

2024-12-18 来源|AI图库吧

上周 Runway 再次升级Gen-2「运动笔刷」更名为「多头运动笔刷」(Multi Motion Brush),这次可以说是AI视频可控性的王炸进化!5个笔刷,可以对视频局部调整,人人秒变神笔马良。

目前所有用户都可以免费使用,额度100秒,每使用一次消耗4秒。

接下来让我们一起来试一试吧。

使用体验

目前,Runway可以在官网上或者下载手机APP使用。

1.1 登录网址

打开官网:https://app.runwayml.com/

进入 Runwayml 主页,点击图片上的粉色「Start with image」按钮,就会跳转到 Gen-2 的主操作界面啦。

1.2 主操作界面

操作界面很简洁,顶部为「三种指令场景」,分别为文生视频、图生视频、图片和文字生成视频。

中间为输入文字和图片的区域。

可以看到下方「Motion Brush」就是这次我们要介绍的「运动笔刷」功能啦。

1.3 开始创作

1.3.1 Midjourney出图

首先,在Midjourney中生成我们需要的图片。

接下来我们就实际体验一下。

1.3.2点击按钮

可以选择直接上传图片,把我们的女孩添加进来。点击「Motion Brush」按钮。

1.3.3调整笔刷

页面会出现5个笔刷,这就是这次的主角。

分别点击每个笔刷进行涂抹,可以看到每个笔刷颜色不同,在涂抹过程中每个笔刷可以分别选择不连续的元素。选中笔刷后,下方可以对每个笔刷进行参数的调整,来实现对画面地精准控制。

参数介绍

Horizontal:水平

可以控制水平方向X轴的运动变化。

Vertical:垂直

可以控制垂直方向Y轴的运动变化。

Proximity:深度

可以控制深度Z轴方向,元素渐渐消散/模糊/溶解的程度,可以选择0保持移动前后形状不变。

Ambient:环境

可以调整背景环境光照、氛围。

下方还可以调整笔刷大小,如果涂抹错误,可以使用橡皮擦工具擦除笔触。

1.3.4生成视频

接下来,涂抹完成就可以点击「保存」创建视频,就可以等待生成视频啦。

选择图片小技巧总结:

这次我做的女孩头发挡住了部分眼睛,使得面部在旋转过程中会出现面容扭曲的现象。面部表情修改的话要尽量选择五官清晰的图片。

背景景深太强烈,在背景移动的时候也会比较模糊。大家做的时候在做背景大幅度运动的时候要尽量避免。

飘扬的纸屑还是很出效果的,提升氛围感一般不会错哦。

1.4 应用场景案例

(一)场景空间运镜

利用不同元素运动远近和速度构建空间运镜:黑客帝国子弹效果。

(二)角色表情控制

可以通过分别控制面部的运动方向来实现一些表情动画。

这个真的太棒了,控制角色表情动作更加简单真实。

(三)角色动作控制

不同部位运动方向构建角色的动作。我试了,有时候经常会翻车。

(四)多角色控制

这部分也容易翻车,画面背景还是要选择相对干净的,可以更好的控制角色和环境。

总结

总体而言,不管是水流、云彩、火焰、烟雾场景运动,还是角色表情动作运动,都能高度还原其动态。现在,只需几个 prompt 和五支画笔,我们就能生成高质量的动态视频,复杂的视频编辑软件和制作流程一去不复返。

如果将文生图神器 Midjourney 与文生视频神器 Gen-2 结合起来使用,大家完全可以不动笔,直接出大片哦。

最新
更多

小度全新AI硬件将于百度世界大会发布丨智谱AI、即梦AI上线新一代视频生成模型丨OpenAI安全系统团队负责人离职

【AI奇点网2024年11月11日早报】本站每日播报AI业界最新资讯,触摸时代脉搏,掌握未来科技动向。事不宜迟,点击查看今日AI资讯早餐。

字节跳动内测豆包通用图像编辑模型SeedEdit丨Grok聊天机器人免费版内测丨月之暗面Kimi创始人被提起仲裁

【AI奇点网2024年11月12日早报】本站每日播报AI业界最新资讯,触摸时代脉搏,掌握未来科技动向。事不宜迟,点击查看今日AI资讯早餐。

李彦宏:文心大模型日调用量超15亿丨百度发布文心「iRAG」文生图技术丨小度AI智能眼镜发布,搭载大模型边走边问

【AI奇点网2024年11月13日早报】本站每日播报AI业界最新资讯,触摸时代脉搏,掌握未来科技动向。事不宜迟,点击查看今日AI资讯早餐。

巧妙利用这两个AI产品,让你的国庆出行没有废片

这两天就有朋友来问我,有没有那种能修图的AI,就是扩图+消除啥的傻瓜好用的。大家大概的需求总结一下其实就两,AI消除+AI扩图。

OpenAI初步谈妥融资70亿美元:最大金主微软追加投资10亿,苹果退出

据华尔街日报报道,苹果公司退出了对 OpenAI 的新一轮融资谈判,而微软则计划向 OpenAI 追加约 10 亿美元的投资。

详解Meta全新大模型Llama 3.2系列:多模态视觉识别能力媲美OpenAI GPT-4o

Meta公司推出了Llama 3 2,也是它首款能够理解图像和文本的旗舰视觉模型。包含中型和小型两个版本,以及更轻量化可用于手机端侧的纯文本模型。

网站地图