由Google支持的AI新创公司Runway开发了AI图像生成器Stable Diffusion,并且在六月初发布了Gen-2模型,是一个根据文本提示或现有图像生成影片的模型。Gen-2 以前只能在有限的候补名单中排队使用,但现在已经开放给所有用户做使用,Runway 目前提供大约100 秒的免费视频生成,每个影片约4秒左右。
Roundway 与许多生成式AI模型一样,Gen-2所制作的影片中,人物可能会看起来极度不自然及不真实,但除了人物之外,风景及物件类的影片是非常令人佩服。
与许多生成式AI模型一样,Gen-2所制作的影片中,人物可能会看起来极度不自然及不真实。
虽然目前用AI 生成影片的方法并不少,像是前几天为大家介绍的D-ID及HeyGen都是通过图像来生成数位人影片,或是还有利用Stable Diffusion WebUI 配合各种外挂工具实现的影片都需要图像或者影片作为参考样本才能生成新的影片,目前可以直接根据文本生成影片且质量如此之高的目前应该也只有Runway的Gen-2了吧。下面为大家介绍Gen-2的使用方法。
如何用Gen-2来制作影片?
Runway官网:https://runwayml.com/
第一步: 注册完成后会进到工作版,点选下方的Gen-2 Text to Video。
第二步: 在文字框内输出英文提示描述想要的场景,然后点击右侧的「Generate」生成影片。如果不确定想要什么内容,可以从其他算过图的地方找灵感,或是参考别人的prompt来尝试。
虽然只能够生成4秒左右的影片,约需要等30 秒以上,速度跟品质已经是非常理想的状态了!
结论
每天不断体验各种AI工具,我深刻体会到AI技术对我们工作方式的改变。虽然目前以文字生成影片在时长、清晰度和准确性等方面仍有不足,但我们见证了AI绘画的惊人进步,从画不出脸到以假乱真只花了几个月的时间。这让我对AI影片技术的未来充满信心,相信它必将更加发达。
当AI影片技术成熟起来,它将为艺术家、动画和电影爱好者以及影片内容创作者带来全新的创作方式。它将改变影片和影视制作行业,让我们能以更丰富、创新的方式表达故事和想法。我迫不及待地期待那个未来的时刻,当我们能够运用AI技术打破界限,探索更广阔的创作领域。
本文链接地址:https://www.wwsww.cn/rgzn/22538.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。