写点什么

“一句话生成一部电影”将成现实?Meta 推出两款 AI 视频编辑工具,只需文字与图像就能生成动画片段

  • 2023-11-17
    北京
  • 本文字数:3253 字

    阅读完需:约 11 分钟

大小:1.54M时长:08:56
“一句话生成一部电影”将成现实?Meta推出两款AI视频编辑工具,只需文字与图像就能生成动画片段

漫威导演 JoeRusso 曾预测:两年内,AI 能创作出成熟的电影。

 

11 月 16 日,Meta 宣布推出两款 AI 视频编辑工具:Emu Video 与 Emu Edit。

 

其中,Emu Video 可用于视频生成,只需输入标题、图像、图像加描述,Emu Video 就能生成一条 4 秒长的动画片段。Emu Video 生成的片段,还可以用 Emu Edit 编辑工具进行进一步调整,用户同样通过自然语言描述自己需要进行的修改,例如“内容不变,但改为慢动作”,之后就能在 Emu Edit 中查看变化后的效果。

 

00:00 / 00:00
    1.0x
    • 3.0x
    • 2.5x
    • 2.0x
    • 1.5x
    • 1.25x
    • 1.0x
    • 0.75x
    • 0.5x
    网页全屏
    全屏
    00:00


    Meta 表示,目前这项工作还属于纯基础研究,但却有着显而易见的潜在用例。想象一下,如果大家希望即时生成自己的动画大头贴或者 GIF 动图,那绝对会成为群聊中最耀眼的明星——再不必通过搜索引擎来回寻找。或者,不具备任何技术认知的朋友也能轻松编辑自己的照片和图像,把静态照片转化为精致的动画,甚至用它创作出更多全新的内容。

     

    Meta 强调,虽然肯定不足以取代专业艺术家和动画师,但 Emu Video 和 Emu Edit 这类最新技术可以帮助人们以前所未有的方式表达自我,通过更加积极、丰富、动态的方式与他人互动。

    基于 Emu 模型打造,Emu Video 生成的视频足以以假乱真?

     

    据 Meta 介绍,Emu Video 基于 Emu 模型打造。Emu 是 Meta 旗下首款图像生成基础模型,于今年的 Meta Connect 上正式发布。目前,Emu 技术已经在支持 Meta 内部的一系列生成式 AI 体验,包括 Instagram 中那些为照片添加滤镜或背景的 AI 图像编辑工具、以及 Meta AI 中可直接通过提示词为助手应用和群聊场景生成逼真图像的 Imagine 功能。

     

    Meta 在其中提出一种基于扩散模型的文本到视频简单生成方法。这是一套用于视频生成任务的统一架构,能够响应各自足输入形式:纯文本、纯图像以及文本加图像。

     

    Meta 将这个过程分为两个步骤:首先是根据文本提示词生成图像,接下来再根据文本加生成图像进一步输出视频。这种“分解”式的视频生成方法能够提高视频生成模型的训练效率,也证明视频的分解生成方法完全可以通过单一扩散模型来实现。Meta 在其中提出了一系列关键设计决策,例如调整视频扩散的噪声时间表,并配合多段式训练让模型具备了直接生成高分辨率视频的能力。

     

    与此前需要深度级联模型(例如同时使用五种模型生成视频)的方案不同,Meta 的新成果更易于实现,仅使用两个扩散模型即可生成分辨率为 512 x 512、每秒 16 帧、长度为 4 秒的视频。凭借极佳的保真度,很多非专业人士甚至根本无法将其与真实场景区分开来。

     

    评估发现,与之前的方案相比,Meta 新模型生成的视频更受欢迎——96% 的受访者表示 Emu 模型生成的视频质量更高,85% 的受访者觉得它更能忠实反映自己输入的提示词。最后,这套模型还能根据文本提示词对用户提交的图像进行“动画化”处理,且效果同样大大超越之前的同类方案。

     

    据了解,Emu Video 最擅长的,似乎是那些比较简单、且以静态为主的场景。这些场景大多背离照片写实主义,而强调立体主义、动漫、剪纸以及蒸汽朋友等视觉风格。但即使是在 Emu Video 最出色的作品中,AI 生成的老毛病也还是若隐若现——比如奇怪的物理现象、怪异的肢体等等,物体的出现和消失也往往没有什么逻辑。

     

    虽然 Meta 接下来还有很多工作要做,但必须承认,把 Emu Video 生成的影像偷偷插进影视剧中,大多数观众可能很难分辨得出来。

    Emu Edit:通过识别和生成任务精确实现图像编辑

     

    生成式 AI 的应用总是伴随着一整个过程:用户首先输入提示词,之后发现生成的图像与自己的需求有所出入,接下来继续调整提示词直到获得更理想的结果。正因为如此,提示词工程甚至开始成为一种趋势。尽管指令式图像生成模型近年来取得了显著进步,但它们在精确控制能力方面仍然面临很大局限。基于此,Meta 决定推出 Emu Edit,希望用一种新颖的方法简化各类图像处理任务、增强图像编辑的功能性和准确性。

     

    Emu Edit 能够通过指令自由实现各种编辑操作,包括局部与全局编辑、移除和添加背景、颜色与几何形状变换、检测和分割等任务。原有方案在编辑任务中往往存在过度修改等问题,而 Meta 认为 AI 编辑工具的意义不仅在于产出“可信”的图像,更应该专注于精确修改与编辑请求相关的具体像素。

     

    与当前大部分生成式 AI 模型不同,Emu Edit 能够精确遵循指令,确保输入图像中与指令无关的像素继续保持不变。例如,在向图片中的棒球帽添加“欢呼!”字样时,帽子本身应该保持不变。

     

    Meta 的主要思路就是把计算机视觉任务当作图像生成模型的指令,借此对生成和编辑操作施以前所未有的控制。而在一系列针对局部和全局内容的编辑测试之后,Meta 发现 Emu Edit 在精确执行编辑指令方面确实拥有惊人的潜力。

     

    为了训练模型,Meta 开发出一套包含 1000 万合成样本的数据集,每个样本都对应一幅输入图像、待执行任务的描述,以及目标输出图像。这可能是迄今为止体量最大的同类数据集,而 Emu 模型也不负所望,带来了前所未有的高忠实度与图像编辑质量。在评估当中,Emu Edit 显示出优于原有方案的出色性能,在一系列图像编辑任务的定性与定量评估中都创下新的纪录。

    视频生成技术背后的争议

     

    对于 Meta 的这两项最新研究成果,有网友给予了肯定,认为这是一项巨大的进步,人类距离“一句话生成一部电影”将不再遥远,未来已来。

     

    网友 dougmwne 表示,Emu Edit 效果拔群,《星际迷航》里的场景已经由此成为现实。网友 bane 则认为“很科幻”:

     

    随着这些模型的出现,我坚持认为当《星际迷航》里的角色下达“编程”指令时,他们使用的就是经过迭代的提示词,而计算机则通过一系列优化聚合这些提示词,再进一步向曲率模型/全息甲板模拟/传输过滤器/生物床病原体检测器等下达指令,无需做更具体的描述……哎呀,这不就是 NixOS 的声明式构建吗?

    而每当需要对指令进行重新编程的时候,只要添加或变更一些提示词即可实现不同的效果。

    如果角色需要向计算机中添加新数据时,使用新输入数据对基础模型做微调就行。

    所以说……我感觉很科幻、很爽。

     

    也有网友对此表示担忧,AI 如今已经这么厉害了,真的不会取代人类吗?网友 morph123 反问道:为什么这帮搞 AI 研究的最后总要强调“这不会取代人类”?这话他们自己信吗?

     

    如今,视频生成技术早已不再新鲜。不仅 Meta 公司此前做过这方面的尝试,谷歌也有类似的方案。此外,Runway 等一众初创企业甚至开发出了商业服务。

     

    但与此同时,对于视频生成技术的争议也从未停止。一方面,AI 虚假视频的制作和传播屡禁不止,虚假视频的滥用可能触犯法律,如著作权和肖像权等。另一方面,这类生成工具很可能会夺去动画师和艺术家们的饭碗。Meta 和其他生成式 AI 厂商当然会坚称,像 Emu Video 这样的工具是在增强人类艺术家、而非将其彻底取代。但这只是种过于乐观、拒绝面对现实的说辞——面对更低的成本,企业自然会做出更有利于自己的选择。

     

    今年早些时候,Netflix 就在一部三分钟的动画短片中使用了 AI 生成的背景图像。该公司声称,这项技术有助于解决动画行业的所谓劳动力短缺问题。但为什么会造成劳动力短缺?当然是工资太低、工作条件又太过艰苦。有了 AI,企业更没必要改善从业者的待遇了。

     

    其他类似的争议还有,漫威《秘密入侵》片尾字幕的制作方承认使用 AI(主要是文本到图像工具 Midjourney)来生成其中的大部分画面。剧集总监 Ali Selim 认为使用 AI 符合该剧的立意主旨,但大多数艺术家社区和粉丝均表示强烈反对。

     

    未来甚至连人类演员都将被替代。最近,美国电视和广播艺术家联合会(SAG-AFTRA)领导罢工的主要原因之一,就是企业使用 AI 创建数字肖像。出口公司虽然最终同意向演员支付 AI 生成肖像的费用,但随着技术的发展,这种脆弱的平衡是否会被再度打破?答案很可能是肯定的。更糟糕的是,部份 AI 工具往往是用艺术家、摄影师和电影制作人的作品训练而成,而且过程中根本就不会通知或者补偿这些原创者。

     

    参考链接:

    https://ai.meta.com/blog/emu-text-to-video-generation-image-editing-research/

    https://news.ycombinator.com/item?id=38291139

    https://techcrunch.com/2023/11/16/meta-brings-us-a-step-closer-to-ai-generated-movies/

    2023-11-17 15:457670

    评论

    发布
    暂无评论
    发现更多内容

    35岁技术人如何转型做管理,mybatis使用教程,Java全套视频

    Java 程序员 后端

    2面技术+HR面+offer,从头到尾,都是精华

    Java 程序员 后端

    阿里技术官终于把这份万字面试手册整理出来了,在Github上获赞89.7K

    Java 编程 程序员 架构 面试

    数字货币能改变国际货币体系吗?

    CECBC

    21年Java面经分享,Java面试知识点总结宝典助你通关

    Java 程序员 后端

    25K大牛甩出的超详细面试总结,给班出身的程序员一些建议

    Java 程序员 后端

    30岁以后搞Java已经没有前途,Java经典排序算法

    Java 程序员 后端

    35岁程序员的人生感悟,mongodb入门教程,阿里Java高级工程师面试题

    Java 程序员 后端

    4个改变你编程技能的小技巧,附答案解析

    Java 程序员 后端

    4面字节跳动拿到Offer,尚学堂java视频下载,初级Java面试题大全

    Java 程序员 后端

    35岁技术人如何转型做管理?牛客网中级项目笔记,Java高级工程师必备知识

    Java 程序员 后端

    35岁老年程序员的绝地翻身之路,Java面试重点问题

    Java 程序员 后端

    3分钟就能完成的Redis主从复制搭建,10天拿到阿里Java岗offer

    Java 程序员 后端

    46道面试题带你了解高级Java面试,linux教程视频合集

    Java 程序员 后端

    4面技术5面HR附加笔试面,初级Java面试题大全

    Java 程序员 后端

    4个改变你编程技能的小技巧,非科班生金九银十求职经历

    Java 程序员 后端

    4面阿里拿到P7Offer,SpringSecurity如何实现加密和解码

    Java 程序员 后端

    2021金九银十面试季,java零基础入门视频教程,成功入职腾讯

    Java 程序员 后端

    云栖掠影|回首开源十年,RocketMQ 焕发新生

    阿里巴巴云原生

    阿里云 RocketMQ 云原生

    3年内被辞退5次,35岁程序员该何去何从,Java工程师必备知识

    Java 程序员 后端

    区块链上升为国家战略两周年后 看浪潮下企业如何创新数字化应用

    CECBC

    2021阿里Java高级面试题总结,Dubbo高频面试题+解析

    Java 程序员 后端

    2面技术+HR面+offer,成功入职头条月薪35K

    Java 程序员 后端

    30岁以后搞Java已经没有前途,java自学编程入门教程,大V推荐

    Java 程序员 后端

    38岁的中年失业者怎么活下去,Java中级工程师面试题及答案

    Java 程序员 后端

    4面技术5面HR附加笔试面,面试的时候突然遇到答不上的问题怎么办

    Java 程序员 后端

    5年crud经验,【微信小程序】

    Java 程序员 后端

    60分钟快速掌握RabbitMQ,Java基础全套视频教程

    Java 程序员 后端

    推荐两款工具给爱做实验的人

    Java 开源 编程 架构

    先行一步,7大技术创新和突破,阿里云把 Serverless 领域的这些难题都给解了

    阿里巴巴云原生

    阿里云 Serverless 云原生 云栖大会

    不要让孩子在12岁之前接触手机游戏

    石云升

    育儿 10月月更

    “一句话生成一部电影”将成现实?Meta推出两款AI视频编辑工具,只需文字与图像就能生成动画片段_生成式 AI_凌敏_InfoQ精选文章