万相2.6来了:这一次,阿里把"AI视频"玩得太炸裂了
万相2.6来了:这一次,阿里把"AI视频"玩得太炸裂了
万相2.6来了:这一次,阿里把"AI视频"玩得太炸裂了
说实话,最近AI圈更新太快,我已经有点麻木了。但昨天万相2.6一出来,我还是忍不住熬夜试了一晚上。
这玩意儿,真的不一样。
先说最炸裂的:角色扮演
什么意思呢?你随便找一张自己的照片,录一段自己说话的音频,然后告诉AI:"我要演一个科幻片里的特工。"
几分钟后,你就真的变成了电影主角。
不是那种假假的换脸,是真的有你的表情、你的声音、你的动作习惯。画面一帧一帧连贯下来,你几乎分不出这是AI生成的还是真人拍的。
这个功能目前全球只有两家能做——一个是Sora 2,另一个就是万相2.6。国内的话,它是第一个。
再说专业创作者最关心的:分镜控制
以前用AI生视频,最头疼的就是"不可控"。你说往左,它偏要往右;你要特写,它给你来个大全景。
万相2.6这次直接给你开放了"分镜控制"功能,支持20多种专业镜头语言:
- 推、拉、摇、移、跟
- 手持晃动、航拍俯视
- 甚至连"希区柯克变焦"都有
这对广告公司和短视频团队来说,简直是福音。以前一个镜头运动调不对,可能要重新生成十几次。现在你提前写好分镜脚本,AI老老实实照着拍。
两个真实场景,感受一下
场景一:自媒体博主想做一个"穿越古代"的创意短视频
以前怎么拍?租服装、找场地、请摄影师,一套下来几千块打底。
现在:上传自己的照片,选个古风场景,写一句"一位唐朝宫廷中的女子在走路",等3分钟。
出片。
不是那种粗糙的"AI味"很重的视频,是真的有光影、有氛围、有电影感的那种。
场景二:电商卖家需要给产品做个宣传视频
产品静态图大家都有,但视频呢?请模特+摄影+后期,一条视频报价5000起步。
万相2.6的"图生视频"功能,直接拿产品图就能生成动态展示。一杯咖啡从桌上升起、热气袅袅升腾、杯身缓缓旋转——这种镜头以前只有大品牌请得起的后期团队才能做。
现在,一张图,一段提示词,搞定。
最后说两句
我倒不是在吹阿里,而是整个AI视频这条赛道,确实到了一个临界点。
半年前,AI生成的视频还是"看着像AI做的"。现在,越来越多的内容你已经分不出来了。
万相2.6这次主打的就两个字:可控。
角色可控、镜头可控、风格可控。这意味着它不再只是一个玩具,而是真的可以进入工业化生产流程的工具。
想试试的话,通义官网就能直接体验,还是免费的。
不过我劝你做好心理准备——试完之后,你可能会重新思考自己的工作方式。