AI大模型再突破:Sora视频生成模型引领AGI时代

物联网界 2024-02-20 15:15:38

在当今数字化浪潮中,AI技术的飞速发展正不断刷新着我们的认知。就在不久前,OpenAI推出的视频生成模型Sora犹如一颗璀璨的明星,在AI大模型行业中横空出世,引发了业界的广泛关注。这款模型不仅将视频生成时长扩展至60秒,更实现了单视频的多角度镜头切换,其逼真程度令人咋舌。

Sora的出现,打破了AI视频生成领域的固有格局。过去,Runway、Pika等公司推出的视频生成模型,大多只能生成不足10秒的短片,且视角单一,内容失真严重。相比之下,Sora的突破不仅体现在时长上,更在于其对于现实世界的高度还原。

Sora的成功,源于OpenAI在ChatGPT上验证过的模型性能缩放法则。这一法则在视频领域的应用,再次证明了“大力出奇迹”的策略的有效性——即模型规模的不断扩大,将直接推动性能的提升。ChatGPT所展现的“智能涌现”特质,在Sora身上得到了完美延续。

面对Sora的强势入局,AI视频领域的创业者们反应各异。有的如Runway CEO克里斯托瓦尔·巴伦苏埃拉一样,摩拳擦掌准备迎接挑战;有的如Pika创始人郭文景一样,开始筹备对标Sora的新产品;还有人如Stability AI CEO埃马德·莫斯塔克一样,对OpenAI的创新能力表示赞叹,将Sora视为AI视频界的GPT-3时刻。

AI视频生成作为一个充满潜力的创业领域,已经涌现出了一批估值不菲的独角兽公司。然而,在Sora面前,这些公司的既有优势似乎都黯然失色。Sora不仅打破了文生视频的旧有局限,实现了复杂视角和场景切换的便捷生成,更在保持便捷性的同时,最大限度地保证了生成内容与真实物理世界的相关性。

尽管Sora尚未对外开放测试,但其潜在的价值已经引起了业界的广泛关注。OpenAI在官网坦诚地指出,Sora目前仍处于世界模型研究应用的初期阶段,可能存在诸多不完善之处。然而,正是这些尚未解决的Bug,激发了OpenAI持续改进模型的决心。目前,OpenAI正选取部分用户展开内测,以评估模型在关键领域的潜在危害或风险,进而推动模型的进步。

Sora等视频生成模型的出现,不仅推动了AI技术的发展,更为AGI时代的到来奠定了重要基础。OpenAI在官网上明确表示:“Sora为能够理解和模拟真实世界的模型提供了基础,我们相信这一能力将是实现AGI的重要里程碑。”

在AGI相关概念的刺激下,越来越多的公司开始投身于AI生图和视频领域的研究。去年12月,Runway提出了开发通用世界模型的计划,旨在用视频生成技术模拟整个世界。360创始人周鸿祎更是直言不讳地表示,一旦AI接上摄像头并学习现存的所有视频,其对世界的理解能力将远超文字学习,“AGI的到来可能不是一两年,而是很快就可以实现。”

然而,在追赶Sora的过程中,算法的成熟度成为了一个不可忽视的挑战。Pika创始人郭文景就提到,目前生成式视频发展的一个重要限制就是算法的成熟度问题。Sora的发布无疑为行业提供了一个有效的解题思路,也为同领域创业者提供了一条成熟的算法借鉴路线。

随着Sora的正式亮相,那些在上一波语言对话模型上落后的公司,在视频领域再次陷入了被动追赶的窘境。与此同时,英伟达芯片断供也给国内大模型厂商追赶Sora增加了不小的难度。在缩放法则指导下,大模型时代的“摩尔定律”使得芯片需求每三四个月就要翻一番,这无疑进一步提高了国内厂商追赶Sora的门槛。

尽管面临诸多挑战,但Sora的出现无疑为AI视频生成领域注入了新的活力。随着技术的不断进步和算法的日益成熟,我们有理由相信,未来的AI视频生成将更加逼真、更加智能,为推动AGI时代的到来发挥重要作用。

0 阅读:96