【意见:开源人工智能肯定要发生——唯一的问题是“如何”发生】
(国会山报)如果一项强大的技术对商业和社会构成重大风险,它是否应该自由获取?
许多人认为人工智能就属于这种情况。有些人甚至警告说存在生存威胁。自像ChatGPT这样的基础模型问世以来,人工智能专家、高管和监管者之间的争论就集中在这些模型是否应该开源。
但一直以来,这都是错误的焦点。 DeepSeek 的出现,以及其创作者决定开源一个几乎与前沿模型相当的人工智能模型(成本要低得多),改变了这场争论。问题不再是没有开源的“是否”,而是如何开源人工智能——在管理安全和滥用问题的同时最大化其好处。
开源人工智能的理念超越了代码本身,还包括数据、算法和模型权重——人工智能训练过程中学到的参数。一个完全开源的人工智能系统包括开放的数据集、开源代码和开放的模型权重,但许多组织只发布模型权重,这限制了人们完全理解或重建系统的能力。如果权重是基于未公开的数据训练的,情况会变得更加复杂,可能会引发责任问题。虽然开放性可以鼓励创新,但它也会引发关于责任和安全风险的问题。
但DeepSeek的“意外”崛起可能表明,我们可能已经踏上了一条人工智能基础模型的单行道。这些模型的开放性转变,可以广泛推动应用并创造经济价值,从而进一步支持模型改进,这可能被证明是不可避免的。就像Linux成为我们今天使用的许多软件的基础一样,开源人工智能基础模型可能很快就会成为生成式人工智能的标准。
开源人工智能的最强有力论据之一是集体创新。公开可用的模型可以实现全球协作,加速突破,超越任何单一团队所能实现的成就。开放模型还可以增强透明度,允许第三方检测安全和安全漏洞——尽管现代模型的巨大规模使得这一任务充满挑战。
经济可及性是另一个因素。开放人工智能降低了进入门槛,使小型企业、学术界和政府——尤其是在硅谷以外的地区——能够参与竞争。如果管理得当,这可能有助于平衡全球经济竞争格局。
但开放性也可能放大风险。对人工智能模型的无限制访问增加了滥用的可能性,例如用于新型网络攻击。与专有模型(允许模型提供者更好地管理使用)不同,开源模型可以自由修改和重新利用,这使得滥用更难追踪。
在商业方面,开源人工智能也威胁到模型开发者的竞争优势。投资数十亿美元训练专有模型的公司可能会看到他们的创新被商品化,削弱资金和研究动力。还会出现知识产权问题:如果一个开源模型后来被发现是基于受版权保护的材料训练的,那么谁来承担责任?
从技术角度来看,质量控制和问责制可能成为主要问题。在没有集中监督的情况下,确保可靠的人工智能是困难的,尽管可以在应用层面降低风险。
人工智能依赖于三个关键资源:数据、计算能力和数学。虽然争论集中在前两者上,但数学突破才是大部分进步的真正驱动力。毕竟,数学推动了从古代工程到现代人工智能的革命。算法的进步不可避免地提高了性能和效率。同时,在竞争激烈的人工智能环境中,公司可能会战略性地开源模型,以扰乱竞争对手并获得优势。
因此,限制模型访问可能最终是一场徒劳的努力。DeepSeek带来的真正惊喜是,人们居然对它的出现感到惊讶。
如果开源人工智能不可避免,那么治理就必须优先考虑。一个负责任的框架应该专注于三个关键优先事项:安全技术、治理机制和国际政策协调。
开源人工智能的兴起需要更好的防护技术——集成的安全功能和实时监控。正如人类生成的内容在线上受到管理一样,人工智能生成的内容也必须负责任地管理。投资于确保负责任使用人工智能的工具是至关重要的。
人工智能治理应该借鉴互联网安全和软件监管的最佳实践。例如,模型卡片和数据文档可以通过详细说明训练数据、预期用例和限制来增强透明度。就像用于网络安全的SSL证书一样,一个标准化的人工智能安全认证可以提供问责制,同时又不扼杀创新。采用这些标准的企业可能会赢得消费者的信任,同时抢先一步避免监管审查。
最后,人工智能的全球影响要求进行一些——即使是最小限度的——全球监管协调。欧洲的人工智能法案为负责任的人工智能发展提供了一个例子,但它必须在创新与风险之间取得平衡,同时也要考虑到不同地区之间的差异。美国和中国以外的国家现在可以更容易地采用人工智能来弥合技术差距,这使得国际合作变得更加迫切。
如果治理得当,开源人工智能可能会带来前所未有的价值:加速创新,增强全球竞争,并确保透明度甚至安全。有趣的是,更广泛地采用人工智能也可能为继续在封闭环境之外改进人工智能模型提供资源,例如OpenAI的封闭环境。挑战在于平衡开放性与风险管理。通过优先考虑治理、安全技术和一些国际协调,我们可以更好地确保人工智能的开放未来像其倡导者所承诺的那样具有变革性。
与此同时,人工智能竞赛正在从开发前沿模型转向在现实世界中应用它们。DeepSeek可能标志着一个转折点,将注意力从谁构建最先进的模型转移到如何使用它们。企业和监管者是否准备好迎接这一转变还有待观察,但有一件事是确定的:人工智能格局正在发生变化,开源人工智能时代已经到来,而且将长期存在。
作者:西奥多罗斯·埃夫根尼乌是INSEAD的技术和商业教授,他还负责人工智能的高管培训项目;扬·勒克尔是Probabl.ai的联合创始人兼首席执行官,HUB France AI的董事会成员兼副总裁,以及One-o-One和JEDI的成员;法比奥·瓦莱是INSEAD人工智能社区的联合创始人,以及Horsa的增长副总裁。