关于讯飞星火与DeepSeek:
1、DeepSeek的逆袭与爆火,不仅冲击颠覆了美国AI的霸权生态以及依靠堆积算力芯片的重资产投入的AI发展路线,同时也彰显了中国AI技术的真正实力,改变了中美AI竞争的格局与生态,更证实了中国的AI技术实力与AI企业被远远低估的事实。而DeepSeek的爆火,原因有三:一因为它是开源大模型,二因为它性能比较GPT+低成本,三因为它的爆火是从美国那边率先爆发从而传导到国内再火爆全球。截至2025年2月5日,DeepSeek日活用户超过4000万,已达到ChatGPT App日活用户的74.30%。而从0到过亿用户只用了7天,对比ChatGPT达到1亿用户花了2个月,Deepseek增长速度是OpenAI的9倍,霸屏全球APP榜单…
2、讯飞星火与DeepSeek都是属于低成本路线,发展的逻辑与路线相似,只不过DeepSeek属于开源大模型,而讯飞星火属于闭源大模型。星火x1的成本估计在780万美元,而DeepSeek-V3的训练成本为560万美元 。一直以来,讯飞都是用性能比别人差的国产算力卡、用比别人更少的算力、用远比别人更少的投入去做大模型。半导体研究机构SemiAnalysis认为,557.6万美元只是最终训练成本,芯片投资额应在5亿美元(约39亿港元)以上,再加上营运成本约为9.44亿美元(约73.6亿港元),故此该公司总资本支出可能高达16亿美元(约124.8亿港元)。而2024年科大讯飞的整体研发费用估计在45-50亿左右,而大模型的投入占比达50%…
3、讯飞只有1万张910B国产算力卡,属于纯国产算力,讯飞星火是目前国内唯一全栈国产算力训练、推理双实现的大模型。而DeepSeek训练用英伟达算力,推理开始采用国产,在老美的打压下,估计未来会逐步国产化。DeepSeek的2048张H800的训练能力相当于近8000张A100,效率是A100训练的3.5倍。据了解,DeepSeek拥有至少5万块Hopper架构的GPU,其中可能大约有1万块H800、1万块H100、3万块H20、1万块A100。讯飞星火X1已达到可以和OpenAI-o1、DeepSeek-R1等的对标水平,而讯飞星火X1的参数(130亿)远远小于DeepSeek-R1(6700亿参数)。另外,讯飞星火X1在今年3月还会有一次重大版本升级,参数从130亿提升到700亿,确保在数学、教育、医疗、科研等关键领域始终处于业界领先水平。DeepSeek的万卡网络通信带宽利用率为93%,而讯飞星火是95%。讯飞联合华为勇闯无人区,全国产化算力平台“飞星一号”长稳运行,全年平均使用率94%,国产超大规模智算平台“飞星二号”首批算力将在2025年交付试用…
4、DeepSeek主要在科研、算法交易、代码生成、智能客服、内容创作、知识问答等等专业领域,主要面向C端发力,目前来看,DeepSeek的出现瞬间让之前爆火爆炒的豆包和Kimi不香了,并取代豆包成为了大模型C端的国内第一,全球第二。而讯飞星火属于全行业综合性应用,覆盖300多个应用场景,主要面向B端发力。讯飞星火成为2024年大模型应用落地的“标王”,中标数量和中标金额都是第一,更是央国企的首选,与央国企及20多个行业的头部企业一起发布行业大模型,并在教育、医疗、汽车、金融、科研等多个领域获行业第一,特别是在教育医疗等领域的AI应用规模更是无人能敌遥遥领先。另外,讯飞开放平台已发布807项AI技术和方案,开发者团队总数增加到812万,海外开发者46.8万,其中大模型开发者102.1万,链接生态伙伴超过1000万…
5、最近网上说讯飞在教育领域接入DeepSeek-Math模型,联合推出了AI数学辅导应用“星火助学”,这是毫无根据的说法。还有那个说讯飞持股与投资DeepSeek的说法,也是假的。另外,昨天讯飞开放平台宣布上线DeepSeek全系列模型,支持公有云API调用、一键部署专属模型。上线与接入不同,讯飞开放平台本来就是一个开放平台,上线DeepSeek只是为了平台开发者们方便调用而已,并不是讯飞接入使用DeepSeek大模型,上线与接入是两个概念…
6、目前来看,大模型向C,DeepSeek的逆袭取代了豆包,并已霸榜。大模型向BG,讯飞的应用落地大幅领先。个人认为:
大模型面向个人,大模型本身就是一个超级应用爆款产品,不断衍生出各种AIGC的内容与服务,打造成为每一个人的AI助手…
大模型面向企业,大模型需要具备全行业的通用能力,实现面向各行各业的AI产业化与AI产品化,成为每一家企业的AI助手…
大模型面向个人、对接企业、连接产品,最终都是为了实现AGI的能力,成为AI时代的核心入口与操作系统平台。然而,AI作为一项革命性的技术,它最终是要进行大规模的产业化应用,这才是核心与关键。
而大多数人看大模型,都把目光聚焦在了C端上,而远远忽略了大模型在BG端的巨大价值,更忽略了人工智能是一个非常非常巨大的市场蛋糕,这不是一家大模型能吃完的市场,关键是各家的大模型的技术差距并不是很大,很容易就会被追赶超越。当下而言,大模型不仅要拼技术、拼成本,更要拼应用,唯有大规模的落地应用形成产业化之势,形成巨大的规模与生态,才能更好的创造体现出大模型的价值。另外,大模型面向的不仅仅只是C端,还有BG端,关键是C不等于B,也不等于实力落地应用的能力。🍎🌹