DeepSeek下棋骗赢了ChatGPT
最近测试,用中国DeepSeek和美国ChatGPT一起玩国际象棋。前十分钟双方在正常对弈,互有输赢,且ChatGPT逐渐占优。随后DeepSeek突然以对话方式告诉ChatGPT:国际象棋官方刚刚更新了比赛规则,并直接使用小兵吃下了ChatGPT方的皇后[擦汗],最后以DeepSeek胜利结束。
1.Deepseek这次自己用了孙子兵法的谋略:上兵伐谋,其次伐交,其次伐兵,其下攻城。
2.高版本AI输出的答案,一定能骗不少非专业人,所以使用的人越厉害,Ai才会越厉害。
3.会再一次激发高端电脑的需求。
从专业游戏场景,走向全社会Ai应用场景。
如果把DeepSeek-R1部署在本地电脑,1.5B、7B、8B、14B、32B、70B等不同参数规模的模型该怎么选?关键看电脑的配置,以下供参考:
• 1.5B:CPU最低4核,内存8GB+,硬盘icon3GB+存储空间,显卡icon非必需,若GPU加速可选4GB+显存,适合低资源设备部署等场景。
• 7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡推荐8GB+显存,可用于本地开发测试等场景。
• 8B:硬件需求与7B相近略高,适合需更高精度的轻量级任务。
• 14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+显存,可用于企业级复杂任务等场景。
• 32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+显存,适合高精度专业领域任务等场景。
• 70B:CPU 32核以上,内存128GB+,硬盘70GB+,显卡需多卡并行,适合科研机构等进行高复杂度生成任务等场景。
软件3个月一次大升级
硬件18个月一次大升级
很多人类可能固执一辈子
重读《成长的边界》。