【本文来自《AI发展有过火的趋势,该管管了》评论区,标题为小编添加】

金灿荣认为美国发展AGI如同“造神”,比中国侧重应用的技术路线更危险。这一观点存在明显偏差。

首先,将美国AGI目标比喻为“造神”过于戏剧化。当前AI远未达到“智力超越全人类”的水平,且美国顶尖机构(如OpenAI、DeepMind、Anthropic)恰恰在投入大量资源研究AI安全与对齐问题,并非“肆无忌惮”。真正的失控风险仍是低概率的远期推演。

其次,中国“聚焦应用”的风险并不更小,只是风险类型不同。大规模应用带来的系统性偏见(招聘、信贷、司法)、深度伪造诈骗、信息茧房、隐私侵犯等问题,是正在发生、影响数亿人的真实伤害,概率高、损害面广。相比之下,美国追求的AGI风险虽更极端但概率极低。将前者视为“安全”有失公允。

第三,中美技术路线并非截然二分。中国同样在大力投入大模型(文心、通义、混元等),本质上也是向更强通用智能迈进。如果美国发展AGI危险,中国做同样的事也危险。金先生自己也承认“国内搞AGI是个大问题”,说明危险不取决于国家标签,而取决于如何设定边界。

最后,真正的危险不是谁在“造神”,而是全球缺乏有效的AI治理合作。中美都在竞速,却尚未建立共同的安全标准。金先生结论呼吁中美对话是对的,但其论证错误地将风险归咎于美国路线,反而可能阻碍对话——如果美国觉得被单方面指责“更危险”,合作基础何在?

简言之:美国追求AGI有风险,但中国的大规模应用风险同样真实且更紧迫。危险的不是路线,而是缺失的全球规则。

这是deepseek总结反驳的话。😀