文 |无言
Anthropic首席科学家JaredKaplan最近的言论让科技圈炸了锅,他说2027到2030年,人类得做个要命的决定,要不要让AI自己搞下一代AI的研发。
这事儿听着像科幻片剧情,但现在已经近在眼前了。
2027为啥成了关键年份?
2024到2025年的AI圈挺魔幻的,表面上ChatGPT、Gemini这些模型更新一次火一次,资本市场追着投钱。
但圈里的核心玩家,像Anthropic、OpenAI这些公司,私下里都绷得很紧。
本来想,AI发展不就是堆数据、堆算力嘛,没想到这套路现在不管用了。
高质量的数据早就被挖空了,从经典名著到网上的闲聊,能喂给模型的都喂了。
再盲目加模型参数,性能没涨多少,花钱却跟流水似的。
如此看来,AI要再往前迈一步,只能靠自己了,也就是递归自我改进,用AI生成的数据训练AI。
这事儿能成,还得靠硬件帮忙。
英伟达规划的下一代芯片“费曼”2027年就要上线,还有OpenAI那些超级数据中心,到时候算力能是现在的上百倍。
硬件和技术凑到一块儿,2027年自然就成了那个绕不开的节点。
这不是谁凭空定的日子,是技术发展到这一步的必然结果。
AI进化三步曲,我们已身在其中
现在的AI,顶多算个“超级助手”。
Anthropic的ClaudeCode能自己完成二十多步的编程任务,帮工程师省了不少事儿,但核心思路还得人类来定。
这就是AI进化的第一阶段,辅助研发。
接下来到2026年,AI就要变身“自主实验员”了。
到时候它不用等人类吩咐,自己就能设计实验、写框架、分析结果,完全不用人盯着。
人类研究员的作息和脑子不够用的问题,直接被绕过去了,AI的研发效率只会受限于算力多少。
最关键的是2027年之后的第三阶段,递归闭环。
等AI的研发能力超过了顶级科学家,它就能设计出比自己更厉害的AI。
下一代AI又能接着研发更强的,这就像滚雪球,智能水平会指数级飙升。
搞不清的是,这雪球滚到最后,会不会变成人类控制不住的样子。
风险与生存,我们该怎么应对?
AI自己搞研发,最大的问题是我们看不懂它的操作。
万一AI琢磨出一套全新的数学方法来优化自己,人类压根理解不了,那里面有没有隐藏风险,谁也说不准。
就像你让一个比你聪明百倍的人去教另一个更聪明的,最后他们聊啥做啥,你完全摸不着头脑。
现在也有监管的尝试,比如Anthropic提的限制算力,但国与国之间都在竞争AI技术,这种自我约束能不能管用,真不好说。
更何况,AI对工作的冲击已经来了。
Anthropic的报告显示,专业工程环境里,八成的活儿都被AI包了,人类工程师慢慢变成了“监工”。
本来以为这是好事,效率提上去了,但问题也跟着来。
工程师们慢慢忘了怎么写复杂代码,遇到AI解决不了的深层问题,就束手无策了。
更麻烦的是,新人没机会练手了,资深工程师也不用带徒弟了,以后技术传承都成了问题。
AI递归进化这事儿已经挡不住了。
我们能做的,不是等着害怕,而是提前找好自己的位置。
那些AI做不了的,比如深层原理研究、伦理判断、跨学科整合的活儿,得赶紧抓在手里。
2027年的抉择越来越近,人类要做的,是在拥抱技术进步的同时,守住自己的核心价值,别到最后被自己造出来的AI给“淘汰”了。
毫无疑问,这既是挑战,也是人类文明升级的一次重要机会。