打开任何一个科技论坛或者财经公众号,铺天盖地都是AI的神话。ChatGPT又进化了,即梦能生成电影级视频,自动驾驶要全面普及了,AI要替代医生律师程序员了。说得好像再过两年,人类只要躺平就行,所有问题AI都能搞定。
我不是AI黑,我也用AI整理资料、做数据分析,这玩意儿确实好用。但你要是觉得AI会一直这么狂飙突进下去,三五年后就彻底改变世界,那你可能对技术的理解还停留在看科幻片的阶段。
现在搞AI的人最爱说的一句话是“数据是新的石油”。听着挺唬人,但你想过没有,石油还得提炼呢,数据也是一样。
AI要训练出一个靠谱的模型,需要海量的高质量数据。什么叫高质量?标注准确、覆盖全面、没有偏见、符合真实场景。听起来简单,做起来要命。
我给你算笔账,OpenAI训练GPT-4用了多少数据?官方没完全公布,但业内估计至少十几万亿个token。这些数据从哪来?爬全网、扫书库、扒代码库,光是清洗这些数据,去掉重复内容、垃圾信息、错误标注,就花了上百人团队好几个月时间。
小公司玩得起吗?玩不起。大公司烧得起,但烧完这波之后呢?网上的高质量文本数据差不多快被榨干了。有研究机构做过测算,按照现在的数据消耗速度,到2026年左右,互联网上可用的高质量文本数据就会被用完。
有人说了,可以用AI自己生成数据来训练自己。这个想法听着很美,但实际上是个大坑。用AI生成的数据训练AI,就像让一个复读机听自己的回声学习说话,最后只会越来越偏,产生所谓的“模型崩塌”。已经有研究表明,经过几轮自训练后,模型会开始胡言乱语,质量断崖式下跌。
再说一个更头疼的问题,数据的真实性和偏见。网上的数据本身就充满了各种偏见、错误、甚至恶意的内容。你把垃圾数据喂给AI,它学出来的自然也是垃圾。而且很多偏见极其隐蔽,你可能根本意识不到。
举个例子,某科技巨头曾经推出一款AI招聘工具,结果发现它严重歧视女性。因为训练数据用的是公司过去十年的招聘记录,而这十年里公司招的工程师绝大多数是男性。AI学到的东西不是“要招有能力的人”,而是“要招男人”。
这种问题怎么解决?靠技术?抱歉,纯技术手段解决不了,需要人工去做数据审核、做偏差校正、做持续监控。这不仅费时费力,而且很多时候你根本不知道偏见藏在哪。
搞AI烧钱,这是大家都知道的事。但你真了解那个数字有多夸张吗?
训练一个GPT-4级别的模型,算力成本大约在1亿到2亿美元之间。这还不算前期的实验调试,你要跑无数个失败的版本,才能找到那个能用的。这些失败的尝试,烧的钱一点不少。
英伟达的H100显卡,现在市场上多少钱一张?四万美元起步,还要排队等。想搞大模型的科技公司,动不动就要买上万张。光显卡投入就是几个亿美元。再加上电费、机房散热、维护团队,每年运营成本又是天文数字。
有人说,算力成本会像过去的电脑芯片一样,随着技术进步越来越便宜,这话说对了一半。摩尔定律确实让计算成本长期下降,但那是针对通用计算。AI训练需要的是并行计算能力,而且需求增长速度远超算力供给速度。
你看看过去几年,顶级AI模型的参数量从几亿涨到几千亿,涨了上千倍。训练所需的算力每三到四个月翻一番,这个速度远超摩尔定律的十八个月翻倍周期。
更麻烦的是,单纯堆算力已经碰到了收益递减的墙。把模型参数从1000亿增加到2000亿,性能提升可能只有几个百分点,但算力成本要翻倍。继续往上堆,成本会指数级增长,效果却越来越不明显。
这就像你考试从0分考到60分很容易,从60分考到90分要下功夫,从90分考到95分就要拼命了,从95分到100分,那点进步可能要付出之前所有的努力。问题是,商业世界能接受这种投入产出比吗?
前面说的数据和算力问题,说到底还是资源问题。资源可以堆,但有些问题是资源堆不出来的。
现在的AI,无论是GPT还是其他大模型,本质上都是模式匹配和概率预测。它根据前文预测下一个最可能出现的词,根据输入预测最可能的输出。它不是在“思考”,而是在“猜”。
这就带来了一个根本性的局限,AI没有真正的理解能力。
你问AI一个它见过无数遍的问题,它能给你一个漂亮的答案。但你稍微变一下,加个陷阱或者换个逻辑框架,它可能就完全懵了。因为它不是在理解问题本质,而是在匹配它见过的模式。
如问AI:一个人在房间里,身上穿的衣服把身体完全覆盖,只露出眼睛和手,他拿了一个棒球和球棒,他能打到球吗?AI说可以。再问:他手上戴着手铐呢?AI说那可能打不到。再问:如果手铐铐在身后的柱子上呢?AI就混乱了。
你我都知道,手被铐在身后柱子上,就算露着眼睛和手也没用,但AI不理解“人的活动范围受限”这个物理概念,它只是在匹配“手铐”这个关键词和“限制行动”这个常见关联。一旦场景超出它的训练数据覆盖范围,它就开始胡扯。
这个问题在长期开发中会越来越突出。因为真实世界的场景是无限的,你永远不可能把所有情况都喂给AI让它记住。真正的人工智能需要具备抽象推理和因果理解能力,但现在的AI在这些方面基本上是白纸一张。
图灵奖得主朱迪亚·珀尔说得狠,现在的深度学习只是对旧数据的曲线拟合,它不能回答“如果我不这么做会怎样”的反事实问题。而反事实推理,恰恰是人类智能的核心。
你想让AI做科学发现?它需要提出新假设,设计实验,解释结果。这需要理解因果机制,而不是相关关系。你想让AI做战略决策?它需要预测不同选择带来的不同后果,评估不确定因素。这需要具备推理和想象力。
这些东西,靠堆数据堆算力,真堆不出来。
很多人以为AI开发的最大成本就是训练那一锤子买卖。模型训练好了,部署上线,然后就可以坐着收钱了。
天真。模型上线只是噩梦的开始。
你今天训练好的模型,三个月后可能就因为数据分布变化而性能下降。电商的AI推荐系统,用户口味变了它就跟不上;金融风控模型,经济形势一变它就失灵;内容审核模型,新的梗和新的违规方式层出不穷。你需要不断重新训练、微调、更新。
紧接着,AI系统会出各种你意想不到的故障,传统软件出bug,你能定位到是哪行代码写错了。AI模型出问题,你根本不知道是训练数据的问题、模型结构的问题、还是某个参数调得不对。它就像一个黑箱,里面几十亿个参数相互纠缠,牵一发而动全身。
更要命的是安全性和可靠性要求,AI用在医疗、自动驾驶、金融这些领域,出错的代价可能是一条人命或者几千万损失。你敢随便更新模型吗?更新前要做多少测试?测试环境能完全模拟真实场景吗?这些问题每一个都能让开发团队头疼好几个星期。
长期维护AI系统的成本,往往是初始开发成本的三到五倍。而且这个倍数会随着系统复杂度和应用场景的重要性而增加。想在关键领域用AI,就要做好烧钱烧到肉疼的准备。
说了这么多,我不是要否定AI的价值。这玩意儿确实牛,在很多特定任务上已经超过了人类。文本生成、图像识别、代码补全、数据分析,AI能干很多以前想都不敢想的事。
但你要清醒认识到,AI不是万能药。它有明确的能力边界,有逃不掉的物理限制,有深层次的原理性缺陷。长期开发AI,你要面对的是数据枯竭、算力瓶颈、推理能力缺失、维护成本飙升、伦理法律一团乱麻这些硬骨头。
这些坑,有些能用钱填,有些能用技术创新绕过,有些可能永远都跨不过去。我们现在能做的,不是盲目吹捧AI要统治世界,也不是恐慌AI要抢走所有工作,而是老老实实地搞清楚,AI擅长什么、不擅长什么、什么任务可以交给它,什么必须自己盯着;什么是当前能做到的,什么是十年内都搞不定的。
做人做事都要实在,AI是个好工具,但它终究是个工具。别指望它替你解决所有问题,也别因为它解决不了所有问题就否定它。找准它的位置,用对地方,这才是正经事。
至于那些动不动就说AGI要来了、人类要下岗了、奇点要爆发了的,我劝你先去搞几个月的AI开发项目试试。等你被数据清洗、模型崩塌、算力账单、伦理扯皮折腾一圈之后,你就会明白,这条路还长着呢。