为什么 cahtgpt 之后人工智能在很多领域都爆发了?主要爆发在哪里?是 scaling law 被广泛应用吗?还是单纯的给人一种信心
ChatGPT 之后的人工智能爆发,并不是单一因素的结果,而是技术突破(Scaling Law)、交互革命(Chat 界面)和信心资本(投资与人才)三者构成的完美风暴。
简单来说:Scaling Law 提供了“地图”(告诉我们会成功),ChatGPT 提供了“车”(让大众能用),而信心带来了“油”(资金和算力)。
以下是详细的拆解:
是的,Scaling Law 是这次爆发的“物理学基础”,但它正在演变。
它的作用(确定性): 在 ChatGPT 之前,AI 研发像“炼金术”,没人知道增加算力能不能变聪明。Scaling Law(L(N)≈N−α)证明了:模型性能与算力、数据量、参数量呈幂律关系。 这意味着只要堆资源,模型这就一定会变强。这种可预测性让大公司敢于投入几十亿美元去训练一个模型。
它的现状(从训练到推理):
第一阶段(Pre-training Scaling): 过去几年,大家都在拼命把模型做大(堆显卡、堆数据)。
第二阶段(Inference Scaling): 最近(如 OpenAI o1, DeepSeek R1),Scaling Law 扩展到了推理阶段。通过让模型“多思考一会儿”(Chain of Thought),不用重新训练超大模型也能获得巨大的智力提升。这是目前爆发的新增长点。
单纯的信心不能维持长久的繁荣。ChatGPT 带来的最大改变是将 AI 的门槛降到了零。
LUI (Language User Interface): 以前用 AI 需要懂 Python、调 API。ChatGPT 让“自然语言”成为了编程语言。这种可获得性(Accessibility)让各行各业的人(医生、律师、画师)都能直接尝试 AI,从而瞬间引爆了应用层。
信心引发的“军备竞赛”: 因为 Scaling Law 给了底气,导致全球资本疯狂涌入基础设施(NVIDIA GPU)。这种“暴力美学”的成功,打破了过去几十年 AI 只能做“人脸识别”或“推荐算法”的专用模型(Narrow AI)瓶颈,转向了通用人工智能(AGI)。
目前的爆发不再是均匀的,而是集中在“生成”和“推理”能力最能替代人类边际成本的领域:
现象: GitHub Copilot, Cursor, Bolt.new, DeepSeek。
改变: 编程是目前 AI 渗透率最高的领域。AI 不仅是补全代码,现在可以从头写整个项目。代码本质上是逻辑严密的语言,最符合 LLM 的能力。
现象: Midjourney (图), Sora/Runway (视频), Suno (音乐)。
改变: 边际成本归零。以前画一张海报需要 3 天,现在需要 30 秒。这彻底改变了广告、游戏素材、影视预演(Pre-viz)的生产流程。
现象: Perplexity, 企业内部知识库, Notion AI。
改变: 传统的“关键词匹配”搜索失效,变成了“语义理解”。企业不再需要员工去翻 500 页的 PDF 手册,直接问 AI 就能得到精准答案。
现象: AlphaFold 3 (生物), GNoME (材料学)。
改变: 这是 Scaling Law 在非语言领域的降维打击。AI 预测蛋白质结构的能力加速了新药研发,这是 AI 对人类福祉最硬核的贡献。
这是一个正反馈循环:
Scaling Law 证明了路是通的(技术基础)。
ChatGPT 证明了产品是有人用的(商业验证)。
信心 导致了数千亿美元的基建投入(GPU 集群)。
基建过剩 又反过来迫使人们寻找更多的应用场景(应用爆发)。
目前我们正处于从“单纯相信 Scaling Law”转向“寻找杀手级应用(PMF)”的阶段。
如果您对某个具体方向感兴趣,我可以为您做更深入的拆解:
想看技术趋势: 您想了解最新的 “推理侧 Scaling Law” (o1/R1 模式) 是如何运作的吗?
想看行业应用: 您想了解 AI 编程工具 (如 Cursor) 或 企业知识库 (RAG) 的具体落地案例吗?
不是,我要你给我一个全景图。除了生成式 ai 以外,还有什么进展吗?具身智能不也开始火了?这个感觉和 llm 的进展无关啊还有各种别的 ai 应用也火了
这是一个非常棒的视角。媒体的聚光灯确实太集中在“生成式 AI”(写诗、画图、聊天)上了,导致很多人以为现在的 AI 只有 LLM(大语言模型)。
真相是:AI 正在经历一场“寒武纪大爆发”,LLM 只是其中个头最大、最显眼的那个“恐龙”。
除了生成式 AI,还有三股完全不同、甚至技术逻辑都不一样的 AI 浪潮正在爆发。它们解决的问题不是“创作”,而是“生存”、“发现”和“决策”。
这是一个去掉了“生成式滤镜”的 AI 全景图:
你提到的具身智能确实火了,而且它和 LLM 的关系很微妙——LLM 只是它的“眼睛和嘴巴”,但控制身体需要的是完全不同的“小脑”技术。
爆发点在哪里?
Sim-to-Real(仿真到现实): 以前机器人很笨,因为现实世界太复杂,训练成本太高。现在的突破是 NVIDIA Isaac 等平台,让机器人在虚拟世界里“一天摔倒一亿次”,学会走路后再下载到真机器人身上。这跟 ChatGPT 的“文字接龙”完全是两码事。
端到端控制 (End-to-End Visuomotor): 以前让机器人抓杯子,要写代码分三步:识别杯子 -> 计算坐标 -> 移动手臂。现在是直接把摄像头画面喂给神经网络,它直接输出电机的电压信号。这种“直觉反应”是近期最大的突破。
和 LLM 的关系: LLM 负责听懂命令(“去把那瓶水拿来”),但真正保持平衡、拿捏力度、不撞墙,靠的是强化学习(Reinforcement Learning)和控制论的突破。
这可能是比 ChatGPT 对人类贡献更大的领域,但因为它不“陪聊”,所以大众关注度低。这里的核心技术不是 Transformer,而是 GNN(图神经网络) 和 几何深度学习。
爆发点在哪里?
生物学 (AlphaFold 3): 蛋白质是 3D 结构,不是一串文字。AlphaFold 预测蛋白质折叠,靠的是理解几何空间结构,而不是语言逻辑。这直接改变了制药行业。
材料学 (GNoME): Google DeepMind 用 AI 预测了 220 万种新材料(相当于人类过去 800 年发现的总和)。这靠的是学习原子之间的化学键关系(图结构),而不是读论文。
天气预测 (GraphCast): 现在的 AI 天气预报(比如华为盘古气象大模型)能在 10 秒内预测未来 10 天的全球天气,精度超过了运行几小时的超级计算机。这是流体力学方程与 AI 的结合。
大家都在疯狂堆算力(Scaling Law),但有一派人在搞“小而美”的革命,试图模仿生物大脑的低功耗和高适应性。
液体神经网络 (Liquid Neural Networks, LNN):
这是什么? MIT 团队搞出的新架构。普通的神经网络训练完就“定型”了,但这玩意儿像液体一样,在推理过程中还能根据环境实时改变参数。
爆发点: 它只需要极少的神经元(几十个)就能控制无人机在森林里穿梭,而不需要像大模型那样消耗巨大的显卡。这在自动驾驶、无人机领域是颠覆性的。
脉冲神经网络 (Spiking Neural Networks, SNN):
这是什么? 这种 AI 不像现在这样通过“数值”运算,而是模仿人脑,通过“脉冲(电流尖峰)”来传递信息。没信号时它就休眠,极其省电。
爆发点: 神经形态芯片(Neuromorphic Chips)的进步,让这种 AI 能在功率极受限的设备(如手机传感器、植入式医疗设备)上运行。
这在大众视野里几乎隐形,但它是最赚钱的领域之一。
爆发点: 港口调度、芯片布局、物流路径规划。以前靠运筹学专家手算公式,现在用 深度强化学习 (Deep RL) 里的 Solver Agent。
例子: 芯片巨头(如 NVIDIA, Google)用 AI 来设计芯片电路图(Chip Floorplanning),AI 甚至能画出比人类工程师更省电、更紧凑的电路布局。这纯粹是逻辑和数学的最优解搜索,和语言模型没有任何关系。
不完全是。如果把现在的 AI 爆发看作一场战争:
正面战场(生成式 AI/LLM): 确实是靠 Scaling Law(大力出奇迹)轰开的。
侧翼战场(AI for Science / 具身智能): 靠的是 Data Efficiency(数据效率) 和 物理先验。比如把物理公式(牛顿定律、流体力学)写进神经网络里,让 AI 不仅仅是猜概率,而是符合物理规律。
游击战场(Edge AI / LNN): 靠的是 Architecture Innovation(架构创新),追求的是用最少的算力做最聪明的事。
一句话回答你: 现在的爆发是“暴力美学(LLM)”与“精密工程(Science/Robotics)”的双重奏。大众只看到了聊天的热闹,但真正的工业革命,正在那些不说话的机器(机器人、蛋白质预测、芯片设计)里悄悄发生。
我说的是chatGPT之后的事情。chatGPT标志着寒武纪大爆发吗?还是在chatGPT之后,大爆发的吗?还是实际没什么变化,只是炒作了,只是做的人多了。
这是一个极好的问题,直击本质。
我的回答是:ChatGPT 是那颗撞击地球的“陨石”,它剧烈改变了环境,从而引发了随后万物的“寒武纪大爆发”。
所以,并不是 ChatGPT 本身代表了整个爆发,而是它引爆(Triggered)了这场爆发。在这之前,火药桶已经堆满了,ChatGPT 只是丢进去了那一根火柴。
我们可以从三个维度来拆解这个过程:潜伏期(Before)、引爆点(The Spark) 和 连锁反应(After)。
在你感觉“没什么变化”的时候,其实 AI 界已经堆积了巨大的势能,只是它们都在“深水区”,大众看不见。
DeepMind 的 AlphaGo (2016):证明了 AI 在决策上可以超越人类,但那是下围棋,跟你没关系。
Google 的 BERT (2018):让机器开始真正读懂句子,但它只能做“填空题”,不能陪你聊天。
OpenAI 的 GPT-3 (2020):其实已经很强了,但它像个只有极客会用的命令行工具,没有界面,由于缺乏 RLHF(人类反馈强化学习),它说话经常胡言乱语。
生物界的 AlphaFold (2020):解决了生物学 50 年难题,但这是科学家的狂欢,普通人毫无感知。
结论: 在 ChatGPT 之前,AI 已经在特定领域(Narrow AI) 强得离谱了,但它们是割裂的、难用的、昂贵的。
ChatGPT (2022.11) 并没有发明 Transformer 架构,也没有发明神经网络。它做对了一件事:它把 AI 的使用门槛降到了“0”。
这不仅仅是“炒作”,这是一个“界面革命”(Interface Revolution):
以前: 用 AI 需要懂 Python,懂 PyTorch,哪怕是用 GPT-3 也得会写 Prompt 代码。
ChatGPT 后: 你只要会说话(打字),你就能用最顶尖的算力。
这个变化导致了“物种大爆发”的必要条件:
用户涌入: 只有人用,才有数据(Data Flywheel);
资本涌入: 投资人终于看懂 AI 能干嘛了,于是把原本投元宇宙、Web3 的钱全部砸向了显卡;
人才涌入: 搞物理的、搞生物的、搞机器人的,全都发现:“卧槽,这东西能当我的大脑用!”
你说得对,很多领域(如具身智能)看着火,好像跟 LLM 没关系,其实关系巨大。ChatGPT 之后的爆发是“通用认知能力”的外溢。
请看这个全景图,看看 ChatGPT 之后发生了什么:
领域 ChatGPT 之前的状态 ChatGPT 之后的改变(为什么火了?)
具身智能 (Robot)只有小脑:机器人走路很稳,翻跟头很溜(波士顿动力),但听不懂人话。你说“给我拿瓶水”,它不知道什么是水,也不知去哪拿。装上了大脑:现在的机器人(如 Figure 01, Tesla Optimus)用 LLM 做大脑来理解指令和规划任务,再用小脑控制身体。没有 LLM,机器人永远只是自动化的机器,不是“智能体”。
AI for Science****单点突破:针对蛋白质折叠训练一个模型,针对天气训练另一个。互不通气。通才助手:像 Google 的 AI Co-scientist (2025/2026),它不仅仅是算数据,而是能像科学家一样读论文、提假设、设计实验。这是 LLM 的推理能力在科研上的泛化。
软件工程****代码补全:帮你写下一行代码。AI 程序员:像 Devin 或 Cursor,能自己从头写一个 APP。这是因为 LLM 理解了长逻辑链条。
Export to Sheets
有炒作,也有真东西。
什么是炒作? 套壳 ChatGPT 做个“周报生成器”就说自己估值 1 亿,或者做个 PPT 说“我们要造通用机器人”但连 demo 都没有的公司。这些是泡沫,现在正在破裂(2025-2026 很多 AI 独角兽倒闭就是证明)。
什么是真东西?
Scaling Law 依然有效: 模型还在变聪明(GPT-4 -> o1 -> GPT-5/Gemini 2.0),智力天花板还在升。
边际成本归零: 以前只有大厂能雇翻译,现在你免费用。以前只有好莱坞能做特效,现在 Sora 能做。这种生产力的释放是真实的物理变化。
ChatGPT 不是寒武纪大爆发的“全部”,它是那个导致氧气含量突然升高的“蓝藻爆发”。
它让“自然语言”成为了所有机器的统一控制接口。
它带来的“推理能力”(Reasoning)成为了机器人、科研助手、程序员的通用大脑。
所以,现在的爆发,本质上是“所有行业都在尝试给自己的业务装上一个 ChatGPT 的大脑”。 这就是你看到的“万物皆 AI”。
如果您想直观地感受这种“大脑”是如何被装进“身体”里的,以及这不仅仅是炒作,强烈推荐看看这个视频:
Figure 01 OpenAI Speech-to-Speech Reasoning
推荐理由: 这个视频发布于 ChatGPT 爆发之后,完美展示了“大模型(OpenAI)”如何作为大脑,指挥“具身智能(Figure 机器人)”进行理解、决策和行动。你看完会发现,没有 LLM 的语言理解能力,这个机器人之前的动作(递苹果、整理盘子)是不可能通过单纯的机械控制实现的。
不是还有自动驾驶,工业 ai,还有各种乱七八糟的ai 应用吗
您的直觉非常敏锐。媒体为了流量,把“生成式 AI”炒作成了 AI 的全部,掩盖了更庞大、更硬核的“非生成式 AI”冰山。
您提到的自动驾驶、工业 AI 以及其他应用,不仅在爆发,而且它们与 ChatGPT(LLM)的关系非常有趣:有的属于“近亲技术”(用了同样的底层架构),有的属于“平行进化”(本来就很强,只是现在更有钱了)。
这是一张ChatGPT 之外的 AI 隐形爆发全景图:
这一块绝对是爆发重灾区,而且跟 ChatGPT 的技术原理(Transformer)有直接血缘关系。
以前怎么做(规则派): 工程师手写几十万行代码,“如果看到红灯,就刹车;如果看到人,就避让”。这导致车很笨,遇到没见过的路况就傻了。
现在怎么爆发(端到端 End-to-End): * 特斯拉 FSD v12 为代表: 他们删掉了几十万行规则代码,改用神经网络。
原理跟 ChatGPT 一模一样: ChatGPT 是“喂它很多书,学会接下一句话”;FSD 是“喂它很多人类驾驶视频,学会预测下一个动作(左转还是刹车)”。
为什么火? 因为 Scaling Law 在这里也生效了!只要喂足够多的视频数据,车就自己学会了像老司机一样开车,不需要人去教它“什么是红灯”。
**跟 LLM 的关系:**同宗同源。 它们都用了 Transformer 架构,都在用“大数据暴力破解”智能。
这个领域不性感,没法发朋友圈,但它是真正改变实体经济的地方。这里的爆发属于“平行进化 + 混合增强”。
预测性维护 (Predictive Maintenance):
爆发点: 以前机器坏了才修,现在 AI 听机器的振动声音(听觉)、看红外温度(视觉),能在机器坏之前 3 天告诉你“轴承要断了”。
技术核心: 不是 LLM,而是时间序列分析 (Time-Series Analysis)。
数字孪生与工业设计:
爆发点: 比如英伟达的 Omniverse。在盖工厂之前,先在电脑里用 AI 模拟一遍,机器人会不会撞墙,流水线会不会堵塞。
跟 LLM 的关系:人机接口变了。 以前调整工业机器人参数要请专家,现在工业 AI 接入了 ChatGPT 能力,工人直接问机器:“你为什么停了?”,机器回答:“因为 3 号口堵了,建议调低速度。”——LLM 成了复杂工业机器的“嘴巴”。
这些领域虽然没有 ChatGPT 那么出名,但都在经历自己的“高光时刻”。
爆发案例: Google DeepMind 的 GraphCast 和华为的 盘古气象大模型。
震撼点: 以前预报天气要用超级计算机算 3 小时的流体力学公式。现在 AI 用 10 秒钟 就能算完,而且预测台风路径比传统方法还准。
原理: 用 GNN (图神经网络) 处理地球经纬度网格。这不靠聊天,靠的是硬核数学。
爆发案例: 高频交易与风控。
隐形战场: 现在的 AI 能够阅读全球每秒产生的新闻、推特、财报,分析市场情绪,然后以毫秒级的速度下单。这不是简单的量化交易,而是基于自然语言理解 (NLP) 的情绪交易。
跟 LLM 的关系: 强相关。LLM 极强的阅读理解能力,让金融 AI 拥有了“读新闻炒股”的能力。
爆发案例: AlphaGeometry, AlphaProof。
震撼点: 专门用来做奥数题的 AI。它们不靠“猜”,而是结合了符号推理。这标志着 AI 开始攻克人类逻辑的皇冠——数学证明。
如果把 AI 爆发比作一次“工业革命”:
ChatGPT/LLM 是“蒸汽机”: 它是最通用的动力,谁都能拿来用(写代码、写文案、做客服)。
自动驾驶是“火车”: 它用了跟蒸汽机类似的原理(Transformer),但它是一辆专门的车,目的是把人从 A 送到 B。
工业 AI 是“纺织机”: 它早就存在了,但现在因为有了更好的零件(更便宜的芯片)和更好的控制台(LLM 做的交互界面),效率翻倍了。
所以您的感觉是对的: 除了生成式 AI,感知型 AI(看路、听故障)、决策型 AI(炒股、调度物流)和 科学型 AI(预测天气、蛋白质)全都在爆发。
它们共同吃到了这波红利:更便宜的算力(GPU)、更有效的数据训练方法(Scaling Law)、以及全人类对 AI 投入的信心。