从 IBM、Intel、Sun 到英伟达,硬件霸主的利润周期有多长
彼得·蒂尔把 AI 利润高度集中于英伟达的现象说破了,但历史上真正决定硬件霸主寿命的,从来不只是制程和性能,而是它能把标准、生态、兼容性和资本开支周期捏在手里多久。
- IBM、Intel、Sun 和 Qualcomm 的分化说明,硬件利润高峰可以持续很久,但守住高峰比冲上高峰难得多。
这里汇总的是 Freelemon 的长文。现在列表页不再只有单一时间线,而是把搜索、标签和专题阅读放到同一层里: 技术沉思 偏系统、方法与工程判断, 访谈 偏一手观点整理与人物表达, 行业观察 偏竞争格局、平台变化与商业判断。
Latest Archive
这里保留 AI战略 标签下的时间线。专题区负责导读,这里负责完整归档和顺序回看。
彼得·蒂尔把 AI 利润高度集中于英伟达的现象说破了,但历史上真正决定硬件霸主寿命的,从来不只是制程和性能,而是它能把标准、生态、兼容性和资本开支周期捏在手里多久。
“32TB/s、光纤代替 DRAM、AI 硬件要变天”这串说法的底层算术并不荒唐,但它更像一个顺序流式缓存脑洞,而不是通用内存替代方案。真正值得追踪的变化,是光互连、CXL 内存池化和 photonic fabric 正在重写内存层级。
Oracle 这轮裁员如果只被理解成一家老牌软件公司的缩编,就会错过重点。更准确的看法是:它正在把成熟软件业务挤出的现金、人力和组织空间,强行转投到一场更重资产、更高风险、也更可能改写公司估值逻辑的 AI 云基础设施战役里。
“2028 末世论”并非宗教预言,它来自 Citrini Research 在 2026 年 2 月提出的一套 AI 宏观压力测试:如果白领自动化跑得太快,产出增长反而可能先撞上就业、消费和资产价格的连锁下行。
这期播客信息很满,但不同句子的分量并不一样。把官方口径、财报事实、一线体感和前瞻押注分开看,节目里哪些地方站得稳,哪些地方仍要等,就会清楚很多。
这期播客难听懂,主要不是因为观点多,而是术语扎堆。AI 工厂、prefill、decode、KV cache、MoE 这些词一旦理顺,姚欣和季宇的分歧就会清楚很多。
看完 GTC,季宇先想到的不是一块卡快了多少,而是整台机器越做越大了。CPU、GPU、网络、LPU 被一起打包进系统之后,英伟达更像一家卖大型机的公司,这也是他整段访谈的出发点。
姚欣的判断值得看,不是因为它预测了多少新品,而是因为它把英伟达放回了更长的产业周期:算力、系统集成、企业落地和资本开支怎样一起构成 AI 的下一阶段。
Arm 的动作很容易被读成全面下场做 AI 芯片,但更准确的判断是:它在试图沿着设计、平台与定制化能力继续上探,却还没有变成另一家以整卡和整机为核心的基础设施公司。
这场对话最值得看的,不是金句,而是黄仁勋如何把 AI 从模型讨论重新放回工厂、资本开支、基础设施与国家级算力组织。AI 工厂不是比喻,而是他组织整个产业判断的核心框架。
AI 产业的竞争重心,正从单点模型能力转向芯片、云、数据平台与交付渠道的重新结盟。真正能持续拿到利润的,往往是站在企业系统关键控制点上的玩家。
把英文外刊当成统一的“国际视角”,最容易把世界读平。美国更常优化领先与平台,中国更常优化落地与效率,欧洲更常优化责任与边界;先拆开这三套问题设置,外刊才真正能拿来用。
很多人看 AI 外刊时,眼睛先盯着模型、产品和公司。但《经济学人》真正厉害的地方,是把你从这些表层热点里拽出来,逼你去看算力、能源、资本开支和国家竞争这些更慢、更硬的变量。读懂这一层,你对 AI 的理解才不会停在产品新闻。
乔布斯当然会做 AI,但他多半不会接受把 AI 先做成一堆零散功能、再慢慢补体验的苹果路线。对他来说,AI 不是新卖点,而是下一代操作系统的起点。
Meta 现在的节奏确实像急了,但扎克伯格急的不是广告业务失速,而是 AI 窗口期正在明显缩短,他必须把算力、能源、芯片和组织能力整体同时前置起来,尽快抢出时间。
把独立 AI 公司理解为产品入口、数据来源、资本边界和组织边界都相对清楚的主体,xAI 就从来不是那种公司。它确实有模型、API 和超算,但更像马斯克商业体系里的 AI 中枢,而不是边界稳定的独立公司。
国内大厂这一轮真正承压的,已经不是营收增速本身,而是利润结构。AI 重投入、即时零售高竞争和旧业务利润弹性减弱三条线同时压上来,经营利润、自由现金流和估值框架都在重排。
到 2026 年 3 月 19 日,国内智能电车企业的公开 AI 动作早已超出“把大模型塞进语音助手”这一步,开始重写智驾、座舱、车控与制造;真正拉开距离的,在于谁先把数据、算力、OS 和整车执行闭环跑通。
今年一季度国内大厂的 AI 动作已经从“发模型”转向“抢位置”:阿里推进执行系统,腾讯卡住微信分发链,百度稳技术与云,字节加速 Agent 产品化,华为下探网络与运维控制面。
端侧大模型下一阶段的核心变化,不是简单把云端模型缩小搬到本地,而是智能效率、统一内存、带宽、功耗和软件栈一起成熟;未来 1 年先吃下单轮助手与轻代理,3 年进入持续多模态,5 年才接近真正的个人本地 AI 系统。
NVIDIA 这些年最重要的变化,是一步步把自己从芯片供应商改造成整套 AI 生产系统的提供者:从 CUDA 到 DGX,再到 NIM 和 AI Factory,真正扩张的是它对整栈的控制力。
Microsoft 在这轮 AI 竞赛里最厉害的地方,是几乎把“模型进入真实工作”所需的每一层入口都握在自己手里:云、Office、Windows、GitHub 和企业采购关系。最强模型未必总由它率先做出,但分发链路常常掌握在它手中。