有人说:一个人从1岁活到80岁很平凡,但如果从80岁倒着活,那么一半以上的人都可能不凡。
生活没有捷径,我们踩过的坑都成为了生活的经验,这些经验越早知道,你要走的弯路就会越少。
🔥个人推测明年 AI 大概率发生的几个事情:
AI 模型部分:
- llama-4 (这个几乎板上钉钉了,明年第一季度,如果推理能力不强,llama 可能要跑偏)
- Gemini-2.5-flash-thinking (明年第二季度,更好的推理模型,正式下放到例如浏览器的 google 平台)
- Claude-4 (明年第一季度,拥有更强的推理能力,写代码上下文理解能力更强(目前这点一般般,体现在写 C,CPP,Rust,对全局变量或者跨多个作用域的变量理解很垃圾))
- Qwen3 (明年第二季度,拥有推理能力)
- GPT-5 (明年第二季度,但我估计是个 better 推理模型这样,不会比 o3 强太多,但是价格会比 o3 下降很多,使其商业可用)
关于推理:
- 推理模式的商业模型和开源模型将全面爆发,大家开始卷性能和价格(明年第二季度之后)
- 受限于推理模式的性能限制,可能会出现新的基于推理的开源基础框架(明年第二季度)
- 推理水平接近人类的 80% (明年第三季度,目前 ARC-AGI 测试大概是人类的 65% 左右,见图 1)
关于性能和设备:
- 消费级显卡 8 卡极致算力可以达到 150token/s (明年第一季度,70b-4bit 模型,假定 5090 显存带宽有 1700GB/s+)
- 新的基于推理的 MoE 模型(明年第二季度,因为推理很慢所以想要本地部署只能 MoE)
- Mac M4 Ultra,算力达到 20token/s(明年第二季度,70b-4bit 模型,假定这次内存带宽能达到 1024GB/s)
- A100 租赁价格降低到 0.5USD/min,(明年第二季度,现在是 0.81 左右,按照关机价来算,现在显卡租赁还是嗷嗷赚钱的状态,A100 才 300W,A100 按照 25000USD 计算,一年回本,每小时成本是 2.85USD,再假设其他成本 0.1USD 每分钟,加州电费是 0.35USD/KWh, 总体关机价格大概是 3USD 每小时,即 0.05USD/min, 赚到爆)
商业化部分:
- 各家都在卷 RAG 与推理深度融合,估计明年 RAG 效果会有很大的提升(明年第二季度)
- 川普会进一步限制新显卡出口,所以国内的自研卡商盈利面还是很不错的,CUDA 的护城河远没有光刻先进制程和 GPU 架构那么高 (持续)
- 各种设备都开始尝试搭载模型或者本地小模型(明年第一季度,手机,笔记本,智能音箱)
- 端的专用 AI 设备昙花一现 (到明年第四季度,没错我不看好这方面的专用硬件,比如 AI 眼镜。我认为始终应该是 AI 融合进现有高频设备比较靠谱)
展望明年,各位怎么看?
这些程序员职场“潜规则”,让你少走5年弯路_【官方推荐】唐城的博客-CSDN博客
一边赶路,一边寻找出路,希望大家在每个幸福的日子里,都能快乐前行。