AI训练术语大白话版(第二弹)
1. 激活函数(Activation Function)
👉 人话:AI神经元的“开关”,决定要不要传递信号。
🔹 例子:
- ReLU:信号>0就放行,≤0就掐断(简单粗暴)。
- Sigmoid:温柔版开关,输出0~1(适合概率)。
2. 权重(Weights)
👉 人话:AI脑细胞之间的“连接强度”,决定信号传递多少。
🔹 类比:水管粗细——粗的水管(大权重)流更多水(信号)。
3. 偏置(Bias)
👉 人话:给神经元的“基础分”,类似考试卷面分。
🔹 例子:就算输入全0,偏置也能让神经元激活。
4. 正则化(Regularization)
👉 人话:防止AI“死记硬背”的惩罚规则。
🔹 类型:
- L1正则化:直接砍掉不重要的脑细胞(稀疏化)。
- L2正则化:限制脑细胞别太活跃(温和打压)。
5. 归一化(Normalization)
👉 人话:把一群身高体重完全不同的人,强行按比例缩放到同一标准(比如所有人身高变成0~1米,体重变成0~100斤),方便AI公平处理。
🔹 例子:全班考试,有人卷面分100,有人10分→统一改成0~1分。
为什么要归一化?
🔹 问题场景:
- 假设你的数据里:
- 身高:1.7米、1.8米、2.0米(单位:米)
- 体重:60kg、80kg、120kg(单位:公斤)
- AI的困惑:体重数字比身高大几十倍,AI会误以为“体重更重要”,导致学习跑偏(比如忽略身高特征)。
🔹 解决:把身高和体重都压缩到0~1或**-1~1**的范围内,让AI公平对待所有特征。
归一化在AI中的应用:
- 图像处理:把像素值从0~255压缩到0~1,加速训练。
- 特征工程:防止某个特征(如工资)因数值大而主导模型。
- 梯度下降:让损失函数更“圆”,优化更快(如下图)。
不归一化会怎样?
- 训练慢:AI要花更多时间调整权重。
- 结果歪:模型可能被大数值特征带偏。
- 梯度爆炸:数值太大导致计算溢出(比如变成NaN)。
6. 早停(Early Stopping)
👉 人话:AI考试分数不涨了,就强制交卷,防止瞎折腾。
🔹 场景:连续10次模拟考分数不变→停止训练。
7. 学习率衰减(Learning Rate Decay)
👉 人话:AI越学越谨慎,后期改错题幅度变小。
🔹 类比:新手开车猛打方向盘,老司机微调。
8. 注意力机制(Attention)
👉 人话:AI的“重点标记笔”,看图片/文字时自动划重点。
🔹 例子:读句子“猫吃鱼”,AI给“猫”和“鱼”打高光。
9. 对抗训练(Adversarial Training)
👉 人话:雇黑客故意骗AI,让它练出火眼金睛。
🔹 场景:P一张熊猫图骗AI说是“坦克”,逼它学得更稳。
10. 强化学习(Reinforcement Learning)
👉 人话:AI打游戏,赢了给糖,输了电击。
🔹 经典案例:AlphaGo下围棋,赢一局+1分,输一局-1分。
11. 自监督学习(Self-Supervised Learning)
👉 人话:AI自己出题自己答,比如看图填空。
🔹 例子:遮住半张猫图,让AI猜被遮的部分。
12. 元学习(Meta-Learning)
👉 人话:让AI学会“怎么学习”,像学霸总结学习方法。
🔹 场景:训练AI快速适应新任务(比如从猫狗分类→汽车分类)。
13. 知识蒸馏(Knowledge Distillation)
👉 人话:让大模型(老师)教小模型(学生),传递核心技巧。
🔹 例子:BERT大模型教TinyBERT小模型做题。
14. 联邦学习(Federated Learning)
👉 人话:AI“分布式学习”,大家各自练,最后汇总成果。
🔹 场景:手机输入法偷偷学你的习惯,但不上传原始数据。
15. 生成对抗网络(GAN)
👉 人话:AI界的“造假 vs 鉴宝”对决。
- 生成器:拼命画假画(比如伪造梵高作品)。
- 判别器:拼命鉴定真假,两者互相逼着进步。
总结表
术语 | 人话解释 | 类比 |
---|---|---|
激活函数 | 神经元的开关 | 门卫大爷 |
权重 | 脑细胞连接强度 | 水管粗细 |
偏置 | 基础分 | 卷面分 |
正则化 | 防死记硬背 | 学习限速带 |
归一化 | 数据统一尺度 | 考试分数压缩 |
早停 | 分数不涨就停 | 强制交卷 |
注意力机制 | 划重点 | 荧光笔 |
对抗训练 | 黑客攻击测试 | 防骗特训 |
强化学习 | 打游戏奖惩 | 驯兽师训狗 |
GAN | 造假 vs 鉴宝 | 山寨厂VS质检员 |