fong
alpha
目录
现在时刻
快速访问
ASCII 码
C/C++
Python
Linux/Shell
Git
机器学习
深度学习
1. Pytorch:多 GPU 模式
2. Pytorch:模型保存与读取
3. Pytorch:cuda
4. Pytorch:Module
5. Pytorch:no_grad()
6. 激活函数
7. Batch Normalization
8. 过拟合
9. 反向传播
10. 优化算法
11. 特征图与感受野
12. Deep Metric Learning
13. Transformer
14. 多模态 CLIP 模型
15. 自监督学习和对比学习
数理与算法
推荐系统
正则表达式
Cron 表达式
计算机网络
实用软件
技巧
其他
fong
»
深度学习
View page source
深度学习
1. Pytorch:多 GPU 模式
1.1. DataParallel
1.2. distributed
1.3. 参考资料
2. Pytorch:模型保存与读取
2.1. 简单
2.2. 详细
2.3. 导入部分参数
2.4. 参考资料
3. Pytorch:cuda
3.1. 使用指定 GPU
3.2. device 切换
3.3. 参考资料
4. Pytorch:Module
4.1. Container
4.2. add_module
4.3. Attribute 索引
4.4. 附:Module 部分实例方法
4.5. 参考资料
5. Pytorch:no_grad()
5.1. eval 和 no_grad
5.2. 参考资料
6. 激活函数
6.1. sigmoid
6.2. tanh
6.3. relu
6.4. softmax 与最大化对数似然
6.5. 梯度消失与梯度爆炸
6.6. 参考资料
7. Batch Normalization
7.1. 加速训练
7.2. BN 消除
7.3. 训练与测试
7.4. 缺点
7.5. 梯度推导
7.6. 代码实现
7.7. 参考资料
8. 过拟合
8.1. 表现
8.2. 原因
8.3. 解决方案
8.4. Dropout 的 numpy 实现
8.5. 附:正则化
8.6. 参考资料
9. 反向传播
9.1. 链式法则
9.2. 前向传播
9.3. 误差反向传播
9.4. 参考资料
10. 优化算法
10.1. 可视化
10.2. SGD
10.3. Momentum
10.4. Adagrad
10.5. Adadelta
10.6. RMSprop
10.7. Adam
10.8. 参考资料
11. 特征图与感受野
11.1. 特征图
11.2. 感受野
11.3. 参考资料
12. Deep Metric Learning
12.1. 损失函数
12.2. 样本对挖掘
12.3. 参考资料
13. Transformer
13.1. 输入
13.2. Encoder
13.3. Decoder
13.4. Self-Attention
13.5. Layer Normalization
13.6. CV 领域的应用
13.7. 参考资料
14. 多模态 CLIP 模型
14.1. 框架
14.2. Loss
14.3. Zero-Shot 预测
14.4. 参考资料
15. 自监督学习和对比学习
15.1. 自监督学习
15.2. 对比学习
15.3. 参考资料