机器学习基础
监督学习 vs 无监督学习
理解两类学习的核心区别、应用场景与典型算法
线性回归详解
从损失函数到梯度下降,深入理解线性回归数学推导
决策树与随机森林
信息熵、基尼系数、Bagging 与 Boosting 机制
模型评估指标
准确率、精确率、召回率、F1、AUC 等指标解读
深度学习核心
神经网络基础
神经元模型、多层感知器、反向传播算法原理
激活函数对比
Sigmoid、ReLU、Leaky ReLU、Tanh 的优缺点与适用场景
正则化技术
L1/L2 正则、Dropout、Early Stopping、Batch Normalization
优化器选择指南
SGD、Adam、RMSprop 等优化器的原理与选择策略
自然语言处理
词嵌入技术
Word2Vec、GloVe、FastText 的原理与对比
Attention 机制
Self-Attention、Multi-Head Attention 工作原理详解
速查笔记
梯度消失与梯度爆炸
原因、影响与解决方案总结
→
损失函数速查表
分类/回归任务常用损失函数
→
PyTorch 常用代码片段
模型定义、训练循环、GPU 使用
→
推荐学习资源
书籍、课程、论文、博客推荐
→
代码示例
一个简单的 PyTorch 神经网络定义示例
import torch.nn as nn
class SimpleNet(nn.Module):
def __init__(self):
super().__init__()
self.fc1 = nn.Linear(784, 256)
self.relu = nn.ReLU()
self.fc2 = nn.Linear(256, 10)
def forward(self, x):
x = self.relu(self.fc1(x))
return self.fc2(x)
# 实例化模型
model = SimpleNet()
print(model)