人工智能学习笔记

记录 AI/ML/DL 学习过程中的核心概念、算法原理、实践技巧与项目经验,构建个人知识体系

机器学习基础

📊
监督学习 vs 无监督学习
基础概念 · 5 分钟
理解两类学习的核心区别、应用场景与典型算法
监督学习 无监督学习 基础
📈
线性回归详解
算法原理 · 12 分钟
从损失函数到梯度下降,深入理解线性回归数学推导
回归 梯度下降
🌳
决策树与随机森林
集成学习 · 15 分钟
信息熵、基尼系数、Bagging 与 Boosting 机制
决策树 随机森林 集成
🎯
模型评估指标
工程实践 · 10 分钟
准确率、精确率、召回率、F1、AUC 等指标解读
评估指标 交叉验证

深度学习核心

🔗
神经网络基础
MLP · 8 分钟
神经元模型、多层感知器、反向传播算法原理
MLP 反向传播
🔥
激活函数对比
激活函数 · 6 分钟
Sigmoid、ReLU、Leaky ReLU、Tanh 的优缺点与适用场景
ReLU 激活函数
正则化技术
防止过拟合 · 10 分钟
L1/L2 正则、Dropout、Early Stopping、Batch Normalization
正则化 Dropout
📦
优化器选择指南
SGD · Adam · 8 分钟
SGD、Adam、RMSprop 等优化器的原理与选择策略
优化器 Adam

自然语言处理

📝
词嵌入技术
Word2Vec · 12 分钟
Word2Vec、GloVe、FastText 的原理与对比
词向量 Word2Vec
🔄
Attention 机制
核心原理 · 15 分钟
Self-Attention、Multi-Head Attention 工作原理详解
Attention Transformer

速查笔记

📐
梯度消失与梯度爆炸
原因、影响与解决方案总结
🧮
损失函数速查表
分类/回归任务常用损失函数
🐍
PyTorch 常用代码片段
模型定义、训练循环、GPU 使用
📚
推荐学习资源
书籍、课程、论文、博客推荐

代码示例

一个简单的 PyTorch 神经网络定义示例

import torch.nn as nn class SimpleNet(nn.Module): def __init__(self): super().__init__() self.fc1 = nn.Linear(784, 256) self.relu = nn.ReLU() self.fc2 = nn.Linear(256, 10) def forward(self, x): x = self.relu(self.fc1(x)) return self.fc2(x) # 实例化模型 model = SimpleNet() print(model)