

English | 在线文档 | 快速开始
从理论到实战,构建完整的AI知识体系
Machine Learning • Deep Learning • Computer Vision • NLP • Generative AI • Reinforcement Learning
| 📚 219+ Notebooks |
🧩 9大核心模块 |
📝 480+ Python文件 |
💻 173k+ 代码行 |
🏆 2枚Kaggle金牌 |
| 可复现实验 |
系统化学习路径 |
生产级代码 |
深度覆盖 |
竞赛验证 |
- 渐进式学习 — 从数学推导到框架工程,循序渐进
- 理论+实践 — 不仅知道"怎么做",更理解"为什么"
- 工程导向 — 从学术研究到工业部署的完整链路
- 竞赛验证 — Kaggle Top 1% 金牌方案,实战检验
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ Phase I │ │ Phase II │ │ Phase III │ │ Phase IV │
│ 理论先行 │ -> │ 从零实现 │ -> │ 框架工程 │ -> │ 实战项目 │
│ 数学推导与分析 │ │ NumPy手写实现 │ │ PyTorch/TF │ │ Kaggle竞赛 │
└─────────────────┘ └─────────────────┘ └─────────────────┘ └─────────────────┘
| 阶段 |
模块 |
内容 |
文件数 |
| I |
01-机器学习基础 |
线性模型、SVM、决策树、集成学习、降维、聚类 |
75+ |
| II |
02-神经网络 |
反向传播、优化器、正则化、BatchNorm |
42+ |
| II |
03-计算机视觉 |
CNN架构演进、迁移学习、目标检测 |
50+ |
| II |
04-序列模型 |
RNN/LSTM、Attention、Transformer |
40+ |
| III |
05-高级专题 |
分布式训练、模型压缩、部署优化 |
30+ |
| III |
06-生成模型 |
VAE、GAN、Diffusion Models |
35+ |
| III |
07-强化学习 |
DQN、PPO、SAC、Actor-Critic |
542+ |
| IV |
09-实战项目 |
Kaggle竞赛、游戏AI、股票交易 |
566+ |
| - |
08-理论笔记 |
激活函数、损失函数、架构选型速查 |
16+ |
📂 展开完整目录结构
AI-Practices/
├── 01-foundations/ # 机器学习基础
│ ├── 01-training-models/ # 梯度下降、正则化
│ ├── 02-classification/ # 逻辑回归、SVM
│ ├── 03-support-vector-machines/ # 核技巧、软间隔
│ ├── 04-decision-trees/ # CART、剪枝
│ ├── 05-ensemble-learning/ # Bagging、Boosting、Stacking
│ ├── 06-dimensionality-reduction/# PCA、t-SNE、UMAP
│ ├── 07-unsupervised-learning/ # K-Means、DBSCAN、GMM
│ └── 08-end-to-end-project/ # 完整ML流程
│
├── 02-neural-networks/ # 神经网络
│ ├── 01-keras-introduction/ # Sequential、Functional API
│ ├── 02-training-deep-networks/ # BatchNorm、Dropout
│ ├── 03-custom-models-training/ # 自定义层和训练循环
│ └── 04-data-loading-preprocessing/
│
├── 07-reinforcement-learning/ # 强化学习 (542+ 文件)
│ ├── 01-mdp-basics/ # 马尔可夫决策过程
│ ├── 02-q-learning/ # 值迭代、策略迭代
│ ├── 03-deep-q-learning/ # DQN、Double DQN
│ └── 04-policy-gradient/ # REINFORCE、PPO、A3C
│
└── 09-practical-projects/ # 实战项目 (566+ 文件)
├── 01-ml-basics/ # Titanic、Otto
├── 02-computer-vision/ # MNIST CNN
├── 03-nlp/ # 情感分析、NER
├── 04-time-series/ # 温度预测
├── 05-kaggle-competitions/ # 金牌方案
└── 06-reinforcement-learning/ # 游戏AI、股票交易
| 领域 |
算法 |
应用场景 |
| 线性模型 |
OLS, Ridge, Lasso, ElasticNet |
回归预测、特征选择 |
| 分类算法 |
Logistic Regression, SVM, KNN |
二分类、多分类 |
| 树模型 |
Decision Tree, Random Forest, GBDT |
结构化数据建模 |
| 集成学习 |
Bagging, Boosting, Stacking, XGBoost, LightGBM |
竞赛首选方案 |
| 降维聚类 |
PCA, t-SNE, UMAP, K-Means, DBSCAN |
数据可视化、无监督学习 |
| 领域 |
技术 |
核心概念 |
| 优化器 |
SGD, Momentum, Adam, AdamW, LAMB |
收敛速度、泛化性能 |
| 正则化 |
Dropout, BatchNorm, LayerNorm, Weight Decay |
防止过拟合 |
| 初始化 |
Xavier, He, Orthogonal |
梯度稳定性 |
| 学习率 |
Step Decay, Cosine Annealing, Warmup |
训练策略 |
CNN架构演进:
LeNet (1998) → AlexNet (2012) → VGG (2014) → GoogLeNet (2014) → ResNet (2015)
↓
ViT (2020) ← EfficientNet (2019) ← DenseNet (2016)
| 任务 |
模型/方法 |
说明 |
| 图像分类 |
ResNet, EfficientNet, ViT |
ImageNet SOTA |
| 目标检测 |
YOLO, Faster R-CNN, DETR |
实时检测 |
| 语义分割 |
U-Net, DeepLab, Mask R-CNN |
像素级分类 |
| 迁移学习 |
Fine-tuning, Feature Extraction |
小样本学习 |
Transformer架构 (Vaswani et al., 2017):
$$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$$
| 任务 |
模型 |
应用 |
| 文本分类 |
BERT, RoBERTa |
情感分析、意图识别 |
| 序列标注 |
BiLSTM-CRF, BERT-NER |
命名实体识别 |
| 文本生成 |
GPT, T5 |
摘要、对话 |
| 机器翻译 |
Transformer, mBART |
多语言翻译 |
| 类型 |
模型 |
应用 |
| VAE |
Variational Autoencoder |
图像生成、表征学习 |
| GAN |
DCGAN, WGAN, StyleGAN |
图像合成、风格迁移 |
| Diffusion |
DDPM, Stable Diffusion |
高质量图像生成 |
| Neural Art |
DeepDream, Neural Style Transfer |
艺术创作 |
| 类别 |
算法 |
特点 |
| 值函数方法 |
Q-Learning, DQN, Double DQN, Dueling DQN |
经验回放、目标网络 |
| 策略梯度 |
REINFORCE, PPO, TRPO, A3C |
直接优化策略 |
| Actor-Critic |
A2C, SAC, TD3 |
结合值函数与策略 |
| Model-Based |
Dyna-Q, World Models, MuZero |
环境建模 |
Bellman最优方程:
$$Q^_(s, a) = \mathbb{E}\left[r + \gamma \max_{a'} Q^_(s', a') \mid s, a\right]$$
# 克隆仓库
git clone https://github.com/zimingttkx/AI-Practices.git
cd AI-Practices
# 创建环境
conda create -n ai-practices python=3.10 -y
conda activate ai-practices
# 安装依赖
pip install -r requirements.txt
# 启动Jupyter
jupyter lab
| 组件 |
最低配置 |
推荐配置 |
| CPU |
4核 |
8核+ |
| 内存 |
8 GB |
32 GB |
| GPU |
GTX 1060 |
RTX 3080+ |
| 存储 |
50 GB |
200 GB SSD |
| 竞赛 |
排名 |
奖牌 |
年份 |
| Feedback Prize - ELL |
Top 1% |
🥇 金牌 |
2023 |
| RSNA Abdominal Trauma |
Top 1% |
🥇 金牌 |
2023 |
| American Express Default |
Top 5% |
🥈 银牌 |
2022 |
| RSNA Lumbar Spine |
Top 10% |
🥉 铜牌 |
2024 |
@misc{ai-practices2024,
author = {zimingttkx},
title = {AI-Practices: 系统化人工智能学习与研究平台},
year = {2024},
publisher = {GitHub},
howpublished = {\url{https://github.com/zimingttkx/AI-Practices}}
}
本项目采用 MIT License 开源协议 - 详见 LICENSE
如果这个项目对你有帮助,请给一个 ⭐ Star!
