AI 学习笔记

面向深度学习与表征学习的概念长文与资源索引:从嵌入、序列模型、卷积与残差网络到 Transformer,并持续收录可信赖的外部技术博客与平台入口。单篇长文多为中英双语编排(英文标题 + 中文正文或对照),可在各文顶部切换语言。

理解 CNN 与 ResNet

模块化卷积、退化与恒等捷径、残差块的优化动机,以及相对 Transformer 的归纳偏置与局限。

计算机视觉

当代 LLM 架构比较导读

导读 Sebastian Raschka《The Big LLM Architecture Comparison》:GQA/MLA、MoE、归一化与混合注意力等主线,附 Ahead of AI 原文链接。

架构地图

Awesome AI 博客与资源站

OpenAI 研究资讯、Distill、colah、Hugging Face、GitHub、Karpathy、Sebastian Raschka 及 DeepMind、Jay Alammar、Lil'Log 等精选信源清单。

资源索引

申请通义千问(Qwen)API

阿里云百炼控制台:登录与 API Key 入口、在模型用量中开通免费额度模型、创建并复制密钥用于调用。

实践

理解 Embedding

从 one-hot 到分布式表示,梳理 Word2Vec、GloVe 以及现代 Transformer 中的嵌入思想。

表征学习

理解 LSTM 网络

从 RNN 的长期依赖问题到门控与细胞状态,图解长短期记忆网络的工作原理。

序列模型

理解 Transformer

注意力与自注意力、编码器–解码器结构,以及并行性、复杂度与局限性的概念梳理。

注意力机制