type
Post
status
Published
date
May 6, 2025
slug
summary
听听不同AI给的建议,如何快速系统地学习AI
tags
开发
文字
category
分享
icon
password
使用AI来给自己做计划,使用相同的提示词:
DeepSeek:
第一阶段:基础强化与工具准备(Week 1-2)
目标:打通深度学习与NLP核心概念,搭建开发环境
- 深度学习核心补强(3天)
- 精读《深度学习》(花书)第5章(CNN)、第9章(RNN)、第10章(Attention)
- 实践:使用PyTorch复现LSTM文本分类(Kaggle电影评论数据集)
- Transformer架构深度剖析(4天)
- 精读论文《Attention Is All You Need》并手绘架构图
- 逐行解读Hugging Face Transformers库的BERT实现源码
- 实践:用Colab实现Positional Encoding可视化
- 开发环境建设(1天)
- 配置CUDA环境,安装PyTorch+Transformers库
- 注册Hugging Face账户,申请API试用额度
第二阶段:大模型核心技术攻坚(Week 3-4)
目标:掌握大模型微调与Prompt工程
- 模型微调实战(5天)
- 使用Hugging Face Trainer微调BERT完成NER任务(CoNLL2003数据集)
- 对比LoRA与P-Tuning v2两种高效微调方法的内存/效果差异
- 实践:在自定义CSV数据集上实现文本多分类
- Prompt Engineering高阶技巧(3天)
- 设计链式思维(Chain-of-Thought)提示词解决数学推理问题
- 构建动态Few-shot模板实现少样本学习
- 使用LangChain实现多步推理工作流
第三阶段:AI应用工程化实战(Week 5-6)
目标:构建可部署的AI应用系统
- 模型服务化开发(4天)
- 使用FastAPI搭建模型推理REST接口
- 实现动态批处理与GPU显存优化
- 集成Swagger文档与JWT鉴权
- 全栈AI项目开发(4天)
- 开发企业级知识问答系统:
- 前端:Streamlit构建交互界面
- 后端:LangChain+GPT-3.5实现RAG架构
- 部署:Docker容器化+Azure App Service发布
第四阶段:工业级优化与进阶(Week 7-8)
目标:掌握生产环境优化技巧
- 模型压缩实战(3天)
- 使用NNCF对BERT进行INT8量化
- 对比蒸馏后模型(DistilBERT)的精度/速度平衡点
- 大模型预训练入门(3天)
- 在Wikitext数据集上从头预训练小规模GPT模型
- 使用DeepSpeed Zero-3优化多卡训练
- 毕业项目(2天)
- 自选场景(推荐法律文书生成/智能客服)完成端到端实现
- 输出技术方案文档与性能压测报告
关键学习资源
- 代码库:
- Hugging Face Transformers官方示例库
- Meta Llama 2 Recipes
- 工具链:
- 模型监控:Weights & Biases
- 加速框架:DeepSpeed, vLLM
- 论文必读清单:
- 《BERT: Pre-training of Deep Bidirectional Transformers...》
- 《LoRA: Low-Rank Adaptation of Large Language Models》
- 《FlashAttention: Fast and Memory-Efficient...》
学习策略建议
- 每日保持2小时代码实操,建议使用Jupyter Notebook实时记录实验
- 每周参与Hugging Face社区议题讨论,积累解决方案
- 重点培养模型性能分析能力(使用PyTorch Profiler)
- 建立个人模型动物园(GitHub仓库),每个模型附带性能卡
通过此高强度训练,你将具备从模型选型到工业部署的全流程能力。建议在最后两周开始构建个人作品集网站,展示项目Demo与技术文章,为求职或业务应用做好充分准备。
ChatGPT-4omini
以下是一个为期 8 周的学习与实践计划,帮助你从技术开发和大数据基础快速过渡到掌握大模型(Transformers/LLM)和 AI 应用的能力。每周分为主题学习、实践项目和进度检查三部分,并推荐了对应的教材、在线课程与开源项目。
整体安排
- 周期:8 周(约两个月)
- 每日投入:3–4 小时
- 工具环境:
- Python 3.8+、PyTorch 或 TensorFlow
- Conda/venv 管理环境
- GPU 资源(本地 GPU、Colab Pro、Kaggle Kernel 等)
- Git + GitHub
周计划概览
周次 | 主题 | 技术栈/工具 | 主要资源 | 交付物/项目 |
1 | 深度学习与 Transformer 理论复习 | Python、PyTorch/TensorFlow | - 《深度学习》(Goodfellow)- “Attention Is All You Need” 论文 | 理论笔记 + 小 demo(自实现自注意力层) |
2 | Transformer 进阶 & 优化技巧 | PyTorch、Hugging Face | - Hugging Face Course- “The Illustrated Transformer” 博文 | 基于 Hugging Face 实现简易翻译模型 |
3 | 预训练模型微调(Fine‑tuning) | Hugging Face Transformers | - 《Transformers for NLP》(Lewis)- 🤗 文档案例 | 在 IMDB 情感分类上微调 BERT |
4 | 文本生成与对话系统 | Transformers、LangChain | - “Building a Chatbot with RAG” 教程- LangChain 官网 | 简易 Retrieval‑Augmented Chatbot |
5 | 多模态模型入门(图像+文本) | CLIP、Vision Transformer | - OpenAI CLIP 论文- “ViT Explained” 视频 | 使用 CLIP 做图文检索 demo |
6 | 大模型部署和服务化 | FastAPI、Docker | - “Serving Transformers with FastAPI” 博文- Docker 官方文档 | 打包并部署一个微调过的模型 API |
7 | 性能优化与可解释性 | ONNX、TensorRT、LIME | - ONNX 教程- “Model Explainability” 相关文章 | 将模型导出 ONNX 并做推理加速 |
8 | 综合项目:真实场景应用+总结 | — | — | 完整 AI 应用原型 + 项目报告 |
详细分周内容
第 1 周:深度学习与 Transformer 理论复习
- 阅读与学习
- 《深度学习》(Goodfellow et al.)第 6 章–第 10 章;
- 原始论文 “Attention Is All You Need”。
- 实践
- 用 NumPy/PyTorch 从零实现自注意力(Self‑Attention)模块;
- 记录关键公式与思路。
- 交付
- 一份包含模块源码和讲解的 Markdown 笔记;
- GitHub 仓库 Issue/PR 形式整理思路。
第 2 周:Transformer 进阶与优化技巧
- 在线课程
- Hugging Face 官方免费课程:Transformer 概览与实战。
- 阅读 “The Illustrated Transformer” 博文。
- 实践
- 运行官方翻译例子(英→德)并调参学习:层数、head 数、学习率对效果的影响。
- 交付
- 一份实验报告,包含 BLEU 分数、对比曲线;
- 小型笔记:常见优化技巧(学习率调度、LayerNorm、残差连接)。
第 3 周:预训练模型微调
- 阅读
- 《Transformers for Natural Language Processing》(Lewis et al.)微调章节。
- Hugging Face 文档:
TrainerAPI。
- 实践
- 使用
BERT-base在 IMDB 数据集上做情感分类微调; - 输出训练曲线与评估报告(准确率、F1)。
- 交付
- 完整代码 Notebook;
- README:如何复现。
第 4 周:文本生成与对话系统
- 学习
- 阅读 Retrieval‑Augmented Generation(RAG)原理;
- LangChain 基本概念与 API。
- 实践
- 构建一个简易问答机器人:
- 检索:FAISS 或 ElasticSearch 索引小型文档集;
- 生成:调用 OpenAI/本地 LLM 接口;
- 集成到简单网页(Flask/Streamlit)。
- 交付
- 部署在本地并演示问答场景;
- 项目文档:架构图 + 使用说明。
第 5 周:多模态模型入门
- 阅读
- CLIP 论文;
- ViT(Vision Transformer)介绍。
- 实践
- 用 OpenAI/开源 CLIP 模型,对一组图像与文本进行相似度检索;
- 简单可视化检索结果。
- 交付
- Notebook + 演示图示;
- 小结:多模态模型的应用场景。
第 6 周:大模型部署与服务化
- 学习
- FastAPI 基础;
- Docker 镜像与容器管理。
- 实践
- 将微调后的模型封装成 RESTful API;
- 编写 Dockerfile,构建并运行容器。
- 交付
docker build后的镜像地址说明;- Postman 调用脚本。
第 7 周:性能优化与可解释性
- 学习
- ONNX 转换与 TensorRT 加速流程;
- LIME/SHAP 等可解释性工具。
- 实践
- 将你的模型转为 ONNX 格式并对比 CPU/GPU 推理速度;
- 用 LIME 对一次预测结果做局部可解释。
- 交付
- Benchmark 报告(表格 +折线图);
- 可解释示例 Notebook。
第 8 周:综合项目与总结
- 选题(任选其一)
- 垂直领域 Chatbot(如校园问答、医疗咨询);
- 多模态搜索引擎;
- 文本摘要+可视化系统;
- 实践
- 完成端到端系统:训练 → 微调 → 部署 → 可解释;
- 撰写项目报告(背景、方法、结果、心得)。
- 展示
- 线上 demo(GitHub Pages / Heroku / Vercel);
- 录制 5 分钟演示视频。
推荐教材与资源汇总
资源类型 | 名称/链接 |
图书 | - 《深度学习》(Goodfellow)- 《Transformers for NLP》(Lewis) |
论文 | - “Attention Is All You Need”- “CLIP: Learning Transferable Visual Models” |
在线课程 | - Hugging Face Course- Stanford CS224n(YouTube) |
开源框架 | - 🤗 Transformers- LangChain- FAISS |
部署与加速 | - FastAPI 文档- Docker 官方指南- ONNX & TensorRT 教程 |
按照此路线,你将在两个月内系统地掌握大模型的理论、实战与落地部署,并具备独立开发 AI 应用的能力。祝你学习顺利!若在某一阶段遇到问题,随时欢迎提问。
ChatGPT-4o v2
下面是一份为期两个月(8 周)的系统化学习与实践计划,帮助你从技术开发和大数据基础迅速过渡到大模型(Transformer、LLM)与 AI 应用能力的掌握。每周都包括:
- 学习目标
- 推荐资源(书籍/论文/课程/教程)
- 实践任务
- 预期产出
阶段一:基础巩固(第 1–2 周)
第 1 周:深度学习与 Transformer 原理复习
- 学习目标:
- 回顾深度学习核心概念(前向/反向传播、优化器、正则化)。
- 理解 Attention 机制与 Transformer 架构。
- 推荐资源:
- Ian Goodfellow 等《深度学习》(第 6–8 章)。
- Vaswani 等《Attention Is All You Need》论文(阅读并整理笔记)。
- Stanford CS224n 第 1–2 讲(YouTube 免费公开课)。
- 实践任务:
- 用 PyTorch 从零实现简化版 Attention(约 200 行代码)。
- 复现论文中 scaled dot‑product attention 计算,并对比不同维度的性能。
- 产出:
- 1 个 Jupyter Notebook(含 Attention 可视化示例)。
第 2 周:大型预训练模型与生态入门
- 学习目标:
- 熟悉主流大模型(BERT/GPT/LLaMA/PaLM)家族及其应用场景。
- 掌握 Hugging Face Transformers 库的基本使用。
- 推荐资源:
- Hugging Face 官方教程 “Quick tour of 🤗 Transformers”。
- Lewis Tunstall 等《Transformers for Natural Language Processing》(第 1–3 章)。
- 在线文章:“How Transformers Work, A Simple Explanation”
- 实践任务:
- 用 Transformers 库加载预训练 BERT,完成情感分类微调(IMDB 数据集)。
- 在 Colab 上跑通至少两个预训练模型的推理示例。
- 产出:
- 一个微调脚本(
.py)和报告(PDF),对比不同模型效果。
阶段二:核心技能强化(第 3–4 周)
第 3 周:微调与少样本学习
- 学习目标:
- 掌握监督微调(Fine‑tuning)、提示微调(Prompt‑tuning)、LoRA、PEFT 等技术。
- 理解少样本/零样本学习原理。
- 推荐资源:
- Hugging Face PEFT 官方教程。
- Brown et al.《Language Models are Few‑Shot Learners》(GPT‑3 论文,第 1–3 部分)。
- Youtube 上 Don Louis “Parameter‑Efficient Fine‑Tuning” 讲解。
- 实践任务:
- 基于 Hugging Face PEFT,将 GPT‑2 在自定义对话数据集上做 LoRA 微调。
- 对比普通微调和 LoRA 微调在相同数据量下的性能差异。
- 产出:
- LoRA 微调脚本、对比实验表格。
第 4 周:高阶模型架构与多模态入门
- 学习目标:
- 理解 GPT、T5、BART 等生成模型内部差异。
- 初步了解多模态模型(Vision‑Language Models)。
- 推荐资源:
- Raffel 等《Exploring the Limits of Transfer Learning with a Unified Text‑to‑Text Transformer》(T5 论文)。
- CLIP、BLIP 论文速读。
- fast.ai 课程 “Multimodal learning” 章节。
- 实践任务:
- 使用 Hugging Face 加载 CLIP,实现简单的图文检索 demo。
- 在推理服务器(如 Hugging Face Inference API)上部署一个基础多模态接口。
- 产出:
- 一个可在线调用的多模态微服务(FastAPI + Dockerfile)。
阶段三:落地应用开发(第 5–6 周)
第 5 周:Prompt Engineering 与评估
- 学习目标:
- 系统掌握 Prompt 设计原则(Chain‑of‑Thought、Few‑Shot、ReAct 等)。
- 理解自动化评估指标(BLEU、ROUGE、BERTScore、HumanEval)。
- 推荐资源:
- Jason Wei 等《Chain‑of‑Thought Prompting Elicits Reasoning in Large Language Models》论文。
- OpenAI Cookbook “Prompt engineering examples”。
- Papers with Code 上各类评测 Leaderboard。
- 实践任务:
- 针对一个 QA 任务(例如 TriviaQA),设计并调优至少 5 种 Prompt,记录效果。
- 实现自动化脚本,计算 BLEU / ROUGE / BERTScore。
- 产出:
- Prompt 比较报告(Markdown),包含量化指标和示例输出。
第 6 周:端到端项目实战
- 学习目标:
- 整合前面所学,完成一个中等规模的 AI 应用。
- 推荐资源:
- “Building Production‑Ready LLM Apps” 系列文章。
- LangChain 官方文档。
- 实践任务:
- 选题示例(任选其一):
- 智能客服 Bot(文档检索 + 对话生成)
- 新闻摘要与问答系统
- 代码自动补全插件
- 用 LangChain 构建流水线:检索 → Prompt → 生成 → 缓存 → API 暴露
- 将服务容器化并部署至云端(Docker + Kubernetes/Fly.io 等)。
- 产出:
- 完整项目代码仓库(GitHub),以及部署演示视频。
阶段四:优化与拓展(第 7–8 周)
第 7 周:性能优化与安全合规
- 学习目标:
- 模型量化、蒸馏、剪枝技术。
- AI 安全(误用风险、偏见检测)与隐私合规(GDPR/PIPL)。
- 推荐资源:
- “TinyML” 社区教程:模型量化 & 蒸馏实战。
- Google “Responsible AI Practices” 白皮书。
- 实践任务:
- 对已部署的 LLM 服务进行量化(8‑bit/4‑bit),观察推理效率变化。
- 用 OpenAI Evaluator 或自制脚本进行偏见 & 安全测试。
- 产出:
- 性能对比报告;安全合规检查清单。
第 8 周:总结提升与下一步规划
- 学习目标:
- 回顾两个月成果,形成系统的知识与项目 portfolio。
- 制定后续半年 ~ 一年进阶路线。
- 实践任务:
- 撰写一篇技术博客(或内训 PPT),分享整个学习过程与项目经验。
- 针对行业痛点,撰写一份 AI 应用方案(含可行性分析与 ROI 评估)。
- 产出:
- 一篇公众号/简书文章;一份 AI 应用方案文档。
每周持续
- 社群与答疑:加入 Hugging Face、OpenAI Developer 社区,在 Slack/Discord 中每日打卡、提问
- 练习平台:Kaggle、AICrowd、小型黑客松
💡 提示:
- 每周建议投入 15–20 小时,集中在实践与迭代。
- 保持“边学边做”,将理论与代码实验紧密结合。
- 定期复盘(每周末 1 小时),及时调整学习节奏与重点。
豆包:
基于你的技术背景和两个月的学习目标,我将从理论学习、工具链掌握、实战项目三个维度设计学习路径,并结合最新行业资源提供可落地的实施方案:
第一阶段:大模型技术筑基(第 1-2 周)
核心目标
- 掌握 Transformer 架构原理与优化技巧
- 理解大模型训练全流程关键技术
- 搭建本地开发环境
学习内容
- Transformer 深度剖析
- 精读论文《Attention Is All You Need》
- 学习吴恩达深度学习专项课程第 5 门《序列模型》
- 动手实现多头注意力机制(PyTorch)
- 大模型训练流程
- 学习 CSDN 博客《一文详解大模型训练全过程》
- 掌握数据预处理全流程(分词、掩码、编码)
- 理解分布式训练策略(数据并行 / 模型并行)
- 环境搭建
- 安装 PyTorch 2.0+CUDA 12.2
- 配置 Hugging Face Transformers 库
- 部署 JupyterLab 开发环境
推荐资源
- 书籍:《深度学习》(花书)第 12 章
- 工具:Hugging Face Transformers 官方文档
- 论文:《Scaling Laws for Neural Language Models》
第二阶段:工具链实战(第 3-4 周)
核心目标
- 熟练使用 Hugging Face 生态工具
- 掌握大模型微调与推理优化
- 实现基础 NLP 应用
学习内容
- Hugging Face 全栈实践
- 完成 Hugging Face 官方入门课程
- 使用 AutoModel 加载 BERT/GPT-2 模型
- 实现文本分类任务的全流程微调
- 推理优化技术
- 学习模型量化(INT8/FP16)
- 部署 ONNX Runtime 加速推理
- 测试模型性能指标(吞吐量 / 延迟)
- NLP 应用开发
- 构建情感分析系统(Flask API)
- 实现文本生成应用(Streamlit 界面)
- 集成 LangChain 实现多轮对话
推荐资源
- 课程:Hugging Face Transformers 实战教程
- 工具:Accelerate 库分布式训练
- 项目:Hugging Face Hub 公开模型复现
第三阶段:垂直领域攻坚(第 5-6 周)
核心目标
- 掌握领域大模型构建方法
- 实现端到端行业应用
- 优化模型工程化能力
学习内容
- 领域数据处理
- 清洗行业文本数据(医疗 / 金融)
- 构建领域专用词表(SentencePiece)
- 设计领域适配训练目标
- 模型优化
- 学习 LoRA 参数高效微调
- 实现模型剪枝与知识蒸馏
- 测试领域评估指标(ROUGE/BLEU)
- 行业应用开发
- 构建法律文书智能解析系统
- 开发医疗问诊聊天机器人
- 部署模型到 AWS SageMaker
推荐资源
- 工具:PEFT 库参数高效微调
- 项目:医疗对话数据集 CHIP-2023
- 论文:《Instruction Tuning with GPT-4》
第四阶段:前沿技术突破(第 7-8 周)
核心目标
- 掌握多模态大模型技术
- 实现 AIGC 应用开发
- 完成综合项目部署
学习内容
- 多模态模型实践
- 学习 CLIP 模型原理与应用
- 实现文生图应用(Stable Diffusion)
- 构建跨模态检索系统
- AIGC 开发
- 使用 GPT-4 API 实现智能写作助手
- 开发代码生成工具(CodeLlama)
- 集成 DALL・E 3 实现创意设计
- 项目部署
- 优化模型内存占用(DeepSpeed)
- 实现模型实时推理(Triton Server)
- 构建监控报警系统(Prometheus+Grafana)
推荐资源
- 工具:Diffusers 库多模态生成
- 项目:Hugging Face Spaces 多模态部署
- 论文:《Flamingo: a Visual Language Model for Few-Shot Learning》
关键成功要素
- 硬件保障:建议配备 NVIDIA A10/A100 GPU(可通过 Google Colab Pro + 或阿里云 GPU 实例解决)
- 版本控制:使用 GitHub 管理代码,参与开源项目贡献
- 社区参与:加入 Hugging Face 论坛、LLM China 等技术社区
- 知识沉淀:建立技术博客,定期总结学习成果
参考资料清单
- 书籍:《大模型开发与应用实战》
- 课程:Coursera《Transformer Models for NLP》
- 工具:MLX 框架(苹果芯片优化)
- 数据集:C4 数据集、PubMed 摘要数据集
- 论文:arXiv 每日精选(关注 LLM 领域)
通过这个计划,你将在两个月内掌握从模型训练到应用落地的全流程技术,同时积累多个行业级项目经验。建议每天保持 4-6 小时的深度学习时间,重点突破 Transformer 架构理解、模型优化和工程化部署三大核心能力。在学习过程中,可结合具体行业需求调整实践方向,例如金融风控、智能客服等垂直领域。
综上,总结得到一个计划:
📅 第1周:Transformer架构攻坚
核心目标:吃透Transformer每个模块的数学原理与代码实现
每日节奏(6天/周,每天4小时):
- 上午(2h):理论攻坚 + 代码阅读
- 下午(2h):动手实现 + 实验分析
任务清单
- 精读材料
- 《Attention Is All You Need》论文(重点2.1-3.2节)
- 《深度学习》第10章Attention机制(推导公式10.10-10.15)
- 编码实践
- 实现位置编码(Positional Encoding)可视化工具:
- 用PyTorch从零构建Multi-Head Attention层(参考实现)
- 验证方法
- 通过单元测试验证Attention输出与Hugging Face实现的一致性(误差<1e-5)
- 在GLUE-MRPC数据集上跑通Transformer分类模型(目标准确率≥85%)
Day1:2025-05-07
《Attention Is All You Need》论文(重点2.1-3.2节)
《深度学习》第10章Attention机制(推导公式10.10-10.15)
The Annotated TransformerThe Annotated Transformer
📅 第2周:Hugging Face生态实战
核心目标:掌握模型训练全流程与分布式技巧
关键任务:
- 精读材料
- 《Efficient Transformers: A Survey》第2章(知识蒸馏部分)
- 编码实践
- 使用Accelerate库进行多GPU训练:复制下载
- 在自定义数据集(如公司工单数据)上微调DistilBERT
bash
- 验证方法
- 对比单卡vs多卡训练速度(目标线性加速比≥80%)
- 模型部署至Hugging Face Inference Endpoint并测试API吞吐量(QPS≥50)
📅 第3周:高效微调与模型压缩
核心目标:掌握参数高效微调与量化部署
关键项目:医疗问答系统优化
- 编码实践
- 使用PEFT库对LLaMA-2进行LoRA微调:复制下载
- 对BERT进行INT8量化并测试精度损失(目标<2%)
python
- 验证方法
- 使用Medical QA数据集评估微调效果(BLEU-4≥0.3)
- 量化模型在Jetson Nano上的推理延迟测试(目标<50ms)
📅 第4周:多模态与RAG系统
核心目标:构建图文检索与增强生成系统
关键工具:CLIP + FAISS + LangChain
- 精读材料
- CLIP论文(重点3.1节)
- 编码实践
- 实现跨模态检索:复制下载
- 使用Unsplash数据集构建检索增强系统
python
- 验证方法
- 检索top-5准确率测试(目标≥75%)
- 端到端问答响应时间(从提问到生成答案<1s)
📅 第5周:工程化与高性能服务
核心目标:工业级模型服务与监控
关键技术栈:FastAPI + Triton + Prometheus
- 编码实践
- 编写动态批处理中间件:复制下载
- 部署模型到Triton并配置自动扩缩容
python
- 验证方法
- 使用Locust压力测试验证QPS≥200
- 监控仪表盘配置(GPU利用率>90%时触发告警)
📅 第6周:全栈AI项目开发
核心项目:智能客服系统(前端+后端+算法)
技术栈:
- 前端:Streamlit/Next.js
- 后端:FastAPI + Redis缓存
- 算法:RAG + 微调模型
实施步骤:
- 使用Supabase搭建知识库
- 集成pgvector实现向量检索
- 编写自动化测试脚本(pytest覆盖率≥80%)
交付标准:
- 同时支持100人在线咨询
- 平均响应时间<800ms
📅 第7周:模型优化与创新
核心实验:
- 小模型预训练
- 在BookCorpus数据集上训练微型GPT(参数量<100M)
- 使用DeepSpeed Zero-3优化显存占用
- 创新尝试
- 将MoE(Mixture-of-Experts)架构引入微调阶段
- 实验不同专家数量对效果的影响(2/4/8 experts)
验证方法:
- 困惑度(Perplexity)降低≥15%
- 训练速度提升≥30%
📅 第8周:成果交付与影响力建设
核心产出:
- 技术作品集
- GitHub仓库:包含所有项目代码+详细README
- 技术博客:在Medium/知乎发布至少3篇深度文章
- 商业价值证明
- 编写项目ROI分析报告(成本/准确率/人力节省)
- 录制5分钟产品演示视频(英文字幕)
验证标准:
- GitHub Star数≥50
- 博客阅读量≥1000
Day1:2025-05-07
🔧 即时启动工具包
- 环境准备(立即执行):复制下载
bash
- 第一天任务(1小时内完成):
- 在Kaggle下载IMDB数据集并运行示例Notebook
Day7:2025-05-13
- 读《动手深度学习》花书 chapter 5 CNN、9 RNN、10 attention。。。。发现看不懂
- 从头开始看花书。