想学习人工智能吗?但不知道如何开始?要熟练掌握人工智能相关的技术,光学习很多课程是不够的。

为了摆脱只是跟着教程学习,你需要亲自动手,从头开始编写算法,动手实践,并通过使用人工智能解决问题来做一些有趣的边项目。这篇文章试图创建一份免费的课程路径,希望对大家学习有帮助。(注意:有大量教程、书籍、论文和资源都是英文的,请配合 AI 翻译工具来阅读吧。)

自上而下的方法

这份课程采用自上而下的方法——先编码,后理论。

建议大家在必要时才进行学习。即,如果我需要解决某个问题或制作一个原型,我会四处寻找所需的信息,学习、理解然后进行实践。

例如,我目标是成为一个从根本上理解大型语言模型(LLM)的AI工程师,这包括从头编码变换器的技能和在GPU上微调LLM等。我现在还做不到,因为我的知识有缺口,我希望填补这些缺口。

在我给你推荐一堆链接之前,还有两个学习过程中的建议:不要闷头自学。

学无止境,尤其是在人工智能领域,每个月都有前沿的论文发布。

最大的错误是自己闷头学习。除了能完成了某些事之外,你没有任何成果可展示。这样你会错失很多机会。更重要的是你如何处理这些信息,如何将其转化为可以与公众分享的知识,以及从这些信息中产生了什么新颖的想法和解决方案。

因此,你应该在公开你的学习进展,学习经验,甚至是一些成果。

这意味着要养成创造的习惯。这可能意味着,你尝试做这些事情:

  • 写博客和教程
  • 参加黑客马拉松并与他人合作
  • 在社区中提问和回答问题
  • 做你感兴趣的项目
  • 在一些社交媒体上发表你新发现的有趣的事

现在我们开始吧。

算法学习

机器学习严重依赖三大数学支柱:线性代数、微积分、概率与统计。每个都在算法有效运行中扮演着独特的角色。

  • 线性代数:数据表示和操作的数学工具箱,矩阵和向量构成算法解释和处理信息的语言。
  • 微积分:机器学习中优化的引擎,通过理解梯度和变化率,使算法能够学习和改进。
  • 概率与统计:在不确定性下做决策的基础,允许算法通过随机性和可变性的模型预测结果并从数据中学习。

这是一套从程序员视角出发的机器学习数学系列:由Weights & Biases提供的《机器学习的数学》(github 地址

如果你想从代码角度学习线性代数,可以学习fast.ai创造者的《计算线性代数》github 地址)。

同时阅读《Python应用机器学习线性代数入门》。

如果你想要更传统的内容,可以看伦敦帝国学院的讲座——线性代数多变量微积分。(这两个视频,在国内视频网站中没有搜到,大家可以自己跳转去看)

观看3Blue1Brown的《线性代数的本质》和《微积分的本质》。

为了学习统计学,观看StatQuest的《统计学基础》。

补充资料:

工具

Python

初学者从这里开始:实用Python编程。当然,B 站上也有清华北大整理的 Python 教程,也不错,大家可以自己搜索。

如果你已经熟悉Python,可以学习这个高级Python精通课程

这两个课程都是由David Beazley(《Python Cookbook》的作者)提供的。

阅读《Python设计模式》。

补充资料

PyTorch

PyTorch官网是一个很好的资源。

补充资料

机器学习

阅读《100页机器学习书》。

从头编写

在阅读时,从头开始编写算法。

查看下面的代码库:

如果你想要挑战自己,可以通过以下课程尝试从头开始编写PyTorch。

参加比赛

将所学应用于竞赛。

做一些小项目

例如阅读Vicki Boykis撰写的《将机器学习投入生产》。她还写了关于构建Viberary(一种图书的语义搜索)的学习经验。

获取数据集并构建模型(例如,使用earthaccess获取NASA地球数据)。你也可以尝试一些已经开源的模型,从部署、训练到微调。如果你缺少合适的 GPU 资源,还有硬件资源,你可以尝试使用 Paperspace 这样的 GPU 云来解决。(中文介绍

部署它们

将模型投入生产环境,并跟踪你的实践成果。学习如何监控模型。亲身体验数据和模型的变化。

以下是一些优秀资源:

补充资料

深度学习

如果你想从上而下开始,先从fast.ai开始。你可以浏览fast.ai (第一部分, 第二部分) ,以及 W&B学习小组

如果你想要一个更全面、传统的课程,查看UNIGE 14×050 — François Fleuret教授的深度学习。

如果你需要在某个时候回归理论,这些书籍很棒:

在你的神经网络收敛时阅读这些:

参加更多比赛:

一些值得推荐的论文:

以下是深度学习内部一些专业领域的资源:

计算机视觉

强化学习

对于想要了解强化学习的人来讲,这两个资源很值得看:

自然语言处理(NLP)

一些好文章和解析,其中一些插图版本的内容会更加生动易懂:

补充资料:

大型语言模型

首先,观看由Andrej主讲的1小时演讲《大型语言模型入门》。接着观看由Alexander Rush — Cornell Tech主讲的《五个公式中的大型语言模型》(暂时没有在国内视频网站看到过这个资源)。

同时,还推荐观看Andrej Karpathy的《神经网络:从零到英雄》。它从解释和从头编写反向传播算法开始,最后教你从头编写GPT。Andrej Karpathy最近发布了新视频 :让我们来构建GPT的分词器(这个视频也没有在国内视频网站上搜到)。

另外,你还可以看看Jay Mody的《60行NumPy代码中的GPT》。

一些免费的LLM训练营

Full Stack Deep Learning发布的付费LLM训练营,现已免费。它会教你提示工程、LLMOps、LLM的用户体验设计,以及如何在一小时内启动LLM应用。

如果你已经跃跃欲试想要在训练营后开始构建,那你看看这些资源,学习如何使用LLM构建应用:

当然,还推荐你参加一些黑客马拉松,练练手。lablab.ai每周都有新的AI黑客马拉松。

如果你想深入理论并了解一切如何运作。那么可以阅读论文:

从头编写变换器

论文

博客

看完这些,现在你可以从头开始编码变换器了。但还有更多。

一些好的博客

  • Gradient Descent into Madness — 从头构建一个LLM
  • 插图变换器 — Jay Alammar
  • 关于注意力和变换器的一些直觉 — Eugene Yan
  • 加速GPT — KV缓存 | Becoming The Unbeatable
  • 超越自我注意:一个小型语言模型如何预测下一个标记
  • 从头开始的Llama(或如何在不哭泣的情况下实现一篇论文)| Brian Kitano
  • 改进LoRA:从头开始实现权重分解的低秩适应(DoRA)

学习如何运行开源模型

提示工程

另外,DeepLearning.ai还提供了其他你可以免费注册的短期课程。

微调LLM

RAG

上手实践

千万不要忘了我们在最开始说的,一定要多动手实践,在实践过程中,你会发现自己的知识盲区,然后学习会更有动力。

如果你手上没有合适的 GPU 或电脑设备能让你去运行那些大语言模型,那么你可以考虑使用 GPU 云服务,比如 DigitalOcean Paperspace 平台(这里有中文介绍),支持包括 H100、A100、V100 等多种 GPU,并预装机器学习常用的技术栈(包括语言、工具、框架等)。随时扩展,按需停止,只需按使用量付费。相比自建服务器、租赁 GPU,你会发现 GPU 云服务也是个不错的选择。

如何保持知识更新

学到这里,你要做的更多的就是保持自己能得到更多新的资讯、知识,了解当前AI 行业中又有哪些新模型、新论文。所以你可以通过结合新闻、播客,在社交平台上关注一些博主,来保证得到最新的信息。

我们已经花了足够的时间编写和组织这些内容,以至于收益递减。现在是时候学习和构建了。希望这能帮助你在AI旅程中前行!