从零构建GPT --- 学习笔记

从零构建GPT

视频教程先从理论讲起。
第一部分主要关于建立基准语言模型(二元)以及Transformer核心注意力机制,以及该机制内节点之间的信息传递,自注意力机制理论也有涉及。
该part内容长度超过1小时,不仅有概念解释,还教你如何使用矩阵乘法、添加softmax归一化,可谓“夯实基础”式讲解。

Karpathy另一个身份是前特斯拉AI核心人物。
在马斯克麾下,他历任特斯拉高级AI主管、特斯拉自动驾驶AutoPilot负责人、特斯拉超算Dojo负责人、特斯拉擎天柱人形机器人负责人…
2022年7月,Karpathy Andrej离职,在业内引发不小讨论。当时他就表示,未来将花更多时间在AI、开源技术教育上。
这回发布的从0开始构建GPT课程,正是他教学计划的一部分。

课程视频:
https://www.youtube.com/watch?v=kCc8FmEb1nY
nanoGPT GitHub链接:
https://github.com/karpathy/nanoGPT

“从0到1手搓GPT”教程来了!

视频1个多小时,从原理到代码都一一呈现,训练微调也涵盖在内,手把手带着你搞定。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqy9UnL2v4LeCdIhnhicY9dHMUibPWx43xMnpW3XNJzf93lgetrMlX246Q/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

该内容刚发出来,在Twitter已吸引400万关注量,HackerNews上Points也破了900。

连马斯克也下场支持。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdq3G1UGKRkXkv1J2duhXtiaq2pdgElwcqtATgyoeYgq6CgPrDVlf97QmA/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

评论区更是一片锣鼓喧天鞭炮齐鸣,网友们纷纷马住。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqO0GXrFGTPX2yzpeDMKvpDU7As7iaRSnW7iaXUiaCQSg0VEib1v9hUtASzQ/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

有人评价,Andrej确实是一位出色的“事物解释者”,也热心于回答大家的问题。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqj9cLBppWCNVoeibp2OQT2tBwlzBFmGEWVuC1yZJ8dw6UqeyoSVibkH7Q/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

还有网友更夸张,称该教程简直是来“救命”。

那么,这位活菩萨是谁?

正是前特斯拉AI总监,李飞飞高徒——Andrej Karpathy。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqgRxNEeKm2Dic5ibrXtgP9p7xer43TH129cDsA9zL8TicXUFV6N1KMjO0A/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

教程具体说了什么?

这就来展开讲讲。

1

『从零构建GPT,总共几步?』

视频教程先从理论讲起。

第一部分主要关于建立基准语言模型(二元)以及Transformer核心注意力机制,以及该机制内节点之间的信息传递,自注意力机制理论也有涉及。

该part内容长度超过1小时,不仅有概念解释,还教你如何使用矩阵乘法、添加softmax归一化,可谓“夯实基础”式讲解。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdq1IFQXms53Up5kGoAia3VBBJ3pMfBda8fRtsdicmMu8rJphQIXW34urkQ/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

接着讲述构建Transformer。

这当中涉及了多头注意力(包括如何插入自注意力构建块)、多层感知机(MLP)、残差连接、归一化方法LayerNorm以及如何在Transformer中添加Dropout Notes…….

然后,作者会带大家训练一个模型,当中会用到一个名为nanoGPT的库,可调用GPT-2参数,快速完成GPT模型的训练。

教程中,作者还将所得模型与Open AI的GPT-3比较。两者规模差距达1万-100万倍,但神经网络是相同的。另一个将拿来比较的是人尽皆知的ChatGPT,当然,我们目前所得只是预训练模型。

https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqibxlmwoaNV6vc54SDXcYwrBnic9FrjD54jJX5rPnyUl2zvm7kOricE6GQ/640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1&wx_co=1

在上述内容引导下,我们已得一个10M参数规模的模型,在一个GPU上训练15分钟,喂给1MB大小的莎士比亚文本数据集,它就能像莎士比亚一样输出。

比如下面两张图,你能分辨哪个是真人莎士比亚写的吗?

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqVzbIMXCmibCxN2YlMzZBCKtHJr0DOdB9UgfOw3bpBKzDGruu6HR4emA/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

评论区有人好奇选什么GPU资源。作者也分享了下——自己用的是Lambda的云上GPU,这是他目前接触按需计费GPU中,最简单的渠道。

光说不练不行,作者还给出一些课后练习,总共四道题,包括:

  • N维张量掌握挑战;
  • 在自己选择的数据集上训练GPT;
  • 找一个非常大的数据集,基于它训练Transformer,然后初始化再基于莎士比亚数据集微调,看能否通过预训练获得更低的验证损失?
  • 参考Transformer相关论文,看看之前研究中哪些操作能进一步提升性能;

2

『神器nanoGPT也刚发布』

前文提及,作者之所以能快速完成训练GPT,有赖于一个名nanoGPT的库。

这也是本教程作者前几天刚发布的利器,由2年前的minGPT升级而来,只是换了个更“标题党”的名字,自称纳米级(nano)。目前,其在GitHub所获star已超8k,网友连连点赞。

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqrwtexD2AxP2luJ7lpnUtwWWmGVphsAs39yzqNvEbUuw8XERqfnK9aQ/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

据作者介绍,该库里面包含一个约300行的GPT模型定义(文件名:model.py),可以从OpenAI加载GPT-2权重。

还有一个训练模型PyTorch样板(文件名:train.py),同样也是300多行。

对想上手的AI玩家来说,无论是从头开始训练新模型,还是基于预训练进行微调(目前可用的最大模型为1.3B参数的GPT-2),各路需求均能满足。

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqT7dNyXtZOlORXel3GL84FGMU4ZPwictOGAlNZb5x3WaicPzo1Ysthj5g/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

△ 一个训练实例展示

据作者目前自己的测试,他在1 个 A100 40GB GPU 上训练一晚,损失约为 3.74。如果是在4个GPU上训练损失约为3.60。

如果在8个A100 40GB节点上进行约50万次迭代,时长约为1天,atim的训练降至约3.1,init随机概率是10.82,已将结果带到了baseline范围。

https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtDNrzqkzWFx3JThQmssUsdqmUVQBXibdqQGQKDrqZMOgqkOxYNlI50h1ic9xrPEejkNK5GuaqtLFvuA/640?wx_fmt=png&wxfrom=5&wx_lazy=1&wx_co=1

对macbook或一些“力量”不足的小破本,靠nanoGPT也能开训。

不过,作者建议使用莎士比亚(shakespeare)数据集,该数据集前文已提及,大小约1MB,然后在一个很小的网络上运行。

据他自己亲身示范,创建了一个小得多的Transformer(4层,4个head,64嵌入大小),在作者自己的苹果AIR M1本上,每次迭代大约需要400毫秒。

(GitHub上nanoGPT链接附在文末,有需要的朋友自取)

3

『One More Thing』

此番教程作者Karpathy Andrej在圈内早已颇有名气,他在斯坦福时,师从华人AI大牛李飞飞,后又曾工作于Open AI。

此前,Karpathy就在致力于让更多人接触了解神经网络和相关数据集。2020年8月,他就曾发布nanoGPT前一代,MinGPT,同样旨在让GPT做到小巧、简洁、可解释,同样主打——300行代码解决问题。

Karpathy另一个身份是前特斯拉AI核心人物。

在马斯克麾下,他历任特斯拉高级AI主管、特斯拉自动驾驶AutoPilot负责人、特斯拉超算Dojo负责人、特斯拉擎天柱人形机器人负责人…

2022年7月,Karpathy Andrej离职,在业内引发不小讨论。当时他就表示,未来将花更多时间在AI、开源技术教育上。

这回发布的从0开始构建GPT课程,正是他教学计划的一部分。

  • 课程视频:

https://www.youtube.com/watch?v=kCc8FmEb1nY

  • nanoGPT GitHub链接:

https://github.com/karpathy/nanoGPT

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容

  • 一. SVG是什么? SVG 意为可缩放矢量图形(Scalable Vectors Graphics)。 SVG ...
    TROPICALlll阅读 1,102评论 0 1
  • 一技术上 1 学习了多层布局和拖拽的技术,之前由于不懂这方面的技术,在做上一个运营项目的时候拖拽自己的写的,结果...
    半音半猿阅读 130评论 0 0
  • 资料 微信小程序开发之SVG的使用 操作步骤 1.下载svg或者是制作了svg 目前,我是直接从网上copy了一段...
    追梦者0919阅读 1,161评论 0 0
  • 有关于移动端的适配布局一直以来都是众说纷纭,对应的解决方案也是有很多种。在《使用Flexible实现手淘H5页面的...
    0_2448阅读 291评论 0 0
  • 移动端适配,是我们在开发中经常会遇到的,这里面可能会遇到非常多的问题: 1px问题 UI图完美适配方案 iPhon...
    Vicky丶Amor阅读 8,826评论 4 19