Sora-Part02

思考和练习

请思考下面的问题。

Attention

  1. 你怎么理解Attention?
Attention(注意力机制)是一种在处理序列数据时的机制。序列中的每一部分(在NLP中为token,在CV中为patch)能“全局”地“关注”到自己以及自己以外的其他部分。基于query (Q)和key (K)间的关系,计算权重矩阵,从而对不同部分的value (V)进行加权求和以更好地表示该部分。
  1. 乘性Attention和加性Attention有什么不同?
计算注意力权重的方式不同。乘性Attention通过计算query和key的点积然后除以scaled factor来计算注意力权重,而加性Attention通过计算query和key的点积然后加上一个偏置项来计算注意力权重。
  1. Self-Attention为什么采用 Dot-Product Attention?
Dot-Product Attention通过计算query和key的点积然后除以scaled factor来得到注意力权重,这种方法简单且高效,能够使得模型在处理每一个元素时能够关注到序列中的其他元素,从而更好地进行序列处理任务。
  1. Self-Attention中的Scaled因子有什么作用?必须是 sqrt(d_k) 吗?
Scaled factor的作用主要是为了使得注意力权重能够在不同的scale下进行计算,防止在计算过程中出现梯度消失或爆炸的问题。在Dot-Product Attention中,scaled factor通常是hidden dimension的平方根,即scaled factor = sqrt(d_k)。(以前好像看到过相关的公式推导(具体地址忘了),证明sort(d_k)解决了梯度消失和爆炸的问题)
  1. Multi-Head Self-Attention,Multi越多越好吗,为什么?
No, Multi-Head Self-Attention中的Multi-Head指的是将注意力机制分成多个头,每个头计算注意力权重时使用不同的权重矩阵,最后将各个头的注意力权重进行 concatenate。Multi-Head Self-Attention能够使得模型能够关注到序列中的不同特征,提高模型的性能。但是,Multi-Head Self-Attention中的头数(num_heads)并不是越多越好,头数过多可能会导致计算复杂度增加,从而影响模型的性能。在设计模型架构时,需要根据具体任务和数据集来选择合适的头数。
  1. Multi-Head Self-Attention,固定hidden_dim,你认为增加 head_dim (需要缩小 num_heads)和减少 head_dim 会对结果有什么影响?
如果固定hidden_dim,增加head_dim意味着每个头处理的特征维度减小,而减少head_dim意味着每个头处理的特征维度增大。在某些情况下,增加head_dim可能会提高模型的性能,因为它可以使得模型能够关注到序列中的更细粒度的特征。然而,如果head_dim过大,可能会导致模型过拟合,从而影响模型的性能。因此,在设计模型架构时,需要根据具体任务和数据集来选择合适的head_dim。

  1. 为什么我们一般需要对 Attention weights 应用Dropout?哪些地方一般需要Dropout?Dropout在推理时是怎么执行的?你怎么理解Dropout?

  1. Self-Attention的qkv初始化时,bias怎么设置,为什么?
偏置项通常设置为一个较小的正数,如0.1,使模型在训练过程中能够更快地收敛。
  1. 你还知道哪些变种的Attention?它们针对Vanilla实现做了哪些优化和改进?
除了Vanilla Attention以外,还有一些变种的Attention,如:
1. Scaled Dot-Product Attention:在计算注意力权重时,将query和key的点积除以scaled factor,从而使得注意力权重能够在不同的scale下进行计算。
2. Additive Attention:计算query和key的点积然后加上一个偏置项,从而得到注意力权重。
3. Location-Based Attention:引入一个位置编码,使得模型能够更好地关注到序列中的特定位置的元素。
这些变种相对Vanilla Attention的改进是:
1. Scaled Dot-Product Attention:解决了在计算注意力权重时可能出现的梯度消失或爆炸问题。
2. Additive Attention:同样解决了可能出现的梯度消失或爆炸问题,同时提高了模型的性能。
3. Location-Based Attention:解决了在处理序列数据时,模型无法很好地处理序列中的位置信息的问题。
  1. 你认为Attention的缺点和不足是什么?
1. 计算复杂度较高:Attention机制在计算注意力权重时需要进行复杂的矩阵运算,这可能会导致计算复杂度较高,从而影响模型的性能。
2. 可能过拟合:如果Attention机制的参数过多,可能会导致模型过拟合,从而影响模型的性能。
3. 无法处理序列中各部分的顺序问题:Attention机制主要关注的是序列中的每一个部分(token/patch)间的关系,而无法处理它们间的顺序问题。
  1. 你怎么理解Deep Learning的Deep?现在代码里只有一个Attention,多叠加几个效果会好吗?
Deep Learning的Deep是指在模型中包含多层神经网络,通过多层神经网络对数据进行抽象和特征提取,从而提高模型的性能。在代码中叠加多个Attention,可以使得模型能够更好地关注到序列中的不同特征,提高模型的性能。但是,如果Attention层数过多,可能会导致模型过拟合,从而影响模型的性能。因此,在设计模型架构时,需要根据具体任务和数据集来选择合适的Attention层数。
  1. DeepLearning中Deep和Wide分别有什么作用,设计模型架构时应怎么考虑?
在DeepLearning中,Deep和Wide分别指深度学习和广度学习。深度学习主要关注模型在特征空间中的抽象能力,而广度学习主要关注模型在特征空间中的覆盖范围。在设计模型架构时,需要根据具体任务和数据集来选择合适的模型结构,从而达到更好的性能。

LLM

  1. 你怎么理解Tokenize?你知道几种Tokenize方式,它们有什么区别?
  2. 你觉得一个理想的Tokenizer模型应该具备哪些特点?
  3. Tokenizer中有一些特殊Token,比如开始和结束标记,你觉得它们的作用是什么?我们为什么不能通过模型自动学习到开始和结束标记?
  4. 为什么LLM都是Decoder-Only的?
  5. RMSNorm的作用是什么,和LayerNorm有什么不同?为什么不用LayerNorm?
  6. LLM中的残差连接体现在哪里?为什么用残差连接?
  7. PreNormalization和PostNormalization会对模型有什么影响?为什么现在LLM都用PreNormalization?
  8. FFN为什么先扩大后缩小,它们的作用分别是什么?
  9. 为什么LLM需要位置编码?你了解几种位置编码方案?
  10. 为什么RoPE能从众多位置编码中脱颖而出?它主要做了哪些改进?
  11. 如果让你设计一种位置编码方案,你会考虑哪些因素?
  12. 请你将《LLM部分》中的一些设计(如RMSNorm)加入到《Self-Attention部分》的模型设计中,看看能否提升效果?
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容