• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

BLOOM模型结构

武飞扬头像
嵌入式视觉
帮助1

《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》

论文地址: https://arxiv.org/pdf/2211.05100.pdf

代码地址: transformers库-modeling_bloom.py

BigScience 官方提供的代码链接并没有找到完整的模型实现代码,只有提示说模型结构代码是在 Megatron 的 GPT-2 代码基础上修改的。

BLOOM模型结构

学新通

BLOOM 的完整架构图

BLOOM 模型也是 Decoder-only 架构,但和原始 transformer-decoder 结构有所区别,上图红色框框出来的是 两个优化地方,具体来说:

  1. ALiBi Positional Embeddings。ALiBi 位置嵌入不是向嵌入层添加位置信息,而是根据键和查询的距离直接衰减注意力分数。尽管作者最初的动机是其推断更长序列的能力,但后来发现即使在原始序列长度下,它也能带来更平滑的训练和更好的下

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhiaccei
系列文章
更多 icon
同类精品
更多 icon
继续加载