Meta AI新发布的超大规模语言模型-OPT-175B

Meta AI在2022年5月3日新发布的OPT-175B模型,该模型是现阶段第一个模型参数超过千亿级别的开放模型,其次该模型与GPT-3相比,更加开放及便于访问

具体开放性表现在如下几个方面:

1.论文: 提供了某些能力是可能的存在证明,并揭示可以建立在此基础上的一般思想

2. API访问:允许研究人员探索和评估现有基础模型的能力(例如,推理)和局限性(例如,偏差)

3.模型权重:允许研究人员逐步改进现有模型,开发更深入的可解释技术和更有效的微调方法

4.训练数据:让研究人员更好地理解训练数据在模型行为中的作用——例如,情境学习从何而来?(不过,有些数据可能很难公布。)

5.计算:允许研究人员尝试新的架构,培训目标/程序,进行数据集消融,并在不同领域开发全新的模型。这具有最大的理解和改进潜力,但也相当昂贵。

项目地址https://github.com/facebookresearch/metaseq

论文地址https://arxiv.org/pdf/2205.01068.pdf

请求访问权限地址:https://forms.gle/dag8g7nKiR4o4VZq5

以下为Meta AI官网的发布声明。

大型语言模型--具有超过 1000 亿个参数的自然语言处理 (NLP) 系统——在过去几年中改变了 NLP 和 AI 研究。基于大规模不同体量的文本训练,这些模型在生成创意文本、解决基本数学问题、回答阅读理解问题等方面表现出惊人能力。虽然在某些情况下,公众可以通过付费 API 与这些模型进行交互,但全部的研究访问权限仍然仅限于少数资源丰富的实验室中。这种受限访问限制了研究人员理解这些大型语言模型如何以及为什么工作的能力,阻碍了提高其稳健性和减轻类似偏见和危害性等已知问题的努力的进展。

根据 Meta AI 对开放科学的承诺,我们正在分享 Open Pretrained Transformer (OPT-175B),一种公开可用的数据集训练的具有 1750 亿个参数的语言模型,以允许更多的社区参与了解这项基础新技术。对于首次实现这种规模的语言技术系统,此次发布包括预训练模型以及训练和使用它们所需的代码。为了保持完整性并防止滥用,我们将在非商业许可下发布我们的模型,以专注于研究用例。该模型的访问权限将授予学术研究者,即隶属于政府、民间社会和学术界组织的人员,以及世界各地的工业研究实验室。

我们相信整个人工智能社区——学术研究人员、民间社会、政策制定者和工业界——必须共同努力,围绕负责任的人工智能制定明确的指导方针,特别是负责任的大型语言模型,因为它们在许多下游语言应用中处于中心地位。人工智能社区中更广泛的部分需要访问这些模型,以便进行可重复的研究并共同推动该领域的发展。随着 OPT-175B 和小规模基线的发布,我们希望增加定义此类技术伦理考虑的话语多样性。

OPT-175B 的责任发布

根据人工智能伙伴关系为研究人员制定的出版指南,以及NIST在2022年3月概述的治理指南(第3.4节),我们发布了所有记录开发过程的笔记,包括详细描述日常训练过程的完整日志,以便其他研究人员可以更容易地在我们的工作基础上进行构建。此外,这些细节揭示了用于训练OPT-175B的计算量,以及当底层基础设施或训练过程本身在规模上变得不稳定时所需的人力开销。

我们正在共享 OPT-175B,以及仅使用16 个 NVIDIA V100 GPU 来训练和部署模型的代码库,以增加这些模型的可访问性,专门用于研究目的,并为分析根植于可量化的潜在危害提供基础通用共享模型上的指标。我们还全面发布了一套更小规模的基线模型,在相同的数据集上进行训练,并使用与 OPT-175B 类似的配置,以使研究人员能够单独研究规模的影响。这些小规模模型的参数计数包括1.25亿、3.5亿、13亿、27亿、67亿、130亿和300亿(660亿即将发布)。

负责任的计算

人工智能研究的最新进展消耗了大量的计算能力。虽然行业实验室已经开始报告这些模型的碳足迹,但大多数不包括与实验的研发阶段相关的计算成本,在某些情况下,这可能比训练最终模型的资源密集型多一个数量级。

我们在开发OPT-175B时考虑到了能源效率,成功地训练了这种规模的模型,只使用了GPT-3的1/7的碳足迹。这是通过结合Meta的开源完全分片数据并行(FSDP) API和NVIDIA的张量并行抽象在Megetron-LM中实现的。我们在NVIDIA的80gb A100 GPU上实现了约147 TFLOP/s/GPU的利用率,比NVIDIA研究人员公布的在类似硬件上的利用率大约高17%。

通过共享这些基线和代码库来有效地训练175B模型,我们有机会减少我们集体的环境足迹,同时也允许以一致的方式测量该领域的新结果和进展。

通过开放合作推动研究向前发展

为了推进人工智能研究,更广泛的科学界必须能够与前沿模型合作,有效地探索它们的潜力,同时也探索它们的弱点。与我们之前的开放科学计划一样,如图像相似性挑战、深度造假检测挑战和可恶的表情包挑战,Meta AI认为,跨研究机构的合作对负责任的人工智能技术的发展至关重要。

虽然在大型语言模型领域有许多令人兴奋的发展,但这些模型所带来的限制和风险仍然没有被很好地理解。如果不能直接使用这些模型,研究人员为可能的危害设计检测和缓解策略的能力也有限,这使得检测和缓解工作只掌握在那些有足够资金使用这种规模模型的人手中。我们希望OPT-175B将为大型语言模型创建的前沿带来更多的声音,帮助社区共同设计负责任的发布策略,并为该领域的大型语言模型的开发增加前所未有的透明度和开放性。

这里访问开放源代码和小规模预训练模型,在这里请求访问OPT-175B,在这里阅读论文。

预训练模型均根据OPT-175B许可协议进行许可。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容