头条
Llama 3
Meta 发布了 8B 和 70B 模型,其性能显着提高,特别是在推理、上下文长度和代码方面。 它仍在训练 400B 参数模型,其性能将与 Opus 相匹配。 这些模型无疑是最强大的可用开放模型。
谷歌的 DeepMind AI 可以帮助工程师预测“灾难性故障”
数学家和谷歌 DeepMind 研究人员利用人工智能来查找缺乏特定模式的大量对象,帮助理解潜在的灾难性故障,例如由于服务器中断而导致的互联网中断。 他们的方法采用大型语言模型来迭代生成和完善无集集合,从而促进最坏情况场景的研究。 这项研究反映了人工智能和人类聪明才智在解决复杂问题方面的综合力量。
OpenAI 终止 DALL-E 2
OpenAI 的 DALL-E 2 于 2022 年 4 月推出,标志着人工智能历史上一个开创性且动荡的时期,一群紧密团结的艺术家和技术爱好者利用该技术探索了语言和视觉艺术之间的交叉点。 然而,这种惊讶和兴奋很快就被对未经许可或补偿的情况下在受版权保护的创意作品上训练人工智能模型的道德担忧所取代,导致了一场两极分化的争论,随着 OpenAI 转向 DALL-E 3 和 其他人工智能图像合成模型也出现了。
研究
模型适应的联邦学习
研究人员开发了一种名为联邦代理微调(FedPFT)的新方法,可以提高基础模型对特定任务的适应性,同时保护数据隐私。
优化LLM的情境学习
本文介绍了一种在 Llama-2 和 GPT-J 等大型语言模型中增强上下文学习 (ICL) 的新方法。 它的作者提出了一种新的优化方法,该方法改进了他们所谓的“状态向量”——模型知识的压缩表示。
体育分析与比赛状态重建
SoccerNet-GSR 是一个新的数据集,旨在推进单摄像机足球视频片段的比赛状态重建。
工程
使用组件建模进行模型解释 (GitHub Repo)
组件建模将模型的预测过程分解为其基本元素,例如卷积滤波器和注意力头,以了解它们对最终输出的具体贡献。
AI 网关 (GitHub Repo)
AI Gateway 是应用程序和托管大型语言模型之间的接口。 它使用统一的 API 简化对 LLM 提供商的 API 请求。 AI Gateway 速度快、占用空间小,并且可以跨多个模型、提供程序和密钥进行负载平衡。 它有后备措施来确保应用程序的弹性,并根据需要支持插件中间件。
微小视觉模型(GitHub Repo)
Moondream 是一个在 Phi-2 之上训练的微型视觉语言模型。 就其尺寸而言,它具有极其强大的性能,尽管它仍然与一些幻觉作斗争。 Moondream 足够小,可以在手机和边缘设备上运行。 它实现了无数的商业视觉功能。
杂七杂八
可能的思想空间
复杂人工智能的出现正在挑战人类的基本概念,并推动我们探索如何在一系列智能生物中体现真正的理解和代理。 为了驾驭这一新景观,我们必须制定原则框架,将我们的道德关注扩展到存在的基本品质,认识到各种形式的智力之间的相似性和差异,并在完全不同的实体之间培养互利的关系。
句子嵌入简介
本指南探索使用开源嵌入模型来增强人工智能项目。 它涵盖了模型选择的标准和有效部署的方法。 该指南利用开源库 Sentence Transformers 作为实际示例。
CUDA 仍然是 NVIDIA 的巨大护城河
NVIDIA 在 AI 领域的主导地位不仅依靠硬件,还依靠其 CUDA 软件生态系统和专有互连技术。 AMD ROCM 等替代方案难以与 CUDA 的易用性和性能优化相媲美,从而确保 NVIDIA 的 GPU 仍然是 AI 工作负载的首选。 对 CUDA 生态系统和社区教育的投资巩固了 NVIDIA 在 AI 计算领域的优势。
Stability AI 裁员约 10%
Stability AI 已解雇约 20 名员工。