今日AI-豆包大模型-2024年11月3日

发现全网最新的AI内容

国产AI大模型哪家强,九款AI模型大测评来了!

文章概要:

1. 我国生成式人工智能服务模型的注册用户超过6亿,1月份国产大模型数量为80多个,10月份突破200。
2. 介绍了九款具有代表性的国产AI大模型,包括Kimi、智谱清言、通义千问、文一言豆包、天工AI、讯飞星火、秘塔AI、腾讯元宝分析了它们的特点和优劣。
3. 将以上九个模型分为三个梯队:第一梯队是Kimi、智谱清言;第二梯队是通义千问、文心一言、豆包;梯队是秘塔AI、腾讯元宝、工AI、讯飞星火。
阅读原文

【产业要闻】吞吐量最高飙升20倍!豆包大模型团队开源RLHF框架,破解强化学习训练部署难题

文章概要:

1. 字节跳动豆包大模型团队与香港大学联合提出 HybridFlow(开源项目名:veRL),一个灵活且高效的 RL/RLHF 框架。该框架采用混合编程模型,融合单控制器(Single-Controller)的灵活性和多控制器(Multi-Controller)的高效性,可更好实现和执行多种 RL 算法,显著提升训练吞吐量,降低开发和维护。实验结果表明,HybridFlow 在运行各种 RL(HF) 算法时,吞吐量相较 SOTA 基线提升了 1.5-20 倍。
2. HybridFlow 采用混合编程模型,将单控制器的灵活性与多控制器的高效性相结合,解耦了控制流和计算流。基于 Ray 的分布式编程,动态计算图,异构调度能力,通过封装单模型的分布式计算、统一模型间的数据切分,支持异步 RL 控制流,HybridFlow 能够高效地实现和执行各种 RL 算法,复用计算模块和支持不同的模型部署方式,大大提升了系统的灵活性和开发效率。
3. HybridFlow 解耦控制流和计算流,兼顾灵活高效。大模型 RL 本质上是一个二维的 DataFlow 问题:high-level 的控制流(描述 RL 算法的流程)+ low-level 的计算流(描述分布式神经网络计算)。
4. HybridFlow 采用了混合编程模型,控制流由单控制器(Single-Controller)管理,具有全局视图,实现新的控制流简单快捷,计算流由多控制器(Multi-Controller)负责,保证了计算的高效执行,并且可以的控制流中复用。
5. HybridFlow 可以方便地实现各种 RLHF 算法如 PPO [9]、ReMax [10]、Safe-RHF [11]、GRPO [12] 等。用户只需调用模型类的 API 接口,按算法逻辑编写控制流代码无需关心底层的分布式计算和数据传输细节。
6. HybridFlow 设计了 3D-HybridEngine ,提升了训练和生成过程效率。3D-HybridEngine 通过优化并行分组方法,实现了零冗余的模型参数重组,具体包括以下步骤:定义不同的并行组、重组模型参数过程、减少通信开销。
7. HybridFlow 在各种模型规模和 RLHF 算法下,都显著优于其他框架,实现了更高训练吞吐量。无论 PPO 、ReMax 还是 Safe-RLHF 算法,HybridFlow 在所有模型规模下平均训练吞吐量均大幅领先于其他框架,提升幅度在 1.5 倍至 20 倍之间。
8. HybridFlow 的 3D-HybridEngine 的零冗余模型参数重组技术,有效减少了模型参数在两个阶段之间的重分片和通信开销。相比其他框架,过渡时间减少了 55.2% ,在 70B 模型上过渡时间降低了 89.1% 。
. 团队对比了不同的模型部署策略,总结了模型部署和 GPU 分配的三大关键洞察:为 Actor 模型分配更多的 GPU ,可以缩短 critical path ;Colocate 模式在相对小规模集群中能够最大化 GPU 利用率;在大规模集群中将 Actor 和 Critic 模型部署在不同的设备能够提升扩展率。
阅读原文

字节和清华强强联合,成立大模型智能技术联合研究中心,专攻预训练大模型!

文章概要:

1. 10月1日,清华大学智能产业研究院(AIR),跳动可扩展大模型智能技术联合中心 (SIALab)在清华大学成立
2. SIA Lab聚焦预训练大语言模型技术,致力于发展更为通用与可扩展的智能系统,提升智能技术在互联网以及更多场景、更复杂任务中能力
3 此前,报道,字节跳动正在低调筹备成立大模型研究院,并积极吸引人才
4. 清华院长张勤院士科研院院长刘奕群,清华AIR首席科学家马英教授,AIR执行院长刘洋教授,字节跳动豆包大大语言模型团队负责人,SIA Lab主任、清华周浩副教授,字节跳动科研战略与学术合作负责人金小伟,ALab联合主任、字节跳动豆包大模型大语言资深研究员王明轩等嘉宾出席中心成立仪式
5. 近年来人工智能呈爆发式训练大语言模型(Pre-trained Language Model)已经成为迈向通用智能的重要发展之一>6. 全球科技公司与研究机构正在投入大量资源研究预训练大语言模型,字节跳动组建豆包大模型团队,在相关领域持续研究与投入,致力于开发业界先进的 AI 大模型技术,成为世界一流的研究团队。双方联合成立SIA Lab 旨在通过有效的产学研合作,实现大模型底层技术突破与产业应用构建
阅读原文

豆包AI:编程、写作、翻译,全搞定!

文章概要:

1. 豆包AI助手是字节跳动的AI工具,提供聊天机器人、写作助手、英语学习助手等功能,能够回答各种问题并进行对话,帮助人们获取信息,支持网页、客户端、APP、插件等形式。
2. 豆包APP于223年月推出,并在20年5月15日宣布大模型正式开启服务。
3. 豆包的官方网站提供了下载链接,用户可以在苹果APP Store和各大安卓应用豆包APP。
4. 豆包相较于其他AI助手,具有多功能性、强大的、用户体验好、智能体创建、使用等优势。
5. 豆功能特点包括AI问答、内容总结、快速翻译、智能搜索、一键收藏AI伴读、文本到图像、邮件撰写辅助等。
6. 豆包AI助手以其全面的功能性、优秀的体验和免费的优势,在AI助手市场中占据了一席之地。
阅读原文

吞吐量最高飙升20倍!豆包大模型团队开源RLHF框架,破解强化学习训练部署难题

文章概要:

1. 字节跳动豆包大模型团队与香港大学联合提出 HybridFlow,一个灵活且高效的 RL/RLHF 框架,采用混合编程模型,融合单控制器的灵活性和多控制器的高效性,可更好实现和执行多种 RL 算法,显著提升训练吞吐量,降低开发和维护复杂度。
2. HybridFlow 在各种模型规模和 RL 算法下,训练吞吐量相比其他框架提升了 1.5 倍至 20 倍。
3. HybridFlow 采用混合编程模型,将单控制器的灵活性与多控制器的高效性相结合,解耦了控制流和计算流。
4. HybridFlow 可以方便地实现各种 RLHF 算法,如 PPO、ReMax、Safe-RLHF 等
5. HybridFlow 设计了 3DyEngine,提升了训练过程效率。
6. HybridFlow 在各种模型规模和 RLHF 算法下,都显著优于其他框架,实现了更高训练吞吐量。
7. HybridFlow 的 3D-HybridEngine 的零冗余模型参数重组技术,有效减少了模型参数在两个阶段之间的重分片和通信开销。
8. HybridFlow 同样适用于更广泛的 RL 训练场景,团队后续将围绕相关场景进行探索和实验。
阅读原文