DrugFormer: 基于图增强大语言模型的细胞级药物敏感性预测新方法
文章概要:
1. 癌症治疗中的药物耐药性问题一直是困扰医学界的一大难题,RNA测序技术(scRNA-seq)的为研究肿瘤细胞异质性提供,但如何有效利用这些海量数据预测细胞对药物的,是一个巨大的<>2. 来自德克萨斯休斯顿健康科学中心和佛罗里达大学的研究团队提出了一种DrugFormer的创新模型该模型是一种基于图增强大型语言模型的方法,专门用于预测单细胞水平的药物敏感性。
3. DrugFormer模型的核心思想是将基因序列信息基因知识图谱,从而实现更的药物反应预测。
. 研究团队对DrugFormer进行了全面的性能评估结果显示,DrugFormer在所有这些指标上都显著其他方法。6. 为了进一步探究State5耐药状态的机制,研究人员进行了差异基因表达、功能富集分析、拷贝数变异分析和候选耐药基因验证。
7. 为了验证DrugFormer的通用性,研究团队还将其应用于其他几种癌症类型的scRNA-seq数据分析,进一步证实了DrugFormer在不同癌症类型中识别耐药细胞状态的能力,也揭示不同癌症类型可能存在共同耐药机制。
阅读原文
3. DrugFormer模型的核心思想是将基因序列信息基因知识图谱,从而实现更的药物反应预测。
. 研究团队对DrugFormer进行了全面的性能评估结果显示,DrugFormer在所有这些指标上都显著其他方法。
7. 为了验证DrugFormer的通用性,研究团队还将其应用于其他几种癌症类型的scRNA-seq数据分析,进一步证实了DrugFormer在不同癌症类型中识别耐药细胞状态的能力,也揭示不同癌症类型可能存在共同耐药机制。
如何让AI大模型说实话?
文章概要:
1. 大模型在掌握事实性知识上展现出巨大的能力和潜力,但仍存在一些问题,比如缺乏领域知识,缺乏实时知识,可能会产生幻觉等,这极大的限制了大模型的应用和可依靠性。近期已经有一些工作针对大模型的事实性进行了研究,但仍未有文章对大模型事实性的定义、影响、评估、分析和增强进行完整的梳理。
2. 西湖大学联合国内外十家科研单位发表了一篇大模型事实性的综述,该综述调研了三百余篇文献,重点讨论了事实性的定义和影响、大模型事实性的评估、大模型事实性机制和产生错误的原理、大模型事实性的增强等几个方面的内容,对大模型的事实性进行了详细的梳理和总结。
3. 这篇综述的目标是为了帮助学界和业界的研究开发人员更好得理解大模型的事实性,增加模型的知识水平和可靠程度。
阅读原文
2. 西湖大学联合国内外十家科研单位发表了一篇大模型事实性的综述,该综述调研了三百余篇文献,重点讨论了事实性的定义和影响、大模型事实性的评估、大模型事实性机制和产生错误的原理、大模型事实性的增强等几个方面的内容,对大模型的事实性进行了详细的梳理和总结。
3. 这篇综述的目标是为了帮助学界和业界的研究开发人员更好得理解大模型的事实性,增加模型的知识水平和可靠程度。
天池-蚂蚁AFAC大模型挑战赛-冠军方案分享(文末有代码)
文章概要:
1. 文章分享了天池-蚂蚁AFAC大模型挑战赛的冠军方案,包括比赛背景、数据案例解析、评价指标、赛题理解、算法实现等内容。
2 比赛要点包括标准产品名提取、用户意图识别和相关例子召回。
3. 算法实现部分,作者团队使用了GLM-4-9B模型,并采用了Lora微调、多数投票等技巧。
阅读原文
2 比赛要点包括标准产品名提取、用户意图识别和相关例子召回。
3. 算法实现部分,作者团队使用了GLM-4-9B模型,并采用了Lora微调、多数投票等技巧。
一文彻底搞懂大模型 - Hugging Face Transformers
文章概要:
1. Hugging Face Transformers是一个开源的预训练模型库,包含了经过精心设计的先进的Transformer架构,并提供了易于使用的API,使得研究开发者能够轻松地加载、微调和使用这些模型。
2. Hug是一个面向机器学习协作者的社区平台,提供了大量的预训练模型、数据集以及机器学习应用。 3. Transformers核心功能模块:Pipelines、、模型加载和。
阅读原文
2. Hug是一个面向机器学习协作者的社区平台,提供了大量的预训练模型、数据集以及机器学习应用。 3. Transformers核心功能模块:Pipelines、、模型加载和。
中国版Sora哪家强?实测8款视频生成大模型,结果意外
文章概要:
1. 近期,AI大模型制作的视频走红网络,中国多家厂商推出视频大模型产品。
2. 中国版Sora的快速崛起,包括字节、快手、阿里云、昆仑万维、美图在内的互联网厂商,以及Minimax、智谱、爱诗科技与生数科技等大模型初创等厂商都在快速跟进。
3. 南都记者对8家热门视频大模型进行了测评,在文生视频方面发现生成效果参差不齐,而图生视频领域,大部分很大空间。
阅读原文
2. 中国版Sora的快速崛起,包括字节、快手、阿里云、昆仑万维、美图在内的互联网厂商,以及Minimax、智谱、爱诗科技与生数科技等大模型初创等厂商都在快速跟进。
3. 南都记者对8家热门视频大模型进行了测评,在文生视频方面发现生成效果参差不齐,而图生视频领域,大部分很大空间。
如何构建出更好的大模型RAG系统?
文章概要:
1. ChatGPT爆火后,ChatPDF为首的产品组合掀起了知识库问答的热潮,人都在完成RAG系统高级RAG系统的迭代升级。
2. 大模型爆火后的RAG系统发展,大体可以将其分为3个阶段,初级、高级、超级。
3. S1阶段处于23年元旦前后,最先在Github出现了一批尝试去复pdf的项目,他们通过对知识库文档进行定长分块建立索引。
4. S2阶段23年整年的时间,大体上可以分为模型侧和策略侧。
5 S3阶段处于23年底一直到现在,这个阶段AG的概念几乎是2变一次。
阅读原文
2. 大模型爆火后的RAG系统发展,大体可以将其分为3个阶段,初级、高级、超级。
3. S1阶段处于23年元旦前后,最先在Github出现了一批尝试去复pdf的项目,他们通过对知识库文档进行定长分块建立索引。
4. S2阶段23年整年的时间,大体上可以分为模型侧和策略侧。
5 S3阶段处于23年底一直到现在,这个阶段AG的概念几乎是2变一次。
30000亿,地方国资带着“大模型订单”来了
文章概要:
1.模型市场招投标市场非常活跃,持续上涨,比约4占比高达70%左右。 国内头部科技公司纷纷开始加快大模型,第一步,紧随其后在金融、汽车、运营商、政务等率先开始实践。
3. 央国企疯狂采购大模型,未来5年总投资超30000亿,国资委要求央企要担起发展大模型的重任,同时也为各类大模型的落地买单。
4. 从地域分布来看,2024年上半年的大模型技术采购需求主要集中在经济发达地区,如北京、广东、上海、江苏和浙江。
5. 大模型企业“活得久”,地方国资“有钱又出力”,地方国资已经成为支撑国内大模型公司成长的力量。
阅读原文
3. 央国企疯狂采购大模型,未来5年总投资超30000亿,国资委要求央企要担起发展大模型的重任,同时也为各类大模型的落地买单。
4. 从地域分布来看,2024年上半年的大模型技术采购需求主要集中在经济发达地区,如北京、广东、上海、江苏和浙江。
5. 大模型企业“活得久”,地方国资“有钱又出力”,地方国资已经成为支撑国内大模型公司成长的力量。
关于大模型的10个思考
文章概要:
1. 美国国家工程院外籍院士沈向洋做了《通用人工智能时代,我们应该怎样思考大模型》的主题演讲,并给出了他对大模型的1个思考。
2. 算力是门槛:大模型对算力的要求,过去10年非常巨大。今天要做人工智能大模型,讲卡伤感情、没卡没感情。
3. 关于数据的数据:如果有GPT-5出来,可能会上到200量。但互联网上没有那么多好的数据,清洗完以后,可能20T就差不多到顶了,所以未来要做GPT-5,除了现有的数据,还要更多的多模态数据,甚至人工合成的数据。
4. 大模型的下一章:有很多多模态的科研工作要做,我相信一个非常重要的方向是多模态的理解和生成的统一。
5. 人工智能的范式转移:o1出来后,从原来的GPT的预训练思路,变成了今天的自主学习的道路,就是在推理一步强化学习地学习的过程。整个过程非常像人类思考问题、分析问题,也需要非常多的算力才行。
6. 大模型横扫千行百业:在中国的大模型建设浪潮当中,越来越多的是行业大模型。这个趋势肯定是这样的,未来通用大模型的占比会越来越低。
7. AI Agent,从愿景到落地:超级应用一开始就在那里,这个超级应用就是一个超级助理,就是一个超级Agent。
8. 开源vs闭源:我认为Meta的Llama并不是传统的开源,它只是开源了模型,并没有给你原代码和数据,所以我们在用开源系统的时候,也要下定决心真正理解大模型的系统闭源的工作。
9. 重视AI治理:人工智能对千行百业、对整个社会的冲击非常大,要大家共同来面对。
10. 重新思考人机关系:真正把人机交互搞清楚,才能成为每一代高科技企业真正有商业价值的领导者。现在讲OpenAI加上微软就代表这个时代还太早,他们是领先了,但是未来还有很多想象的空间。
11. 智能的本质:虽然大模型已经给大家带来很多的震惊,但是我们对大模型、深度学习是没有理论的。关于的,大家只是讲讲,并没有讲清楚。
阅读原文
2. 算力是门槛:大模型对算力的要求,过去10年非常巨大。今天要做人工智能大模型,讲卡伤感情、没卡没感情。
3. 关于数据的数据:如果有GPT-5出来,可能会上到200量。但互联网上没有那么多好的数据,清洗完以后,可能20T就差不多到顶了,所以未来要做GPT-5,除了现有的数据,还要更多的多模态数据,甚至人工合成的数据。
4. 大模型的下一章:有很多多模态的科研工作要做,我相信一个非常重要的方向是多模态的理解和生成的统一。
5. 人工智能的范式转移:o1出来后,从原来的GPT的预训练思路,变成了今天的自主学习的道路,就是在推理一步强化学习地学习的过程。整个过程非常像人类思考问题、分析问题,也需要非常多的算力才行。
6. 大模型横扫千行百业:在中国的大模型建设浪潮当中,越来越多的是行业大模型。这个趋势肯定是这样的,未来通用大模型的占比会越来越低。
7. AI Agent,从愿景到落地:超级应用一开始就在那里,这个超级应用就是一个超级助理,就是一个超级Agent。
8. 开源vs闭源:我认为Meta的Llama并不是传统的开源,它只是开源了模型,并没有给你原代码和数据,所以我们在用开源系统的时候,也要下定决心真正理解大模型的系统闭源的工作。
9. 重视AI治理:人工智能对千行百业、对整个社会的冲击非常大,要大家共同来面对。
10. 重新思考人机关系:真正把人机交互搞清楚,才能成为每一代高科技企业真正有商业价值的领导者。现在讲OpenAI加上微软就代表这个时代还太早,他们是领先了,但是未来还有很多想象的空间。
11. 智能的本质:虽然大模型已经给大家带来很多的震惊,但是我们对大模型、深度学习是没有理论的。关于的,大家只是讲讲,并没有讲清楚。
救命!大模型微调技术LoRA是个啥?
文章概要:
1. 低秩适应(Low-Rank Adaptation,LoRA)可以被认为是重大突破,它能够有效地训练大型语言模型以执行特定任务。如今,它在许多应用中被广泛使用,并且已经激发了研究如何改进其主要思想以实现更好性能或更快速地训练模型的工作。在本文,我将概述一些 LoRA 的变体,这些变体以不同的方式改进 LoRA 的能力。我将首先解释 LoRA 本身的基本概念,然后介绍 LoRA+、VeRA、LoRA-FA、LoRA-drop、AdaLoRA、DoRA 和 Delta-LoRA。
2. LoRA(低秩适应)提供了一种替代训练方式,由于参数数量大幅减少,因此训练速度更快,更容易进行。
3. LoRA+ 引入了一种更有效的训练 LoRA 适配器的方法,通过为矩阵 A 和 B 引入不同的学习率。
4. VeRA(Vector-based Random Matrix Adaptation)介绍了一种极大减少 LoRA 适配器参数大小的方法。
5. LoRA-FA 代表的是带有 Frozen-A 的 LoRA,它与 VeRA 的方向类似。
6. LoRA-drop 引入了一个算法来决定哪些层值得通过 LoRA 进行增强,以及哪些不值得这样做。
7. AdaLoRA 是自适应 LoRa。
8. DoRA 的起点是每个矩阵都可以分解为幅度和方向的乘积的想法。
9. Delta-LoRA 引入了另一个 LoRA 的想法。Delta-LoRA 的作者提出通过 的梯度来更新矩阵 ,其中 是两个连续时间步骤中 之间的差异。
阅读原文
2. LoRA(低秩适应)提供了一种替代训练方式,由于参数数量大幅减少,因此训练速度更快,更容易进行。
3. LoRA+ 引入了一种更有效的训练 LoRA 适配器的方法,通过为矩阵 A 和 B 引入不同的学习率。
4. VeRA(Vector-based Random Matrix Adaptation)介绍了一种极大减少 LoRA 适配器参数大小的方法。
5. LoRA-FA 代表的是带有 Frozen-A 的 LoRA,它与 VeRA 的方向类似。
6. LoRA-drop 引入了一个算法来决定哪些层值得通过 LoRA 进行增强,以及哪些不值得这样做。
7. AdaLoRA 是自适应 LoRa。
8. DoRA 的起点是每个矩阵都可以分解为幅度和方向的乘积的想法。
9. Delta-LoRA 引入了另一个 LoRA 的想法。Delta-LoRA 的作者提出通过 的梯度来更新矩阵 ,其中 是两个连续时间步骤中 之间的差异。
时事杂谈 | 大模型比作“人类”,如何成为利器
文章概要:
1. 大模型人性化程度超越了任何以往推出市场的 AI 产品,人们倾向于把大模型 AI 视为一个“超人”,但它的“逻辑推理能力”相比人类来说还是很一般。
2. 人类为了数学推理有口算、心算、笔算也会用计算机算,而大模型领域里也接连发明了类似的东西。
3答、互答中问题产生更深刻的理解。
4. 人类会编造故事、会说梦话,大模型也会想当然,会出现幻觉。
5. 人类会隐藏自己的恶意,能下意识地欺骗监管审查,大模型被证明也可以训练成如此。
6. 人类的道德两难会打破“原则”的自洽,大模型也会被道德绑架。
7. 人类说梦话不设防时会说漏记忆中的秘密,大模型也有这样神奇又危险的现象,想让它忘掉都难。
8. 人类的局限性是怎么克服的?人的工作方式、人与人的工作方式、人与工具的工作方式,都可以尝试运用在大模型之上。
9. 人类计算数学题的方法,按能力。>10. 人类有很多快速反应的“语言能力”,比如九九乘法表,在视觉、听觉和语感的联合刺激下,那个强烈相关的、尾随的声音几乎在脑海里应声而出。
11. 人类能够分步思考问题,心算靠的是大脑的短期记忆,笔算靠的是写在 人类遇到一个的问题时,可能不得不思考太多的步骤以至于“想了后面忘了前面”,书写,极大地扩展了记忆容量。
1AI 的叫法是 Function Calling,LangChain 里的叫法是 Tool Calling,但都表示同一个理念。
14. 大模型如同一位,熟悉互联网了解广泛、不知疲倦、但是能力并没有聪明到哪里去的一个普通的人。
15. 当使用大模型遇到了问题,不妨思考它在人的社会中是如何体现的,人又是如何解决的,从而找到大模型专属的解决方案。
阅读原文
2. 人类为了数学推理有口算、心算、笔算也会用计算机算,而大模型领域里也接连发明了类似的东西。
3答、互答中问题产生更深刻的理解。
4. 人类会编造故事、会说梦话,大模型也会想当然,会出现幻觉。
5. 人类会隐藏自己的恶意,能下意识地欺骗监管审查,大模型被证明也可以训练成如此。
6. 人类的道德两难会打破“原则”的自洽,大模型也会被道德绑架。
7. 人类说梦话不设防时会说漏记忆中的秘密,大模型也有这样神奇又危险的现象,想让它忘掉都难。
8. 人类的局限性是怎么克服的?人的工作方式、人与人的工作方式、人与工具的工作方式,都可以尝试运用在大模型之上。
9. 人类计算数学题的方法,按能力。>10. 人类有很多快速反应的“语言能力”,比如九九乘法表,在视觉、听觉和语感的联合刺激下,那个强烈相关的、尾随的声音几乎在脑海里应声而出。
11. 人类能够分步思考问题,心算靠的是大脑的短期记忆,笔算靠的是写在 人类遇到一个的问题时,可能不得不思考太多的步骤以至于“想了后面忘了前面”,书写,极大地扩展了记忆容量。
1AI 的叫法是 Function Calling,LangChain 里的叫法是 Tool Calling,但都表示同一个理念。
14. 大模型如同一位,熟悉互联网了解广泛、不知疲倦、但是能力并没有聪明到哪里去的一个普通的人。
15. 当使用大模型遇到了问题,不妨思考它在人的社会中是如何体现的,人又是如何解决的,从而找到大模型专属的解决方案。
荐读 | 边缘智能的新时代:端侧大模型的研究进展综述
文章概要:
1. 边缘智能的新纪元:大型语言模型(LLMs)引领技术进步,将LLMs部署在端侧设备上的探索应运而生,文章深入探讨在边缘设备上部署LLM的策略和进展。
2. 技术进展:端侧大型语言模型革新新宠,通过量化感知缩放、稀疏更新等创新方法解决内存和计算能力挑战,端侧推理优势明显,衡量端侧LLMs性能的消耗。
3. 架构创新:在智能手机和边缘设备上部署LLMs成为新挑战,提出一系列创新的架构设计原则和方法紧凑的形式等,通过模型压缩与参数共享技术、协作和层次化模型方法、内存和计算效率的优化以及总体效率和性能提升的研究,实现资源的高效利用和性能的最大化。
4. 模型压缩:包括量化枝知识蒸馏和低分解,这些方法通过在、内存占用和推理速度之间找到平衡,确保了LLMs在端侧的可行性。端中扮演重要角色,专用硬件提供计算能力和高内存带宽,软硬件协同设计进一步提升LLMs效率,各种框架提供优化的部署策略,实现从云端到边缘的无缝协作. 实例与应用:端侧模型的实例包括 Nano、Nexa AI Octopus等语言的应用极为广泛包括消息生成、实时语言翻译、会议摘要、医疗咨询、科研支持、机器人、残障以及自动驾驶等。
7 未来:在设备上运行的LLMs正迅速发展,未来的研究监控适应性边缘-云的多,鲁.的LLMs的新篇章,高效AI时代技术的不断成熟,我们期待一个更智能、服务更精准、生活便捷的新世界。
阅读原文
2. 技术进展:端侧大型语言模型革新新宠,通过量化感知缩放、稀疏更新等创新方法解决内存和计算能力挑战,端侧推理优势明显,衡量端侧LLMs性能的消耗。
3. 架构创新:在智能手机和边缘设备上部署LLMs成为新挑战,提出一系列创新的架构设计原则和方法紧凑的形式等,通过模型压缩与参数共享技术、协作和层次化模型方法、内存和计算效率的优化以及总体效率和性能提升的研究,实现资源的高效利用和性能的最大化。
4. 模型压缩:包括量化枝知识蒸馏和低分解,这些方法通过在、内存占用和推理速度之间找到平衡,确保了LLMs在端侧的可行性。端中扮演重要角色,专用硬件提供计算能力和高内存带宽,软硬件协同设计进一步提升LLMs效率,各种框架提供优化的部署策略,实现从云端到边缘的无缝协作. 实例与应用:端侧模型的实例包括 Nano、Nexa AI Octopus等语言的应用极为广泛包括消息生成、实时语言翻译、会议摘要、医疗咨询、科研支持、机器人、残障以及自动驾驶等。
7 未来:在设备上运行的LLMs正迅速发展,未来的研究监控适应性边缘-云的多,鲁.的LLMs的新篇章,高效AI时代技术的不断成熟,我们期待一个更智能、服务更精准、生活便捷的新世界。
季顺平团队NeurIPS2024多模态大模型研究新进展
文章概要:
1. 武汉大学遥感信息工程学院季顺平教授团队联合Skywork AI提出首个统一了“通用分割、提示驱动的分割、指令调整的多模态大OMG-LLaVA。相关论文被Neur2024接收,第一作者是023博士研究生张韬。
2. 人工智能的研究热点逐渐从大模型过渡到更通用模态大模型,虽然多模态大模型具备强大的图像级对话和推理能力尚缺乏像素级的精细理解能力。团队提出OMG-LLaVA,将像素级视觉理解推理能力嵌入多模态模型中,将进一步促进多模态模型在计算机视觉和遥感中的深入应用。< 3. OMG-LLaVA构建简洁的结构实现多任务的统一它接受各种灵活和文本提示。特别地,采用通用分割方法作为编码器,图像信息、感知先验和提示与文本对齐后提供LLM。LLM理解用户指令,输出文本响应像素级分割结果。br> 4. OMG-LLaVA统一了图像级、目标级和像素级等一系列视觉理解和推理任务为实现这种多层次通用能力,定义了三种类型:文本令牌、像素令牌、目标令牌,处理文字、密集图像特征、目标特征。,将各类不同的任务统一建模为令牌到令牌的生成。最终,将解码为特定任务所要求的语言文字、分割掩膜等等。在上大量数据集上的实验证实更加通用的OMG-LLaVA能够匹配甚至超过专门的方法。
阅读原文
2. 人工智能的研究热点逐渐从大模型过渡到更通用模态大模型,虽然多模态大模型具备强大的图像级对话和推理能力尚缺乏像素级的精细理解能力。团队提出OMG-LLaVA,将像素级视觉理解推理能力嵌入多模态模型中,将进一步促进多模态模型在计算机视觉和遥感中的深入应用。< 3. OMG-LLaVA构建简洁的结构实现多任务的统一它接受各种灵活和文本提示。特别地,采用通用分割方法作为编码器,图像信息、感知先验和提示与文本对齐后提供LLM。LLM理解用户指令,输出文本响应像素级分割结果。br> 4. OMG-LLaVA统一了图像级、目标级和像素级等一系列视觉理解和推理任务为实现这种多层次通用能力,定义了三种类型:文本令牌、像素令牌、目标令牌,处理文字、密集图像特征、目标特征。,将各类不同的任务统一建模为令牌到令牌的生成。最终,将解码为特定任务所要求的语言文字、分割掩膜等等。在上大量数据集上的实验证实更加通用的OMG-LLaVA能够匹配甚至超过专门的方法。
大模型训练加速 Trick | 一文彻底了解大模型训练加速的方法以及训练优化策略
文章概要:
1. 本文介绍了大模型训练加速的方法以及训练优化策略,包括数据并行、模型并行、序列并行、异构训练和自动并行化等技术。
2. 文章讨论了这些技术的实现和分析,并通过实验验证了它们的性能。
3. 文章还介绍了Colossal-AI系统的设计和实现,包括其整体架构、并行上下文管理器、用户友好的界面和执行引擎等。
4. 文章最后对Colossal-AI系统的性能进行了评估,并与其他系统进行了比较。
阅读原文
2. 文章讨论了这些技术的实现和分析,并通过实验验证了它们的性能。
3. 文章还介绍了Colossal-AI系统的设计和实现,包括其整体架构、并行上下文管理器、用户友好的界面和执行引擎等。
4. 文章最后对Colossal-AI系统的性能进行了评估,并与其他系统进行了比较。
大模型驱动的产品范式创新研究与思考
文章概要:
1. 作者很高兴全球产品经理大会(PM-Summit)从2009年走到今天已经15年,见证了一大批优秀产品人的成长和改变世界的产品的诞生。从去年开始,互联网产品因为大模型的加速,而进入新一轮的爆发周期。
2. 大模型正在给计算产业的每一层次都带来了范式转换,作者将其归纳为三个层次:计算范式、开发范式、交互范式。
3. 作为产品人,我们都知道每一代交互革命都是计算产业中极具革命性的力量,最核心的它能将计算的潜力释放到更广泛的人类范畴。今年我们在交互范式方面看到了许多创新技术,例如:多模态和Agent。它们都会极大地丰富自然语言交互(LUI)的内涵。
4. 作者提出了"ParaShift Cube"(范式转换立方体)的概念,这是在美团王兴的“四纵三横”产品分析框架基础上的进一步发展。
5. 作者认为大模型在生产力、搜索和信息等领域的颠覆速度很快,但在情商方面仍然很低,不太擅长提供情绪价值的活动。
6. 作者重提了去年在全球产品经理大会上提出的:计算和连接的“钟摆效应”。
7. 作者认为互联网时代的产品逻辑和模式终将在I时代被颠覆。
8. 作者认为大模型在多模态、智能体、和强化学习带来的推理提升三个方向上取得了飞跃式的发展。
9. 作者认为大模型将驱动互联网从“信息网络”在未来演变为“行动网络”。
10. 作者认为未来的产品经理可能需要从面向人类的需求设计产品,转变为面向智能体的需求来设计产品。
阅读原文
2. 大模型正在给计算产业的每一层次都带来了范式转换,作者将其归纳为三个层次:计算范式、开发范式、交互范式。
3. 作为产品人,我们都知道每一代交互革命都是计算产业中极具革命性的力量,最核心的它能将计算的潜力释放到更广泛的人类范畴。今年我们在交互范式方面看到了许多创新技术,例如:多模态和Agent。它们都会极大地丰富自然语言交互(LUI)的内涵。
4. 作者提出了"ParaShift Cube"(范式转换立方体)的概念,这是在美团王兴的“四纵三横”产品分析框架基础上的进一步发展。
5. 作者认为大模型在生产力、搜索和信息等领域的颠覆速度很快,但在情商方面仍然很低,不太擅长提供情绪价值的活动。
6. 作者重提了去年在全球产品经理大会上提出的:计算和连接的“钟摆效应”。
7. 作者认为互联网时代的产品逻辑和模式终将在I时代被颠覆。
8. 作者认为大模型在多模态、智能体、和强化学习带来的推理提升三个方向上取得了飞跃式的发展。
9. 作者认为大模型将驱动互联网从“信息网络”在未来演变为“行动网络”。
10. 作者认为未来的产品经理可能需要从面向人类的需求设计产品,转变为面向智能体的需求来设计产品。
6 个最佳本地运行大模型的工具
文章概要:
1. 运行大型语言模型(LLMs)如 ChatGPT 和 Claude 通常需要将数据发送到由 OpenAI 和其他 AI 模型提供商管理的服务器。尽管这些服务是安全的,但一些企业更喜欢完全离线保存数据以获得更高的隐私保护。本文涵盖了开发者可以使用的前六种工具,用于在本地运行和测试LLMs,确保其数据永远不会离开设备,类似于端到端加密保护隐私的方式。
2. 介绍了使用本地LLMs的原因,包括隐私、自定义选项、支持与安全、订阅和费用、离线支持和连接性。
3. 详细介绍了六种顶级且免费的本地LLM工具,包括 Studio、Jan、Llamafile、GPT4ALL、Ollama 和 LLaMa.cpp,并分别介绍了它们的特点和优势。
4. 讨论了本地运行LLMs的使用案例,包括在远程医疗环境中对患者文件进行分类,以及在无网络或网络接收差的地点查询私有和技术论文。
5. 介绍了评估LLMs性能的方法,包括训练、微调、学术研究和基准测试。
阅读原文
2. 介绍了使用本地LLMs的原因,包括隐私、自定义选项、支持与安全、订阅和费用、离线支持和连接性。
3. 详细介绍了六种顶级且免费的本地LLM工具,包括 Studio、Jan、Llamafile、GPT4ALL、Ollama 和 LLaMa.cpp,并分别介绍了它们的特点和优势。
4. 讨论了本地运行LLMs的使用案例,包括在远程医疗环境中对患者文件进行分类,以及在无网络或网络接收差的地点查询私有和技术论文。
5. 介绍了评估LLMs性能的方法,包括训练、微调、学术研究和基准测试。
智能金融稳步前行:构建负责任的可信大模型
文章概要:
1. 金融智能进入大模型时代:大模型在金融行业的应用正不断拓展,领域大模型分类包括基础大模型、行业大模型和场景模型。
2. 大模型在金融落地场景与解决思路:行业痛点包括算力资源不足、软件设施不完善、可解释性欠缺、输出真实性和可靠性问题、合规要求严格等。金融智能服务可信增强框架包括透明性、公平性、可解释性、可靠性和隐私保护。
3. 可信金融大模型落地应用成果:东方财富妙想大模型针对金融场景进行了突破和优化,在投资顾问和投资研究方向上有典型。
4. 问答环节:最有效的应用还是在投研和投顾这两个方向。
阅读原文
2. 大模型在金融落地场景与解决思路:行业痛点包括算力资源不足、软件设施不完善、可解释性欠缺、输出真实性和可靠性问题、合规要求严格等。金融智能服务可信增强框架包括透明性、公平性、可解释性、可靠性和隐私保护。
3. 可信金融大模型落地应用成果:东方财富妙想大模型针对金融场景进行了突破和优化,在投资顾问和投资研究方向上有典型。
4. 问答环节:最有效的应用还是在投研和投顾这两个方向。
【他山之石】Big Model weekly | 最新大模型论文分享
文章概要:
1. 语言模型正日益在包含自然语言和非语言数据(例如源代码)的语料库上进行训练,本文探讨了预训练混合对多种任务性能影响
2. 语言模型在持续学习中面临着灾难性遗忘这一持久挑战,本研究介绍了“MIGU”,这是一种无需复习和无需任务标签的方法,它只更新Ms线性层中输出较大的模型参数
3. 持续预训练已成为使大型语言模型适应新领域的主导方法,作者提出了三种有效的策略来解决稳定性差距问题
4. 对齐指令遵循模型能更好地满足用户的请求,但在评估这类模型时存在长度偏见,这项工作展示了如何训练可以在推理时通过包含期望长度约束的指令进行控制的模型
5. 本文将记忆建模为一系列复杂因素的效应,通过使用这个分类体系构建预测记忆的模型,展示了其有用性
6. 本文推导出一个简单且可行的算法来选择这样的批次,这显著加速了训练,超越了单独优先级数据点
7. 本提出了上下文抽象学习,这是一种从次优演示和人类反馈中构建多模态经验洞察记忆的方法
阅读原文
2. 语言模型在持续学习中面临着灾难性遗忘这一持久挑战,本研究介绍了“MIGU”,这是一种无需复习和无需任务标签的方法,它只更新Ms线性层中输出较大的模型参数
3. 持续预训练已成为使大型语言模型适应新领域的主导方法,作者提出了三种有效的策略来解决稳定性差距问题
4. 对齐指令遵循模型能更好地满足用户的请求,但在评估这类模型时存在长度偏见,这项工作展示了如何训练可以在推理时通过包含期望长度约束的指令进行控制的模型
5. 本文将记忆建模为一系列复杂因素的效应,通过使用这个分类体系构建预测记忆的模型,展示了其有用性
6. 本文推导出一个简单且可行的算法来选择这样的批次,这显著加速了训练,超越了单独优先级数据点
7. 本提出了上下文抽象学习,这是一种从次优演示和人类反馈中构建多模态经验洞察记忆的方法
[资讯] 智能金融稳步前行:构建负责任的可信大模型
文章概要:
1. 金融智能进入大模型时代:大模型在金融行业的应用正不断拓展,领域大模型分为基础大模型、行业大模型和场景模型,垂直领域的专用大模型很有存在意义。
2. 大模型在金融落地场景与解决思路:金融场景下大模型的应用存在风险,需要构建可信增强框架,在算力、数据、模型及应用层面分别构建不同的能力。
3. 可信金融大模型落地应用成果:东方财富妙想大模型在投资顾问和投资研究方向上有典型应用,通过大模型降低用户阅读金融信息的门槛,提升信息获取效率。
4. 问答环节:金融领域中大模型落地最有效的场景是投研和投顾,模型通过提示语工程、微调等方法实现识别投研报告中的差异化信息。
阅读原文
2. 大模型在金融落地场景与解决思路:金融场景下大模型的应用存在风险,需要构建可信增强框架,在算力、数据、模型及应用层面分别构建不同的能力。
3. 可信金融大模型落地应用成果:东方财富妙想大模型在投资顾问和投资研究方向上有典型应用,通过大模型降低用户阅读金融信息的门槛,提升信息获取效率。
4. 问答环节:金融领域中大模型落地最有效的场景是投研和投顾,模型通过提示语工程、微调等方法实现识别投研报告中的差异化信息。
科大讯飞|通用大模型赋能千行百业
文章概要:
1. 通用大模型将是赋能千行的基础能力和。
2. 科大讯飞成功培育出讯飞星火3.5认知大型模型,其表现已逼近全球顶尖的GPT-,且在语言解析、数学等领域达成超越。
3. 科大讯飞董事长刘庆峰认为,以大模型为先锋的人工智能技术,或将颠覆以人力和时间为核心盈利模式的结构,根本上重构全球产业竞争力。
4 科大讯飞推出的认知大模型——讯飞星火,具备跨领域的知识和语言解析力,能通过自然的形式理解并完成任务。<>5. 科大讯飞携手行业领军企业共同推出了涵盖金融、汽车、电信、工业、住建、物业、科普、科技文献、政务、媒体、文旅、等12个行业的专用大模型。
6. 科大讯飞有信心在算法、数据、应用场景以及算力等方面,构建一个完全自主可控繁荣的人工智能生态。
阅读原文
2. 科大讯飞成功培育出讯飞星火3.5认知大型模型,其表现已逼近全球顶尖的GPT-,且在语言解析、数学等领域达成超越。
3. 科大讯飞董事长刘庆峰认为,以大模型为先锋的人工智能技术,或将颠覆以人力和时间为核心盈利模式的结构,根本上重构全球产业竞争力。
4 科大讯飞推出的认知大模型——讯飞星火,具备跨领域的知识和语言解析力,能通过自然的形式理解并完成任务。<>5. 科大讯飞携手行业领军企业共同推出了涵盖金融、汽车、电信、工业、住建、物业、科普、科技文献、政务、媒体、文旅、等12个行业的专用大模型。
6. 科大讯飞有信心在算法、数据、应用场景以及算力等方面,构建一个完全自主可控繁荣的人工智能生态。
33个AI大模型,你更钟情哪一个?
文章概要:
1. 文章介绍了33个AI大模型,包括秘塔AI、文心一言、通义千问大模型等,涵盖语法检查、文本创作、知识问答、智能客服、多模态交互等功能特长,适用于法律文书、学术论文、广告营销、在线教育、企业办公等领域。
2. 详细介绍了每个模型的发展前景、功能特长、适用领域和适用人群,并提供了官方网址。
阅读原文
2. 详细介绍了每个模型的发展前景、功能特长、适用领域和适用人群,并提供了官方网址。
什么是大模型微调及各种微调技术介绍
文章概要:
1. 大模型微调是让大模型的机械接龙行为符合人类需求和业务,使其具有商业价值的一种方式。
2. 微调方式有全参数微调/全量微调(FFT:Full Fine-Tuning)和参数微调/参数高效微调(PEFT:Parameter-Efficient Fine-Tuning)两种。
3. 全量微调是对大模型预训练阶段的全部参数进行训练,优点是直观、简单,能够充分利用任务数据来优化模型,缺点是训练时间长、计算资源消耗大,并且有可能在微调后出现“知识遗忘”问题。
4. 参数高效微调是在微调过程中保持模型的底层参数不变(参数冻结),只更新模型的顶层或少数几层,以此来适应特定任务。
5. 参数高效微调的方式有很多种,比如网上常用的有七种,分别是LoRA、AdaLoRA、Prefix Tuning、Prompt Tuning、P-Tuning、Adapter Tuning和BitFit。
6. 大模型微调的主要步骤包括数据准备、模型选择、方案制定、超参数配置、参数初始化、执行微调、性能评估、最终测试和部署应用。
阅读原文
2. 微调方式有全参数微调/全量微调(FFT:Full Fine-Tuning)和参数微调/参数高效微调(PEFT:Parameter-Efficient Fine-Tuning)两种。
3. 全量微调是对大模型预训练阶段的全部参数进行训练,优点是直观、简单,能够充分利用任务数据来优化模型,缺点是训练时间长、计算资源消耗大,并且有可能在微调后出现“知识遗忘”问题。
4. 参数高效微调是在微调过程中保持模型的底层参数不变(参数冻结),只更新模型的顶层或少数几层,以此来适应特定任务。
5. 参数高效微调的方式有很多种,比如网上常用的有七种,分别是LoRA、AdaLoRA、Prefix Tuning、Prompt Tuning、P-Tuning、Adapter Tuning和BitFit。
6. 大模型微调的主要步骤包括数据准备、模型选择、方案制定、超参数配置、参数初始化、执行微调、性能评估、最终测试和部署应用。
大模型之家2024年9月热力榜:“快慢”思考引热议,大厂多模态领域齐发力
文章概要:
1. OpenAI在新模型o1-preview发布后,引入模型慢思考”概念,引发全行业深思
2 360两月前提出的CoE(专家协同),实现了“与“思考”的有机结合
3 20年《9月大模型热力》中,百度文心一言重返榜首,众多厂商在多模态领域持续突破
4 百度和支付宝相继推出“文小言”和小宝”一系列以“”字命名产品
5. 9月4日,百度文心一言APP升级“文小言认为是领域中与模型结合最原始和彻底AI应用
6. 919日,阿里巴巴通义万相平台视频功能,27日通义App推出翻译助手、视频通话和旅行智能等功能
7. 9月19日,华为副董事长、轮值徐直军提出智能化时代应具备“六个A”特征
8. 9月24日,火山引擎发布豆包视频生成-PixelDance和Seaweed两款大,面向市场邀测
9.月6日商汤大装置事业群研发总监张行程介绍商汤大模型基于昇腾原生开发实践
10. 商汤科技被认定为6家AI代码生成厂商主流玩家之一,市场竞争表现最强
阅读原文
2 360两月前提出的CoE(专家协同),实现了“与“思考”的有机结合
3 20年《9月大模型热力》中,百度文心一言重返榜首,众多厂商在多模态领域持续突破
4 百度和支付宝相继推出“文小言”和小宝”一系列以“”字命名产品
5. 9月4日,百度文心一言APP升级“文小言认为是领域中与模型结合最原始和彻底AI应用
6. 919日,阿里巴巴通义万相平台视频功能,27日通义App推出翻译助手、视频通话和旅行智能等功能
7. 9月19日,华为副董事长、轮值徐直军提出智能化时代应具备“六个A”特征
8. 9月24日,火山引擎发布豆包视频生成-PixelDance和Seaweed两款大,面向市场邀测
9.月6日商汤大装置事业群研发总监张行程介绍商汤大模型基于昇腾原生开发实践
10. 商汤科技被认定为6家AI代码生成厂商主流玩家之一,市场竞争表现最强
大模型热潮:前所未有的突破,还是被高估的技术?
文章概要:
1. 近几年大模型技术席卷科技界认为是万能钥匙,也有人质疑其是否被过度炒作。
2 人工智能自1950年代提出以来,经历了多次,包括最初的兴奋、基于统计学习的机器学习的高潮和低潮,以及深度神经网络的兴起和现实问题的浮现。
3. ChatGPT等大横空出世了关注,更强大工具和更低成本,但实际问题依然存在
4. 大模型应用需要将技术融入具体,结合领域知识解决实际问题许多公司投入大量资源开发大模型,但缺乏有力例证表明其带来了显著业务增长或效率提升
5. 大模型AI领域注入了新活力,但并非万能工具,要实现技术落地,需要深入了解场景需求、掌握领域知识,并在中创新。
阅读原文
2 人工智能自1950年代提出以来,经历了多次,包括最初的兴奋、基于统计学习的机器学习的高潮和低潮,以及深度神经网络的兴起和现实问题的浮现。
3. ChatGPT等大横空出世了关注,更强大工具和更低成本,但实际问题依然存在
4. 大模型应用需要将技术融入具体,结合领域知识解决实际问题许多公司投入大量资源开发大模型,但缺乏有力例证表明其带来了显著业务增长或效率提升
5. 大模型AI领域注入了新活力,但并非万能工具,要实现技术落地,需要深入了解场景需求、掌握领域知识,并在中创新。
实测国产视频生成大模型 一个人“拍”一部剧?
文章概要:
1. 今年七月,国产视频生成大模型迎来爆发式增长,《IT时报》记者选取Vidu、清影、可灵、即梦四款国产头部视频生成大模型,采用统一的电影写实设定和提示。> 2. 记者从整体情况、场景一(城市多场景)、场景二(人物动作运镜)、)测试,测试结果显示,不同模型在不同方面各有优劣。
3. 记者手记中提到,视频生成效果与想象还有一定差距,生成效果如同“开盲盒”,且生成视频需要花费较长时间。
阅读原文
3. 记者手记中提到,视频生成效果与想象还有一定差距,生成效果如同“开盲盒”,且生成视频需要花费较长时间。
大模型+小模型,成AI未来应用的新趋势?
文章概要:
1. 大模型在语音识别、自然语言、图像识别等多个领域取得显著成果,但面临成本高昂、数据微调需求大、可解释性和隐私保护问题等挑战
2.模型在特定场景下具有较低的计算复杂度和资源消耗解释性较强,但存在处理复杂或大规模数据集能力有限化能力不如大模型等局限
. 大模型与小模型的结合已经成为新趋势应用于自动驾驶、智能客服等领域,最终目标是实现应用,为人类社会便利
阅读原文
2.模型在特定场景下具有较低的计算复杂度和资源消耗解释性较强,但存在处理复杂或大规模数据集能力有限化能力不如大模型等局限
. 大模型与小模型的结合已经成为新趋势应用于自动驾驶、智能客服等领域,最终目标是实现应用,为人类社会便利
一文读懂什么是AI大模型
文章概要:
1. 云计算“春晚”云栖大会上,阿里云推出全球最强开源大模型Qwen2.5-72B。自2023年4月以来短短一年半时间,通义千问Qwen已长成仅次于Llama的世界级模型群。
2. AI大模型是指具有大量参数和复杂结构的人工智能模型,通常用于处理和生成自然语言、图像、音频等多种类型的数据。这些模型通过深度学习技术进行训练,能够理解和生成与人类语言相似的文本,进行图像,甚至进行语音合成等。
3. 算法是一个系统化的、明确的步骤或规则,用于解决特定问题或完成特定任务的过程。它可以被视为一种解决问题的方法论,通常涉及输入、处理和输出三个主要部分。
4. 算法在AI大模型中的作用主要体现在学习能力、模型架构、推理能力、优化与调优、评估与验证等方面。
5. AI大模型通常由多个层次组成,如层、隐藏层和输出层。每一层的设计和连接方式决定了模型的能力和复杂性。
6. 数据是模型训练和应用的基础,而模型则是对数据进行处理和分析的工具。数据驱动、数据预处理、模型训练、模型评估、数据更新与迭代、伦理与隐私等方面都与数据密切相关。
7. 国外主流AI大模型有GPT系列、BERT、T5、Turing-NLG、DALL-E、CLIP、Stable Diffusion等;国内主流AI大模型有ERNIE、Pangu-Alpha、M6、GLM、ChatGLM、MindSpore等。
阅读原文
2. AI大模型是指具有大量参数和复杂结构的人工智能模型,通常用于处理和生成自然语言、图像、音频等多种类型的数据。这些模型通过深度学习技术进行训练,能够理解和生成与人类语言相似的文本,进行图像,甚至进行语音合成等。
3. 算法是一个系统化的、明确的步骤或规则,用于解决特定问题或完成特定任务的过程。它可以被视为一种解决问题的方法论,通常涉及输入、处理和输出三个主要部分。
4. 算法在AI大模型中的作用主要体现在学习能力、模型架构、推理能力、优化与调优、评估与验证等方面。
5. AI大模型通常由多个层次组成,如层、隐藏层和输出层。每一层的设计和连接方式决定了模型的能力和复杂性。
6. 数据是模型训练和应用的基础,而模型则是对数据进行处理和分析的工具。数据驱动、数据预处理、模型训练、模型评估、数据更新与迭代、伦理与隐私等方面都与数据密切相关。
7. 国外主流AI大模型有GPT系列、BERT、T5、Turing-NLG、DALL-E、CLIP、Stable Diffusion等;国内主流AI大模型有ERNIE、Pangu-Alpha、M6、GLM、ChatGLM、MindSpore等。
微调大模型,AMD MI300X就够了!跟着这篇博客微调Llama 3.1 405B,效果媲美H100
文章概要:
1. 随着 AI 模型参数量的增加,对算力的需求也在增加,Felafax 致力于简化 AI 训练集群的搭建流程。
2. JAX 是一个强大的机器学习库,结合了类似 NumPy 的 API、自动微分功能以及 Google 的 XLA 编译器。
3. JAX 在使用 AMD 硬件时具有多硬件并行支持、独立于底层硬件、极高的适应性等优势。
4. Felafax 的联合创始人 Nikhil Sonti 发布了一篇博客,详细分享了如何通过 8 张 AMD MI300X GPU 和 JAX 微调 LLaMA 3.1 405B 模型的方法,所有代码现已开源。
5. 使用 JAX 可以成功地训练 LLa 405B 模型,我们使用 LoRA 微调,将所有模型权重和 LoRA 参数都设为 bfloat16,LoRA rank 设为 8,LoRA alpha 设为 16。
6. Nikhil Sonti 分享过如何将 LLaMA 3.1 从 PyTorch 移植到 JAX,他指出,目前 90%的大型语言模型(LLM)都运行在 NVIDIA GPU 上,但实际上还有一些同样强大且性价比更高的替代方案。
7. 在 JAX 中进行参数分片,需要使用 JAX 的设备网格(device mesh)功能。
8. 加载模型时,使用以下分片函数逐步对模型权重进行分片。
9. 分片训练 Batch,最初,训练 Batch 是正常创建的,但在输入模型之前,需要按照下面的代码在 GPU 上进行br>10. LoRA 通过将权重更新分解为低秩矩阵,减少了可训练参数的数量,这对于微调大型模型特别有效。
11. 在此设定一个自定义的 LoRADense 层,该层集成了 LoRA 参数。
12. 为了高效地在设备之间分配 LoRA 参数,我们也通过 JAX 设定了分片规则,这确保了 LoRA 参数与主模型参数的分片一致,优化了内存使用和计算效率。
13. 为了优化训练,在微调 LLaMA 405B 模型,只计算 LoRA 参数的梯度,保持主模型参数不变。
阅读原文
2. JAX 是一个强大的机器学习库,结合了类似 NumPy 的 API、自动微分功能以及 Google 的 XLA 编译器。
3. JAX 在使用 AMD 硬件时具有多硬件并行支持、独立于底层硬件、极高的适应性等优势。
4. Felafax 的联合创始人 Nikhil Sonti 发布了一篇博客,详细分享了如何通过 8 张 AMD MI300X GPU 和 JAX 微调 LLaMA 3.1 405B 模型的方法,所有代码现已开源。
5. 使用 JAX 可以成功地训练 LLa 405B 模型,我们使用 LoRA 微调,将所有模型权重和 LoRA 参数都设为 bfloat16,LoRA rank 设为 8,LoRA alpha 设为 16。
6. Nikhil Sonti 分享过如何将 LLaMA 3.1 从 PyTorch 移植到 JAX,他指出,目前 90%的大型语言模型(LLM)都运行在 NVIDIA GPU 上,但实际上还有一些同样强大且性价比更高的替代方案。
7. 在 JAX 中进行参数分片,需要使用 JAX 的设备网格(device mesh)功能。
8. 加载模型时,使用以下分片函数逐步对模型权重进行分片。
9. 分片训练 Batch,最初,训练 Batch 是正常创建的,但在输入模型之前,需要按照下面的代码在 GPU 上进行br>10. LoRA 通过将权重更新分解为低秩矩阵,减少了可训练参数的数量,这对于微调大型模型特别有效。
11. 在此设定一个自定义的 LoRADense 层,该层集成了 LoRA 参数。
12. 为了高效地在设备之间分配 LoRA 参数,我们也通过 JAX 设定了分片规则,这确保了 LoRA 参数与主模型参数的分片一致,优化了内存使用和计算效率。
13. 为了优化训练,在微调 LLaMA 405B 模型,只计算 LoRA 参数的梯度,保持主模型参数不变。
AIGC编校准确率测评:基于36余款国产大模型和ChatGPT | 他山之石
文章概要:
1. 本文对150余款国产大型模型以及ChatGPT(包括GPT-3.5和GPT-4)的信息进行了详细梳理,其中具备文字编校功能的大模型共有58款,选取了36款用于文字编校能力测试。
2. 测试结论表明日日新以67.00%的编校准确率位列榜首,现有大模型在处理高度专业化、复杂且严谨的内容时存在局限性,部分模型单项差错编校能力表现亮眼,大模型在查找更正复杂差错中的表现不佳。
3. 现有大模型在文字编校测试中存在指令依赖与指令幻觉、输入与输出存在限制、输出结果的稳定性不佳、低密度错误的漏检与误判等不足。
4. 国产大模型在文字编校测试中的相对优势包括对中文词义具有更高敏感性、更顺畅的交互体验、更低廉的使用成本。
5. 文字编校工作中应用大模型的策略包括选择合适的模型进行辅助、建立知识库与个性化的模型编校方式、使用角色设定和对话输入的COT询问方法、提升编辑人员的信息素养和专业技能。br>6 大模型有望可以作为重要辅助工具参与到文字编校工作中,国产大模型在编校中具有潜在的应用价值且较之国外大模型发展生态更好。
阅读原文
2. 测试结论表明日日新以67.00%的编校准确率位列榜首,现有大模型在处理高度专业化、复杂且严谨的内容时存在局限性,部分模型单项差错编校能力表现亮眼,大模型在查找更正复杂差错中的表现不佳。
3. 现有大模型在文字编校测试中存在指令依赖与指令幻觉、输入与输出存在限制、输出结果的稳定性不佳、低密度错误的漏检与误判等不足。
4. 国产大模型在文字编校测试中的相对优势包括对中文词义具有更高敏感性、更顺畅的交互体验、更低廉的使用成本。
5. 文字编校工作中应用大模型的策略包括选择合适的模型进行辅助、建立知识库与个性化的模型编校方式、使用角色设定和对话输入的COT询问方法、提升编辑人员的信息素养和专业技能。br>6 大模型有望可以作为重要辅助工具参与到文字编校工作中,国产大模型在编校中具有潜在的应用价值且较之国外大模型发展生态更好。
AIGC编校准确率测评:基于36余款国产大模型和ChatGPT | 他山之石
文章概要:
1. 文章对150余款国产大型模型以及GPT的信息进行了梳理,统计出具备文字编校功能的大模型共有58款,其中36款用于文字编校能力测试。
2. 测试结论包括不同模型的总体编校表现、大模型在不同错误类型文本差错中的编校整体表现、部分模型单项差错编校能力表现亮眼、大模型在查找更正复杂差错中的表现。
3. 现有大规模在文字编校测试中存在不足,包括指令依赖与指令幻觉、输入与输出存在限制、输出结果的稳定性不佳、低密度错误的漏检与误判。
4. 国产大模型在文字编校测试中的相对优势包括对中文词义具有更高敏感性、更顺畅的交互体验、更低廉的使用成本。
5. 文字编校工作中应用大模型的策略包括选择合适的模型进行辅助、建立知识库与个性化的模型编校方式、使用角色设定和对话输入的COT询问方法、提升编辑人员的信息素养和专业技能。
6. 大模型有望作为重要辅助工具参与到文字编校工作中,国产大模型在编校中具有潜在的应用价值且较之国外大模型发展生态更好。
阅读原文
2. 测试结论包括不同模型的总体编校表现、大模型在不同错误类型文本差错中的编校整体表现、部分模型单项差错编校能力表现亮眼、大模型在查找更正复杂差错中的表现。
3. 现有大规模在文字编校测试中存在不足,包括指令依赖与指令幻觉、输入与输出存在限制、输出结果的稳定性不佳、低密度错误的漏检与误判。
4. 国产大模型在文字编校测试中的相对优势包括对中文词义具有更高敏感性、更顺畅的交互体验、更低廉的使用成本。
5. 文字编校工作中应用大模型的策略包括选择合适的模型进行辅助、建立知识库与个性化的模型编校方式、使用角色设定和对话输入的COT询问方法、提升编辑人员的信息素养和专业技能。
6. 大模型有望作为重要辅助工具参与到文字编校工作中,国产大模型在编校中具有潜在的应用价值且较之国外大模型发展生态更好。
文章推荐 | 军事大模型发展现状与算力基础设施需求分析
文章概要:
1. 大模型概念及其军事应用:大模型是指具有数千万甚至百万亿个参数的深度学习或机器学习模型。大模型的军事应用范围包括信息收集与情报分析、武器系统开发、军事训练与作战仿真、医疗诊断与治疗、认知渗透攻击与网络安全防御、任务规划与供应链管理。
2. 主流军事大模型产品分析:Palantir公司的人工智能平台、Scale AI公司的Donovan系统、渊亭科技公司的天机军事大模型。
3. 算力基础设施的形态和需求分析:提高大模型性能最直接的方法,就是加大模型的参数规模,并投入更多的数据和计算资源,以此来实现从数量的积累到质量的飞跃,满足包括军事在内的各种应用场景的需求。
4. 军事大模型发展建议:开展军事人工智能大模型研究、加强算力基础设施建设。
阅读原文
2. 主流军事大模型产品分析:Palantir公司的人工智能平台、Scale AI公司的Donovan系统、渊亭科技公司的天机军事大模型。
3. 算力基础设施的形态和需求分析:提高大模型性能最直接的方法,就是加大模型的参数规模,并投入更多的数据和计算资源,以此来实现从数量的积累到质量的飞跃,满足包括军事在内的各种应用场景的需求。
4. 军事大模型发展建议:开展军事人工智能大模型研究、加强算力基础设施建设。
聊一聊大模型六小虎生存现状!
文章概要:
1. ChatGPT的出现引发了生成式AI创业热潮,国内智谱AI、百川智能、零一万物、之暗面、Minimax率先领跑,今年6月,阶跃星辰也加入其中,形成了大模型创企的“六小虎”格局。
2. 从新年伊始,AI应用层的井喷被预告为今年AI领域的最强看点,3月份,Kimi200万字长文本横空出世,率先出圈,此后大模型厂商开启了激烈的用户争夺战,用铺天盖地的投放轰炸目标用户的心智,越来越多的人开始了解AI工具,使用AI工具。
3. 今年的融资情况也异常顺利,纵观大模型“六小虎”,每位玩家都在今年取得了亿元以上的融资进展。
4. 然而,我们也无法忽视大模型能力的增长正陷入普遍的停滞,距离OpenAI发布GPT-4已经足足过去了一年又六个月,新一代模型的发布就像“狼来了”的故事,AI社区普遍对奥特曼的谜语和炒作开始感到疲倦。
5. 而作为AI创业的领头羊,OpenAI的商业化探索都依然迷茫,在ChatGPT增长呈现饱和后,OpenAI开始通过一系列开发工具的发布向B端发力,但收收支来看,仍然需要大笔的融资入账才能“续命”。
6. 观之国内,大模型厂商们是否遇到了同样的困境?2024年已经过半,“六小虎”们过得还好吗?
阅读原文
2. 从新年伊始,AI应用层的井喷被预告为今年AI领域的最强看点,3月份,Kimi200万字长文本横空出世,率先出圈,此后大模型厂商开启了激烈的用户争夺战,用铺天盖地的投放轰炸目标用户的心智,越来越多的人开始了解AI工具,使用AI工具。
3. 今年的融资情况也异常顺利,纵观大模型“六小虎”,每位玩家都在今年取得了亿元以上的融资进展。
4. 然而,我们也无法忽视大模型能力的增长正陷入普遍的停滞,距离OpenAI发布GPT-4已经足足过去了一年又六个月,新一代模型的发布就像“狼来了”的故事,AI社区普遍对奥特曼的谜语和炒作开始感到疲倦。
5. 而作为AI创业的领头羊,OpenAI的商业化探索都依然迷茫,在ChatGPT增长呈现饱和后,OpenAI开始通过一系列开发工具的发布向B端发力,但收收支来看,仍然需要大笔的融资入账才能“续命”。
6. 观之国内,大模型厂商们是否遇到了同样的困境?2024年已经过半,“六小虎”们过得还好吗?
聊一聊大模型六小虎生存现状!
文章概要:
1. ChatGPT 打响了生成式 AI 创业热潮的发令枪,在国内,智谱 AI、百川智能、零一万物、月之暗面、Minimax 率先领跑,今年 6 月,阶跃星辰也加入了第一梯队,自此,大模型创企的“六小虎”的格局形成。
2. 从新年伊始,AI 应用层的井喷被预告为今年 AI 领域的最强看点,3 月份,Kimi200 万字横空出世,率先出圈,此后大模型厂商开启了激烈的用户争夺战,用铺天盖地的投放轰炸目标用户的心智,越来越多的人开始了解 AI 工具,使用 AI 工具。
3. 然而,我们也无法忽视大模型能力的增长正陷入普遍的停滞,今天,距离 OpenAI GPT-4 已经足足过去了一年又六个月,新一代模型的发布就像“狼来了”的故事,AI 社区普遍对奥特曼的谜语和炒作开始感到疲倦。
4. 模型能力增长放缓,各家如何开卷产品差异化?很多人期待 GPT-5 的发布能使模型能力再跃上一个台阶,从目前的确切消息来看,OpenAI 即将在秋季发布模型“草莓”,爆料称该模型特别擅长解决复杂的数学问题和编程问题,其生成的合成数据,正用于训练传说中的“下一代模型”猎户座。
5. 领跑者都在放慢脚步,模型能力的增长乏力有目共睹,追随者正渐渐跟上来,差距不断缩小,放眼大模型“六小虎”,今年年中推出的新模型们纷纷“追平”了 GPT-4。
6. 模型能力卷不动的大前提下,怎么用 AI 能力、给谁用 AI 能力变成了极为重要的商业抉择,杨植麟和他的月之暗面坚定的选择了 To C 这条路,3 月份 Kimi 打出的“长文本”功能带来了极大的关注,此后月活量在一众国产 chatbot 中居高不下,此后又率先推出了浏览器插件进一步争夺流量入口。
7. 同样注重 To C 的还有零一万物,创始人李开复不看好 AI 产品在 B 端的市场推广,提出“零一万物要坚决地做 to C,坚决不做赔钱的 to B”。
8. 相对的,智谱 AI 和百川智能把更多的精力投入到 To B 赛道,智谱看好 B 端用户的付费意愿,也认为公司的基因适合做 To B, CEO 张鹏曾坦言:“我们推 C 端产品的目的是为了向 B 端用户展示能力”。
9. 大模型厂商想卷出产品上的差异化,却卷得不够明白,加之 AI 应用大众层面的渗透率还不够高,谁能抢先触达到用户就变成了模型间竞争的一个关键,大模型厂商在线上线下纷纷铺开营销,其争夺用户和流量的强度有着愈演愈烈的趋势——烧钱,烧更多的钱。
10. 烧钱的游戏还在持续,但资本只垂青强者,今年“六小虎”的融资情况还算乐观,场上的所有玩家都拿到了亿元以上的融资。
11. 从人事变动看增长停滞:裁员、出走与内斗大戏,最近,小红书上的 AI 博主@橘子汽水铺爆料称,“大模型六小虎的情况,略显悲观”。
12. AGI 的等待:冲刺上市,旷日持久,大模型“六小虎”的路绝不是一帆风顺,依照朱啸虎的看法,这或许是一家独立大模型的最好结局。
13. 不过,答案没有那么绝对,根据外媒 The Information 推测,IPO 或将成为 OpenAI 的出路,上市可以为 OpenAI 提供大量的、源源不断的资金支持,提高品牌知名度。
阅读原文
2. 从新年伊始,AI 应用层的井喷被预告为今年 AI 领域的最强看点,3 月份,Kimi200 万字横空出世,率先出圈,此后大模型厂商开启了激烈的用户争夺战,用铺天盖地的投放轰炸目标用户的心智,越来越多的人开始了解 AI 工具,使用 AI 工具。
3. 然而,我们也无法忽视大模型能力的增长正陷入普遍的停滞,今天,距离 OpenAI GPT-4 已经足足过去了一年又六个月,新一代模型的发布就像“狼来了”的故事,AI 社区普遍对奥特曼的谜语和炒作开始感到疲倦。
4. 模型能力增长放缓,各家如何开卷产品差异化?很多人期待 GPT-5 的发布能使模型能力再跃上一个台阶,从目前的确切消息来看,OpenAI 即将在秋季发布模型“草莓”,爆料称该模型特别擅长解决复杂的数学问题和编程问题,其生成的合成数据,正用于训练传说中的“下一代模型”猎户座。
5. 领跑者都在放慢脚步,模型能力的增长乏力有目共睹,追随者正渐渐跟上来,差距不断缩小,放眼大模型“六小虎”,今年年中推出的新模型们纷纷“追平”了 GPT-4。
6. 模型能力卷不动的大前提下,怎么用 AI 能力、给谁用 AI 能力变成了极为重要的商业抉择,杨植麟和他的月之暗面坚定的选择了 To C 这条路,3 月份 Kimi 打出的“长文本”功能带来了极大的关注,此后月活量在一众国产 chatbot 中居高不下,此后又率先推出了浏览器插件进一步争夺流量入口。
7. 同样注重 To C 的还有零一万物,创始人李开复不看好 AI 产品在 B 端的市场推广,提出“零一万物要坚决地做 to C,坚决不做赔钱的 to B”。
8. 相对的,智谱 AI 和百川智能把更多的精力投入到 To B 赛道,智谱看好 B 端用户的付费意愿,也认为公司的基因适合做 To B, CEO 张鹏曾坦言:“我们推 C 端产品的目的是为了向 B 端用户展示能力”。
9. 大模型厂商想卷出产品上的差异化,却卷得不够明白,加之 AI 应用大众层面的渗透率还不够高,谁能抢先触达到用户就变成了模型间竞争的一个关键,大模型厂商在线上线下纷纷铺开营销,其争夺用户和流量的强度有着愈演愈烈的趋势——烧钱,烧更多的钱。
10. 烧钱的游戏还在持续,但资本只垂青强者,今年“六小虎”的融资情况还算乐观,场上的所有玩家都拿到了亿元以上的融资。
11. 从人事变动看增长停滞:裁员、出走与内斗大戏,最近,小红书上的 AI 博主@橘子汽水铺爆料称,“大模型六小虎的情况,略显悲观”。
12. AGI 的等待:冲刺上市,旷日持久,大模型“六小虎”的路绝不是一帆风顺,依照朱啸虎的看法,这或许是一家独立大模型的最好结局。
13. 不过,答案没有那么绝对,根据外媒 The Information 推测,IPO 或将成为 OpenAI 的出路,上市可以为 OpenAI 提供大量的、源源不断的资金支持,提高品牌知名度。
大模型在运维方面的运用与总结
文章概要:
1. 大模型在运维方面的运用与总结
2. 大模型在运维自动化、系统管理等方面的应用已经逐渐扩展到多个领域,主要集中在自动化脚本生成与、日志分析与问题排查、故障诊断与处理建议、知识管理与培训、监控与报警处理、安全与合规性管理、智能聊天与帮助台> 3. 大模型在运维领域的运用极大地提高了运维工作的自动化水平、效率和智能化程度,帮助运维团队节省了大量时间和精力,同时降低了人为错误的风险。随着大模型技术的不断成熟,其在智能监控、自动化运维、安全等方面的应用进一步扩展。
阅读原文
2. 大模型在运维自动化、系统管理等方面的应用已经逐渐扩展到多个领域,主要集中在自动化脚本生成与、日志分析与问题排查、故障诊断与处理建议、知识管理与培训、监控与报警处理、安全与合规性管理、智能聊天与帮助台> 3. 大模型在运维领域的运用极大地提高了运维工作的自动化水平、效率和智能化程度,帮助运维团队节省了大量时间和精力,同时降低了人为错误的风险。随着大模型技术的不断成熟,其在智能监控、自动化运维、安全等方面的应用进一步扩展。
大模型与图机器学习协同的用户行为风控
文章概要:
1. 背景介绍:图机器学习技术在风控领域具有天然优势,但也面临技术挑战,如类别不平衡、攻击频发和分布漂移等问题。
2. LOGIN方法介绍:为了实现大模型作为顾问的新范式,提出了一个名为LOGIN的方法,该方法分为四大部分,包括不确定点选择、自动提示工程、大模型和大模型回复利用。
3. 实验效果:使用同配图和异配图benchmark数据集进行实验,结果表明,LOGIN方法在提升GNN性能方面具有潜力,能够稳定超越先前的两种范式。
4. 总结与展望:提出了大模型作为顾问的范式,并在同配图和异配图benchmark上实验验证其有效性。未来,希望将这套方法应用于用户交互行为,实现人机融合支持金融风控的实际应用。
阅读原文
2. LOGIN方法介绍:为了实现大模型作为顾问的新范式,提出了一个名为LOGIN的方法,该方法分为四大部分,包括不确定点选择、自动提示工程、大模型和大模型回复利用。
3. 实验效果:使用同配图和异配图benchmark数据集进行实验,结果表明,LOGIN方法在提升GNN性能方面具有潜力,能够稳定超越先前的两种范式。
4. 总结与展望:提出了大模型作为顾问的范式,并在同配图和异配图benchmark上实验验证其有效性。未来,希望将这套方法应用于用户交互行为,实现人机融合支持金融风控的实际应用。
大模型与图机器学习协同的用户行为风控
文章概要:
1. 背景介绍:图机器学习技术在风控领域具有天然优势,但也面临技术挑战,需要探索方法来增强GNN的泛化能力并提高改进效率。
2. LOGIN方法介绍:提出了一个名为LOGIN的方法,分为不确定点选择、自动提示工程、大模型咨询、大模型回复利用四部分。
3. 实验效果:在同配图和异配图benchmark数据集上进行实验,验证了LOGIN方法的有效性。
4. 总结与展望:提出了大模型作为顾问的范式,希望将这套方法应用于用户交互行为,实现人机融合支持金融风控的实际应用。
阅读原文
2. LOGIN方法介绍:提出了一个名为LOGIN的方法,分为不确定点选择、自动提示工程、大模型咨询、大模型回复利用四部分。
3. 实验效果:在同配图和异配图benchmark数据集上进行实验,验证了LOGIN方法的有效性。
4. 总结与展望:提出了大模型作为顾问的范式,希望将这套方法应用于用户交互行为,实现人机融合支持金融风控的实际应用。
LLM+Data:面向大模型的数据开发新范式!
文章概要:
1. 数据开发是发掘提炼数据价值的一系列工作,自《“数据要素×”三年行动计划》印发以来,各方纷纷开始积极探索数据开发利用的、新场景、新模式,通过对数据要素的价值挖掘促进新质生产力的发展。
2. 以大模型为代表的人工智能为数据开发工作注入了新的驱动力,各方纷纷开始探索如何通过大模型辅助数据开发人员完成部分工作,在提升数据开发工作的同时降低数据开发的门槛。
3. 本次沙龙邀请了数据开发领域的企业和专家,介绍和分享大模型技术为数据平台建设、数据开发管理、数据开发运营一体化等所带来的新变革希望能够为各方开展大模型数据开发领域的落地提供。
阅读原文
2. 以大模型为代表的人工智能为数据开发工作注入了新的驱动力,各方纷纷开始探索如何通过大模型辅助数据开发人员完成部分工作,在提升数据开发工作的同时降低数据开发的门槛。
3. 本次沙龙邀请了数据开发领域的企业和专家,介绍和分享大模型技术为数据平台建设、数据开发管理、数据开发运营一体化等所带来的新变革希望能够为各方开展大模型数据开发领域的落地提供。
大模型落地应用:难点与破局
文章概要:
1. 大模型落地应用面临挑战,成为业内外探讨焦点
2. AI为科研带来重构生产力和生产关系的关键时期
3. 大模型在下游工业的科研大模型落地中,仍面临一系列相关场景挑战
4. AI大模型正逐渐渗透到制造业各环节,成为制造业通往智能化、柔性化和自动化的核心技术之一
5. 大模型在制造业企业落地应用,需要算法工程师、数据工程师以及企业一线管理者等多方共同努力
6. 大模型进入端侧已然呈现加速态势,前景无限,挑战并存
7. 大模型真正的价值在于解决实际问题,要为用户创造实实在在的价值
阅读原文
2. AI为科研带来重构生产力和生产关系的关键时期
3. 大模型在下游工业的科研大模型落地中,仍面临一系列相关场景挑战
4. AI大模型正逐渐渗透到制造业各环节,成为制造业通往智能化、柔性化和自动化的核心技术之一
5. 大模型在制造业企业落地应用,需要算法工程师、数据工程师以及企业一线管理者等多方共同努力
6. 大模型进入端侧已然呈现加速态势,前景无限,挑战并存
7. 大模型真正的价值在于解决实际问题,要为用户创造实实在在的价值
基于大模型的生成式推荐在京东健康电商标品推荐中的应用
文章概要:
1. 大模型推荐技术发展回顾:介绍了大模型推荐技术的三种思路,包括传统CTR模型不断做大、利用大语言模型在现有推荐各阶段进行增强,生成式大模型端到端解决推荐。
2. 健康电商推荐背景与挑战:健康产品具有刚需和知识驱动特性,标品在SKU层面的差异性较小,消费者选择时的个性化需求并不显著。
3. 大模型推荐在电商场的落地实践:包括LLM4CB解决稀疏行为用户召回、DeepI2I扩展I2I模型、大模型CTR践行Scaling Law等。
阅读原文
2. 健康电商推荐背景与挑战:健康产品具有刚需和知识驱动特性,标品在SKU层面的差异性较小,消费者选择时的个性化需求并不显著。
3. 大模型推荐在电商场的落地实践:包括LLM4CB解决稀疏行为用户召回、DeepI2I扩展I2I模型、大模型CTR践行Scaling Law等。
大模型行业专题研究报告
文章概要:
1. 人工智能大模型行业概述:人工智能大模型行业正在经历一场深刻的变革,这一变革主要体现在大模型技术的发展和应用上。大模型时代的到来,标志着人工智能从弱人工智能向通用人工智能(AGI)的跃升。
2. 市场趋势与预测:全球AI大模型市场在未来几年内将经历显著增长,中国大模型市场规模将达到1179亿元,显示出强劲的增长势头。
3. 技术发展与创新:大模型技术在多个领域得到应用,2024年行业大模型的应用主要集中在探索孵化期与试验加速期,部分行业已步入采纳成长期
4. 政策环境与支持:中国政府通过一系列政策推动人工智能技术与产业的稳步发展,包括《“十三五”国家科技创新规划》、《中国制造2025》以及《新一代人工智能发展规划》等重大政策。
5. 竞争格局与企业动态:在人工智能大模型行业中,竞争格局呈现出高度复杂且动态变化的特点。从竞争主体来看,行业内主要的竞争者包括商汤、百度、阿里巴巴、华为和腾讯等大型科技公司。
6. 人工智能大模型产业链与供应链管理:人工智能大模型在产业链和供应链管理中扮演着重要角色。从产业链的角度来看,大模型通过与上游硬件和软件供应商合作,提升了大模型的适配性和性能,同时通过与下游生态系统的合作,拓展了其在C端和B/G端的应用场景。
7. 案例研究:在人工智能大模型行业中,案例研究展示了这些技术如何在不同行业中实现应用和提升效率。例如,在金融行业,腾讯开发的金融大模型通过整合内部金融知识库,在股票投资服务场景中显著提高了生成高质量稿件的效率,帮助股民更好地理解个股涨跌原因并辅助决策,效率提升了5倍以上。
8. 经济贡献与社会影响:人工智能大模型行业在经济贡献和社会影响方面表现显著。从经济贡献角度来看,人工智能大模型已经成为推动经济高质量发展的关键引擎。
9. SWOT分析:优势(Strengths)人工智能大模型行业在技术领先与创新方面具有显著优势。弱点(Weaknesses)尽管人工智能大模型行业在技术和数据资源方面具有优势,但也存在一些弱点。机会(Opportunities)人工智能大模型行业面临着广阔的发展机会。威胁(Threats)人工智能大模型行业也面临一些外部威胁。
10. 风险与对策:人工智能大模型行业面临多方面的风险,包括技术风险、产业风险和社会内容类风险。针对这些风险,行业需要采取一系列对策。
阅读原文
2. 市场趋势与预测:全球AI大模型市场在未来几年内将经历显著增长,中国大模型市场规模将达到1179亿元,显示出强劲的增长势头。
3. 技术发展与创新:大模型技术在多个领域得到应用,2024年行业大模型的应用主要集中在探索孵化期与试验加速期,部分行业已步入采纳成长期
4. 政策环境与支持:中国政府通过一系列政策推动人工智能技术与产业的稳步发展,包括《“十三五”国家科技创新规划》、《中国制造2025》以及《新一代人工智能发展规划》等重大政策。
5. 竞争格局与企业动态:在人工智能大模型行业中,竞争格局呈现出高度复杂且动态变化的特点。从竞争主体来看,行业内主要的竞争者包括商汤、百度、阿里巴巴、华为和腾讯等大型科技公司。
6. 人工智能大模型产业链与供应链管理:人工智能大模型在产业链和供应链管理中扮演着重要角色。从产业链的角度来看,大模型通过与上游硬件和软件供应商合作,提升了大模型的适配性和性能,同时通过与下游生态系统的合作,拓展了其在C端和B/G端的应用场景。
7. 案例研究:在人工智能大模型行业中,案例研究展示了这些技术如何在不同行业中实现应用和提升效率。例如,在金融行业,腾讯开发的金融大模型通过整合内部金融知识库,在股票投资服务场景中显著提高了生成高质量稿件的效率,帮助股民更好地理解个股涨跌原因并辅助决策,效率提升了5倍以上。
8. 经济贡献与社会影响:人工智能大模型行业在经济贡献和社会影响方面表现显著。从经济贡献角度来看,人工智能大模型已经成为推动经济高质量发展的关键引擎。
9. SWOT分析:优势(Strengths)人工智能大模型行业在技术领先与创新方面具有显著优势。弱点(Weaknesses)尽管人工智能大模型行业在技术和数据资源方面具有优势,但也存在一些弱点。机会(Opportunities)人工智能大模型行业面临着广阔的发展机会。威胁(Threats)人工智能大模型行业也面临一些外部威胁。
10. 风险与对策:人工智能大模型行业面临多方面的风险,包括技术风险、产业风险和社会内容类风险。针对这些风险,行业需要采取一系列对策。
场景与心智:关于 AI 大模型在文旅领域应用的问题思考
文章概要:
1. 国外大模型发展呈现出以ChatGPT为代表的闭源大模型和以Meta Llama为代表的开源大模型两个重要分支。国内通用大模型以抖音、百度、阿里、腾讯等互联网大厂开发的产品为主,加之大模型新五虎各具特色的产品,基本形成了对标GPT的国内通用大模型阵营。通用大模型的重要发展方向是寻找应用场景,与各行业及个人消费类应用以及产业类应用进行深度结合,探索大模型商业化落地的新模式。
2. 文旅领域大模型应用的主要场景包括AIGC文化内容创作、文化和旅游AI信息检索与服务、AI旅游数字营销、AI文化和旅游治理。
3. 目前文旅领域大模型的使用并不普遍的原因可能需要先讨论通用大模型与文旅领域小模型的辩证关系,文旅领域大模型,亦或者叫行业小模型能真正形成现象级应用的前提是通用大模型方面先产生现象级的应用,先出现用户数可以匹配小红书、抖音等几亿用户级别的超级应用。在这种应用上,用户对大模型的使用习惯和频次得以极大提升,用户习惯于每天与大模型相关应用进行深度交互,无论是豆包还是文小言月活都在几千万量级,说明用户对大模型类应用还远未形成刚需性的依赖。因此,文旅领域大模型的使用暂时也还只是蜻蜓点水,更多只是初级的尝试,并未实质性地对旅游行为产生颠覆式的改变。文化内容创作对AIGC工具的使用可能优先于旅游领域广泛应用,AIGC相对场景较为具象化,而旅游领域需求最大的行程规划、出行预定暂时并未有太多用户量,其根本原因一方面由于旅游行程规划属于较为任务,目前AI给出的结果在准确度方面还达不到非常令人满意的水平;另一方面,也跟AI出行助理跟游客旅游决策所习惯的场景、体验、感官冲击方面呈现较大差距有关系。
4. 文旅领域大模型具有潜力的具象化产品形态包括智能体和语音交互的泛在化。
5. 目前文旅领域市场主体参与大模型的主要形式包括市场侧的在线旅游、以杭州、北京海淀区、朝阳区等为代表的地方文旅局。
6. 文旅领域大模型发展存在的关键问题包括文旅领域大模型训练数据的问题、内容合规监管问题、行业认知与模式选择的问题。
7. 对未来一段时间文旅大模型的展望包括今明年文旅领域智能代运营将形成一波产业机会、将初步形成通专结合的文旅大模型新场景、文旅大模型将逐渐从讲故事向务实化方向发展、文旅数据要素化助力大模型生态早日成熟。
阅读原文
2. 文旅领域大模型应用的主要场景包括AIGC文化内容创作、文化和旅游AI信息检索与服务、AI旅游数字营销、AI文化和旅游治理。
3. 目前文旅领域大模型的使用并不普遍的原因可能需要先讨论通用大模型与文旅领域小模型的辩证关系,文旅领域大模型,亦或者叫行业小模型能真正形成现象级应用的前提是通用大模型方面先产生现象级的应用,先出现用户数可以匹配小红书、抖音等几亿用户级别的超级应用。在这种应用上,用户对大模型的使用习惯和频次得以极大提升,用户习惯于每天与大模型相关应用进行深度交互,无论是豆包还是文小言月活都在几千万量级,说明用户对大模型类应用还远未形成刚需性的依赖。因此,文旅领域大模型的使用暂时也还只是蜻蜓点水,更多只是初级的尝试,并未实质性地对旅游行为产生颠覆式的改变。文化内容创作对AIGC工具的使用可能优先于旅游领域广泛应用,AIGC相对场景较为具象化,而旅游领域需求最大的行程规划、出行预定暂时并未有太多用户量,其根本原因一方面由于旅游行程规划属于较为任务,目前AI给出的结果在准确度方面还达不到非常令人满意的水平;另一方面,也跟AI出行助理跟游客旅游决策所习惯的场景、体验、感官冲击方面呈现较大差距有关系。
4. 文旅领域大模型具有潜力的具象化产品形态包括智能体和语音交互的泛在化。
5. 目前文旅领域市场主体参与大模型的主要形式包括市场侧的在线旅游、以杭州、北京海淀区、朝阳区等为代表的地方文旅局。
6. 文旅领域大模型发展存在的关键问题包括文旅领域大模型训练数据的问题、内容合规监管问题、行业认知与模式选择的问题。
7. 对未来一段时间文旅大模型的展望包括今明年文旅领域智能代运营将形成一波产业机会、将初步形成通专结合的文旅大模型新场景、文旅大模型将逐渐从讲故事向务实化方向发展、文旅数据要素化助力大模型生态早日成熟。
百度智能云千帆大模型平台技术革新与产业实践
文章概要:
1. 自百度云千帆平台发布以来,服务的企业客户和落地的行业场景不断增加,平台也阶段的发展
2. 为了更好地满足企业客户复杂业务场景的需求,正式迈入.,面向生产力场景的级,包括模型开发、模型服务和应用开发的全流程工具
3. 在应用层,企业级智能开发平台和端到端的应用开发工具,如千帆AppBuilder和AI速搭,满足企业客户各类应用开发需求
4. 在模型服务层,通过大模型与传统模型协同,来灵活满足用户需求,同时不断推出针对特定场景专项优化的垂直场景大模型>5. 在模型开发层同时模型和模型的,通过业界领先的模型开发工具链,实现数据、模型、算力的纳管和调度,模型开发的效率,提高资源利用率
. 除了平台全新升级,智能云千帆产业实践方面取得了突破性进展,与客户一起落地多个行业场景,了非常多的行业场景解决方案
阅读原文
2. 为了更好地满足企业客户复杂业务场景的需求,正式迈入.,面向生产力场景的级,包括模型开发、模型服务和应用开发的全流程工具
3. 在应用层,企业级智能开发平台和端到端的应用开发工具,如千帆AppBuilder和AI速搭,满足企业客户各类应用开发需求
4. 在模型服务层,通过大模型与传统模型协同,来灵活满足用户需求,同时不断推出针对特定场景专项优化的垂直场景大模型>5. 在模型开发层同时模型和模型的,通过业界领先的模型开发工具链,实现数据、模型、算力的纳管和调度,模型开发的效率,提高资源利用率
. 除了平台全新升级,智能云千帆产业实践方面取得了突破性进展,与客户一起落地多个行业场景,了非常多的行业场景解决方案
深度|No Priors谈大模型未来市场趋势:小模型,高性能
文章概要:
1. 大语言模型市场存在整合趋势,一方面人工智能发展的基础产业是资本密集型的,市场整合对于大语言模型市场的资本支撑是必要的,另一方面单个大语言模型也需要集成多种创新功能。
2. 大语言模型等人工智能产品的发展需要硬件层面上的进一步支持,硬件市场的资本输入是必要的,然而对其发展趋势的预测可能是困难的。
3. 大语言模型市场的发展趋势是功能整合与差异化竞争并存,市场可能正在整合,但参与者未必都在盈利。
4. 图像生成市场似乎开始升温,之前大家觉得MidJourney将成为独立玩家中的默认赢家,后来又出现了一些多模态的东西,比如Dolly和OpenAI的项目,或者是Gemini的一些项目。
5. 模型的体积正在缩小,而性能却不断提升,这可能是通过蒸馏实现的,也可能是其他技术推动的,但总体上我们看到的是,越来越小的模型能够提供越来越高的性能。
6. 芯片层可能会进一步加速某些领域的发展,一是芯片层,可能会进一步加速某些领域的发展;二是你对输出、训练数据等内容的实际处理方式, 以及你在这方面愿意走多远、如何突破限制。
阅读原文
2. 大语言模型等人工智能产品的发展需要硬件层面上的进一步支持,硬件市场的资本输入是必要的,然而对其发展趋势的预测可能是困难的。
3. 大语言模型市场的发展趋势是功能整合与差异化竞争并存,市场可能正在整合,但参与者未必都在盈利。
4. 图像生成市场似乎开始升温,之前大家觉得MidJourney将成为独立玩家中的默认赢家,后来又出现了一些多模态的东西,比如Dolly和OpenAI的项目,或者是Gemini的一些项目。
5. 模型的体积正在缩小,而性能却不断提升,这可能是通过蒸馏实现的,也可能是其他技术推动的,但总体上我们看到的是,越来越小的模型能够提供越来越高的性能。
6. 芯片层可能会进一步加速某些领域的发展,一是芯片层,可能会进一步加速某些领域的发展;二是你对输出、训练数据等内容的实际处理方式, 以及你在这方面愿意走多远、如何突破限制。
大模型能给大数据开发领域带来什么?
文章概要:
1. 文章探讨了大模型在大数据领域的应用场景以及当前落地情况。
2. 以京东的大数据开发平台为例,说明大数据平台在开发使用过程中面临的三大难题,包括数据开发难、数据运维难和使用数据难。
3. 期望大模型在传统的大数据平台的基础上构建DATA+AI的大数据平台,形成智能数据应用。
4. 大模型赋能数据开发链路,能够在数据开发链路中提供实质性的帮助,提高数据资产的可发现性,优化开发流程,并增强系统的稳定性和可靠性。
5. 大模型在大数据开发和应用场景中的落地实践,往往以智能助手的形式出现,以提高效率、简化操作并增强用户体验。
6. 文章介绍了一些国内大模型在大数据场景下的应用实例,如阿里云DataWorks Copilot、京东智能应用助手云ChatBI、华为智能数据洞察DataArts Insight、星环科技智能分析工具、明略科技智能分析平台、达观数据智能文本分析、电信星辰大模型·软件工厂。
7. 国外也诞生了一些以大模型辅助开发的产品,文章主要介绍了Babel、Cognition、linq IO三个产品。
阅读原文
2. 以京东的大数据开发平台为例,说明大数据平台在开发使用过程中面临的三大难题,包括数据开发难、数据运维难和使用数据难。
3. 期望大模型在传统的大数据平台的基础上构建DATA+AI的大数据平台,形成智能数据应用。
4. 大模型赋能数据开发链路,能够在数据开发链路中提供实质性的帮助,提高数据资产的可发现性,优化开发流程,并增强系统的稳定性和可靠性。
5. 大模型在大数据开发和应用场景中的落地实践,往往以智能助手的形式出现,以提高效率、简化操作并增强用户体验。
6. 文章介绍了一些国内大模型在大数据场景下的应用实例,如阿里云DataWorks Copilot、京东智能应用助手云ChatBI、华为智能数据洞察DataArts Insight、星环科技智能分析工具、明略科技智能分析平台、达观数据智能文本分析、电信星辰大模型·软件工厂。
7. 国外也诞生了一些以大模型辅助开发的产品,文章主要介绍了Babel、Cognition、linq IO三个产品。
xLAM大模型如何增强企业智能体系统?
文章概要:
1. 开源社区在为智能体任务开发专门模型时面临挑战,包括高质量智能体数据集的稀缺性和标准协议的缺乏。本文介绍并公开发布了xLAM,一系列专为AI智能体任务设计的大型动作xLAM系列包括五个模型,具有稠密和专家混合架构,参数范围从1B到8x22B不等,使用可扩展、灵活的流水线进行训练,统一、增强和合成各种数据集,以增强AI智能体在不同环境中的泛化能力和性能。
2. xLAM在多个智能体能力基准测试中始终表现出色,特别是在伯克利函数调用排行榜上获得第一名,胜过了GPT-4、Claude-3等许多模型,表现在工具使用方面。通过发布xLAM系列,我们的目标是推进开源LLMs在自主AI智能体中的性能,可能加速进展并使获得高性能模型用于智能体任务的民主化。
3. 介绍了开源的xLAM系列,这是一组用于自主AI智能体的大型行动模型。我们的模型范围从10亿到8x22亿个参数不等,使用可扩展和灵活的数据管道进行训练,统一、增强和合成各种数据集。我们的评估表明,xLAM模型在各种基准测试中表现出色。
阅读原文
2. xLAM在多个智能体能力基准测试中始终表现出色,特别是在伯克利函数调用排行榜上获得第一名,胜过了GPT-4、Claude-3等许多模型,表现在工具使用方面。通过发布xLAM系列,我们的目标是推进开源LLMs在自主AI智能体中的性能,可能加速进展并使获得高性能模型用于智能体任务的民主化。
3. 介绍了开源的xLAM系列,这是一组用于自主AI智能体的大型行动模型。我们的模型范围从10亿到8x22亿个参数不等,使用可扩展和灵活的数据管道进行训练,统一、增强和合成各种数据集。我们的评估表明,xLAM模型在各种基准测试中表现出色。
EMNLP 2024 | 大语言模型的知识机理:综述和观点
文章概要:
1. 大语言模型的机理是人工智能系统发展的核心追求,本文从知识利用和进化等角度回顾了大语言模型识机理的前沿进展。
2. 知识利用可以分为层次:记忆、理解应用和。知识演化关注的是模型知识随时间变化的动态过程
3. 根据 Bloom 的认知分类法大模型知识利用分为记忆、理解、应用和总结。
4. 个体进化是 LLM 与动态环境进行,通过记忆、遗忘、纠错和加深对周围世界理解,并且走向成熟的过程。br> 5. 群体进化面临更加复杂的冲突,包括智能体之间专业知识的差异、利益竞争、文化差异和困境等。
6. 高效的大语言模型。知识机理研究有助于提升LLM效率并降低实际应用中的资源消耗。可信的大语言模型知识机理研究有助于提升LLM在实际应用中的可信度,深入理解语言模型在幻觉和安全性等问题上的根本原因,推动大模型安全性技术、遗忘学习等领域的发展。
7. 尽管存在许多关于大模型的非议,但是当前的主流观点还是认为大模型已掌握基本的世界知识。关于大模型的未来发展,提出了暗假说”:即使在理想的数据和模型条件下,仍将存在人类或机器无法获知的领域。
阅读原文
2. 知识利用可以分为层次:记忆、理解应用和。知识演化关注的是模型知识随时间变化的动态过程
3. 根据 Bloom 的认知分类法大模型知识利用分为记忆、理解、应用和总结。
4. 个体进化是 LLM 与动态环境进行,通过记忆、遗忘、纠错和加深对周围世界理解,并且走向成熟的过程。br> 5. 群体进化面临更加复杂的冲突,包括智能体之间专业知识的差异、利益竞争、文化差异和困境等。
6. 高效的大语言模型。知识机理研究有助于提升LLM效率并降低实际应用中的资源消耗。可信的大语言模型知识机理研究有助于提升LLM在实际应用中的可信度,深入理解语言模型在幻觉和安全性等问题上的根本原因,推动大模型安全性技术、遗忘学习等领域的发展。
7. 尽管存在许多关于大模型的非议,但是当前的主流观点还是认为大模型已掌握基本的世界知识。关于大模型的未来发展,提出了暗假说”:即使在理想的数据和模型条件下,仍将存在人类或机器无法获知的领域。
14位重磅嘉宾,共商大模型场景应用落地之路
文章概要:
1. 2024年9月24日至26日,第20届CCF全国高性能计算学术年会在武汉市中国光谷科技会展中心举行。
2. 作为超高“质”量专题论坛的其中之一,【向AI而行 | 人工智能,大模型场景应用落地】论坛于9月26 日成功举办。
3. 在AI大模型前沿技术分享环节,多位行业专家从不同角度探讨了大模型技术的发展趋势和应用前景。
4. 北京中科睿途科技有限公司与北京超级云计算中心在论坛上正式签署了战略合作协议。
5. 多位行业专家在论坛上分享了大模型场景应用实践。
6. 北京超算在此次论坛上进行了“人工智能+产学研用生态联合体”的发布。
7. 在压轴环节,多位参与论坛报告的行业专家领袖位列圆桌,就行业议题发表各自观点与看法。
阅读原文
2. 作为超高“质”量专题论坛的其中之一,【向AI而行 | 人工智能,大模型场景应用落地】论坛于9月26 日成功举办。
3. 在AI大模型前沿技术分享环节,多位行业专家从不同角度探讨了大模型技术的发展趋势和应用前景。
4. 北京中科睿途科技有限公司与北京超级云计算中心在论坛上正式签署了战略合作协议。
5. 多位行业专家在论坛上分享了大模型场景应用实践。
6. 北京超算在此次论坛上进行了“人工智能+产学研用生态联合体”的发布。
7. 在压轴环节,多位参与论坛报告的行业专家领袖位列圆桌,就行业议题发表各自观点与看法。
大模型落地困境讨论与解决思路
文章概要:
1. 大模型落地困境讨论与解决思路:大模型出来的时间不短了,虽然热度仍未下降,但大家的心态已从热情变成冷静,大模型的落地仍困难重重,需要解决很多问题。
2. 核心问题阐释:高机器成本、算法效果收益、性能耗时、可更新性、AIGC内容安全、特征处理能力。
3. 目前的解决方案思路:机器成本、耗时、算法收益的权衡;可更新性AIGC内容安全;的处理能力;技术储备。
阅读原文
2. 核心问题阐释:高机器成本、算法效果收益、性能耗时、可更新性、AIGC内容安全、特征处理能力。
3. 目前的解决方案思路:机器成本、耗时、算法收益的权衡;可更新性AIGC内容安全;的处理能力;技术储备。
沈向洋: 大模型的10个思考
文章概要:
1. 通用人工智能时代,算力是门槛,过去10年,大模型用到算力的增长,一开始是每年六七倍的增长,后来每年超过4倍的增长。
2. 关于数据的数据,当ChatGPT3出来的时候,当时还只是在发表论文阶段,说需要2万亿的Token的数据量;到GPT-4出来的时候,大概是12T的数量;GPT-4不断地训练,今天估计它已经超过20T的数量。
3. 大模型的下一章,干到今天了,下一步应该怎么办?首先是语言模型。以ChatGPT为代表,它的底层技术是自然语言处理。今天大家正在干的是多模态模型,以GPT-4为代表,里面很多技术是计算机视觉。再向前走,就是要做具身智能。具身智能的目的在哪里?实际上是我们要建一个世界模型,就算是多模态的,底层的物理模型也是没有的,所以要做这样一个世界模型。
4. 人工智能的范式转移,两个礼拜前,OpenAI发布了最新一个模型就是o1。前面我也提到GPT一直发展,到了GPT4以后,GPT5一直出不来,大家就在想,如果只是大模型参数的增长,是不是走到顶了?没有人知道,现在它并没有放出来,我们国内也没有做出更加超大的模型。
5. 大模型横扫千行百业,所有的公司都要面对大模型带来的机会,但是不需要每个公司都做通用的大模型,如果你连1万张卡没有,是没有做通用大模型的机会的,要做通用大模型,至少要有万卡。
6. AI Agent,从愿景到落地,今天我们看到大模型最大的超级应用是什么,最大的机会在哪里。很多人现在还在不断地尝试,想找到一个超级应用。实际上超级应用一开始就在那里,这个超级应用就是一个超级助理,就是一个超级Agent。
7. 开源和闭源,过去几十年世界科技的发展,特别是中国科技的发展,有两件事情是非常重要的。
8. 重视AI治理,因为AI发展太迅猛了,全世界对AI安全都非常重视。因为这件事情的影响实在是太大了,人工智能对千行百业、对整个社会的冲击非常大,整个世界的发展实际上是要大家共同来面对的。
9. 重新思考人机关系,我刚才介绍了文生文、文生图、文生视频——有多少是机器的智能,有多少是因为人机交互我们带来的震撼?
10. 智能的本质,今天虽然大模型已经给大家带来很多的震惊,但是我们对大模型、深度学习是没有理论的。
阅读原文
2. 关于数据的数据,当ChatGPT3出来的时候,当时还只是在发表论文阶段,说需要2万亿的Token的数据量;到GPT-4出来的时候,大概是12T的数量;GPT-4不断地训练,今天估计它已经超过20T的数量。
3. 大模型的下一章,干到今天了,下一步应该怎么办?首先是语言模型。以ChatGPT为代表,它的底层技术是自然语言处理。今天大家正在干的是多模态模型,以GPT-4为代表,里面很多技术是计算机视觉。再向前走,就是要做具身智能。具身智能的目的在哪里?实际上是我们要建一个世界模型,就算是多模态的,底层的物理模型也是没有的,所以要做这样一个世界模型。
4. 人工智能的范式转移,两个礼拜前,OpenAI发布了最新一个模型就是o1。前面我也提到GPT一直发展,到了GPT4以后,GPT5一直出不来,大家就在想,如果只是大模型参数的增长,是不是走到顶了?没有人知道,现在它并没有放出来,我们国内也没有做出更加超大的模型。
5. 大模型横扫千行百业,所有的公司都要面对大模型带来的机会,但是不需要每个公司都做通用的大模型,如果你连1万张卡没有,是没有做通用大模型的机会的,要做通用大模型,至少要有万卡。
6. AI Agent,从愿景到落地,今天我们看到大模型最大的超级应用是什么,最大的机会在哪里。很多人现在还在不断地尝试,想找到一个超级应用。实际上超级应用一开始就在那里,这个超级应用就是一个超级助理,就是一个超级Agent。
7. 开源和闭源,过去几十年世界科技的发展,特别是中国科技的发展,有两件事情是非常重要的。
8. 重视AI治理,因为AI发展太迅猛了,全世界对AI安全都非常重视。因为这件事情的影响实在是太大了,人工智能对千行百业、对整个社会的冲击非常大,整个世界的发展实际上是要大家共同来面对的。
9. 重新思考人机关系,我刚才介绍了文生文、文生图、文生视频——有多少是机器的智能,有多少是因为人机交互我们带来的震撼?
10. 智能的本质,今天虽然大模型已经给大家带来很多的震惊,但是我们对大模型、深度学习是没有理论的。
LLM大模型学习总结
文章概要:
1. 介绍了目前国内外开源/闭源LLM模型种类繁多的情况,并给出了各大模型的对比效果。
2. 详细总结了4个比较常用的开源大模型特点,包括模型评测、初步体验和部署等方面。
3. 介绍了MOE框架的基本流程和存在的问题,以及未来的发展方向。
4. 介绍了CLIP模型的基本原理和应用场景。
5. 分析了llama3结构和主要组件,包括输入嵌入层、自注意力层、前馈网络层以及位置编码等核心组件。
阅读原文
2. 详细总结了4个比较常用的开源大模型特点,包括模型评测、初步体验和部署等方面。
3. 介绍了MOE框架的基本流程和存在的问题,以及未来的发展方向。
4. 介绍了CLIP模型的基本原理和应用场景。
5. 分析了llama3结构和主要组件,包括输入嵌入层、自注意力层、前馈网络层以及位置编码等核心组件。
大模型驱动的产品范式创新研究与思考
文章概要:
1. 本文节选自作者在2024全球产品经理大会上的主题演讲,主要讨论了大模型驱动的产品范式创新。大模型正在给计算产业的每一层次都带来了范式转换,包括计算范式、开发范式和交互范式。大模型的独特之处在于它同时带来了三大范式换,这也是这两年整个 IT 行业、每一层次都感到“热辣滚烫”的原因。作者认为交互范式的变革对产品多模态和 Agent 等交互革新技术。
2. 大模型对不同领域的颠覆力度不同,在生产力、搜索和信息等领域的颠覆速度很快,而在娱乐、社交等领域的颠覆力相对较慢。大模型在情感、社交领域能否扩展到大众用户,作者持极大的怀疑态度。
3. 计算和连接的“钟摆效应”呈现指数级的加速,连接和计算并不割裂,而是互相成就的。互联网时代的很多思维方式和商业模式并不能简单地沿用到AI时代,尤其是不能沿用到由大模型引领的AGI时代。
4. 今年以来,大模型在多模态、智能体和强化学习带来的推理提升三个方向上取得了飞跃式的发展,完成了从去年的“文科生”到今年的“理科生”的转变。
5. 计算任务模式正在从检索模式向生成模式和推理模式演变,人机共生数据将为大模型提供下一波发展的关键“燃料”,会使得模型越来越聪明,满足人类各种细腻入微的需求。
6. 大模型将驱动互联网从 “信息网络”在未来演变为 “行动网络”,在这种新的范式下,产品形态会有很大的变化,未来的产品经理可能需要从面向人类的需求设计产品,转变为面向智能体的需求来设计产品。
阅读原文
2. 大模型对不同领域的颠覆力度不同,在生产力、搜索和信息等领域的颠覆速度很快,而在娱乐、社交等领域的颠覆力相对较慢。大模型在情感、社交领域能否扩展到大众用户,作者持极大的怀疑态度。
3. 计算和连接的“钟摆效应”呈现指数级的加速,连接和计算并不割裂,而是互相成就的。互联网时代的很多思维方式和商业模式并不能简单地沿用到AI时代,尤其是不能沿用到由大模型引领的AGI时代。
4. 今年以来,大模型在多模态、智能体和强化学习带来的推理提升三个方向上取得了飞跃式的发展,完成了从去年的“文科生”到今年的“理科生”的转变。
5. 计算任务模式正在从检索模式向生成模式和推理模式演变,人机共生数据将为大模型提供下一波发展的关键“燃料”,会使得模型越来越聪明,满足人类各种细腻入微的需求。
6. 大模型将驱动互联网从 “信息网络”在未来演变为 “行动网络”,在这种新的范式下,产品形态会有很大的变化,未来的产品经理可能需要从面向人类的需求设计产品,转变为面向智能体的需求来设计产品。
师之良辅,生之善伴:学而思九章大模型
文章概要:
1. 学而思发布九章MathGPT大模型专注于数学领域的解题和讲题算法,具备强大的数学解题。
2. 九章大模型的亮点包括数学配有专门的数学公式、作文教学好帮手、有三种批改模型。
阅读原文
2. 九章大模型的亮点包括数学配有专门的数学公式、作文教学好帮手、有三种批改模型。
阅读原文
中国工业大模型行业发展研究报告
文章概要:
1. 工业大模型处于萌芽阶段,本质是概率模型,具有不可解释性和幻觉不可消除等特征。
2. 工业大模型的落地情况受到数据准备和技术能力的限制目前市场产品、服务、落地场景都处于探索阶段。
3. 工业大模型的玩家与工业互联网平台玩家重合度高,成长路径可能会借鉴工业互联网平台的发展路径。
4. 工业大模型的产品服务架构包括基础底座、模型及服务、模型应用三层,模型及服务是核心。
5. 工业大模型的应用场景主要集中在偏运营的、具有一定容错能力的场景,生产制造等核心场景的探索需要静待模型进化以及CV大模型、多模态大模型的发展。
6. 大模型落地工业的挑战主要聚焦于模型、数据、应用、商业变现几方面,需要各方共同努力解决。
阅读原文
2. 工业大模型的落地情况受到数据准备和技术能力的限制目前市场产品、服务、落地场景都处于探索阶段。
3. 工业大模型的玩家与工业互联网平台玩家重合度高,成长路径可能会借鉴工业互联网平台的发展路径。
4. 工业大模型的产品服务架构包括基础底座、模型及服务、模型应用三层,模型及服务是核心。
5. 工业大模型的应用场景主要集中在偏运营的、具有一定容错能力的场景,生产制造等核心场景的探索需要静待模型进化以及CV大模型、多模态大模型的发展。
6. 大模型落地工业的挑战主要聚焦于模型、数据、应用、商业变现几方面,需要各方共同努力解决。
大模型商业化落地的现状及路径探讨(1)
文章概要:
1. 终局猜想基础大模型最终成为通用品,百模大战的局面只会缓解而不会消失,开源大模型长期占据重要份额。顶级的闭源模型和开源模型的差距,短期内会因为前者在算法算力的领先而,但在不远的中期,会因为算法边际效用提升的递减以及算力随现代制造业成本降低带来的普及,加之开源模型搭配私有数据的优势,差距反而会缩小。模型格局很可能类似于云服务在中国,从一开始的高技术行业落入凡间成为一个比拼成本和落地服务能力的行业,甚至如同天翼云,国企或某种形式的国家队会凭借基础设施能力占到重要份额。大模型出现带来MaaS的概念,但仍然面临落地应用的挑战,某种意义上是P一种,因此或多或少也会继承其在商业化上下不靠的尴尬。但MaaS会比PaaS有更多机会,因为不少模型本身就自带Killer App或者可集成部分应用的属性。大模型商业化还处于早期,进度远低于预期,特别是要求更高的toB端,仍处在找寻PMF的阶段。
2. 大ToB商业化的:大模型在ToC方向的商业化,存在从小到大到巨,差异显著的各种市场规模估算的逻辑,本文暂不做讨论而聚焦在ToB商业化上。这部分目前主要有如下四种商业化的路径,在这四个路径中,成分依次降低而应用的成本依次。纯大模型、大模型带应用、大模型应用、内嵌大模型。
阅读原文
2. 大ToB商业化的:大模型在ToC方向的商业化,存在从小到大到巨,差异显著的各种市场规模估算的逻辑,本文暂不做讨论而聚焦在ToB商业化上。这部分目前主要有如下四种商业化的路径,在这四个路径中,成分依次降低而应用的成本依次。纯大模型、大模型带应用、大模型应用、内嵌大模型。
慧言AI全面大升级!全球最顶尖AI大模型!快来尝鲜!
文章概要:
1. 慧言全面大升级,带来更佳使用体验,包括房间系统升级个人房间支持多选模型选择支持自定义上下文数量及回复长度、首页布局简化等。
2. 慧言后续升级方向稳定同步更新最新国内外优质模型、优化文件上传体验、开发gpt实时对话功能、研发工作流模式。<>3. 国庆期间9折活动还剩最后两天,在购买时输入“欢度国庆”,享受9折优惠。
阅读原文
2. 慧言后续升级方向稳定同步更新最新国内外优质模型、优化文件上传体验、开发gpt实时对话功能、研发工作流模式。<>3. 国庆期间9折活动还剩最后两天,在购买时输入“欢度国庆”,享受9折优惠。
2024大模型之战:从技术浪漫到落地求生丨封面故事
文章概要:
1. 2024年以来,国内AI大模型圈竞争激烈,融资速度加快,大模型厂商们争夺企业客户。
2. 大模型技术的进展与预期差距很大,投入巨额资金后,何时见效尚未可知,资金来源和变现场景也不明确。
3. 从业者们的心态从技术浪漫转变为商业务实,更加关注落地场景和商业化。
4. 大模型创业公司们正努力展现各自的差异,告别同质化竞争。
5. 智能手机作为AI大模型落地最快找到场景的试验田,全球各大手机厂商已采取行动。
6. 依托已有业务开展AI大模型探索的公司,目前已有一部分企业找到商业化路径,且AI带动的营收实现一定的量级。
阅读原文
2. 大模型技术的进展与预期差距很大,投入巨额资金后,何时见效尚未可知,资金来源和变现场景也不明确。
3. 从业者们的心态从技术浪漫转变为商业务实,更加关注落地场景和商业化。
4. 大模型创业公司们正努力展现各自的差异,告别同质化竞争。
5. 智能手机作为AI大模型落地最快找到场景的试验田,全球各大手机厂商已采取行动。
6. 依托已有业务开展AI大模型探索的公司,目前已有一部分企业找到商业化路径,且AI带动的营收实现一定的量级。
金融行业大模型主流应用可落地场景(同行交流共识)
文章概要:
1. 大模型在金融行业的应用正逐步展开,从风险评估到智能客服,其潜力正在被挖掘。
2. 目前,在金融行业,大模型技术已经在多个场景中得到了广泛应用,带来了显著的效率提升和用户体验的优化。
3. 各家银行在多个场景落地大模型、生成式AI技术应用或进行相关探索,包括网点运营、客服、远程银行、数字人、元宇宙、消费者权益保护、研发、代码、智慧办公、营销、风控、合规、反洗钱、研报、企业金融等。
4. 目前为了控制风险,防范大模型幻觉,现有的应用场景一般不会直接对客服务,可以开展的场景主要有数字人、公文写作、网点柜员助手、客户经理智能助手、坐席智能辅助工具、智能投研助手、托管智能解析。
5. 在当前金融行业中,大模型的应用尚处于探索阶段。由于金融行业的业务复杂性和监管要求的严苛,大模型被广泛应用于减少人工复杂工作流程和繁重的数据处理,提升效率和决策质量。
阅读原文
2. 目前,在金融行业,大模型技术已经在多个场景中得到了广泛应用,带来了显著的效率提升和用户体验的优化。
3. 各家银行在多个场景落地大模型、生成式AI技术应用或进行相关探索,包括网点运营、客服、远程银行、数字人、元宇宙、消费者权益保护、研发、代码、智慧办公、营销、风控、合规、反洗钱、研报、企业金融等。
4. 目前为了控制风险,防范大模型幻觉,现有的应用场景一般不会直接对客服务,可以开展的场景主要有数字人、公文写作、网点柜员助手、客户经理智能助手、坐席智能辅助工具、智能投研助手、托管智能解析。
5. 在当前金融行业中,大模型的应用尚处于探索阶段。由于金融行业的业务复杂性和监管要求的严苛,大模型被广泛应用于减少人工复杂工作流程和繁重的数据处理,提升效率和决策质量。
智能机器人行业的进化:开发门槛大降,大模型部署高性能低功耗兼得
文章概要:
1. 20被认为是中国身智能元年,国内机器人蓬勃发展,企业推出首款或者新款机器人
2. 地瓜机器人CEO王丛提到,机器人行业有着四个特点,行业格局上,应用需求发散,日益增多;二是从技术成熟度来看,机器人硬件不成熟,算法技术路线不确定;三是从数据获取难易来看,采集成本高,corner case难仿真,数据标准没有共识;四是在工具成熟度上,各类开源工具拼凑,各家重复造轮子。
3. 地瓜机器人拿出一张500元的“入场券”,在大模型的支持,RDK X5支持端侧部署各种类型的模型,包括Transformer&CNN模型等0种以上模型,双目深度算法等最新算法,还支持丰富的CV硬件加速。
4.机器人产业拥有一个不断的生态系统了从核心技术到应用落地的各个环节。在这个生态系统中,机器人行业与芯片行业之间存在紧密的产业协同关系上下游共同开发适用于机器人应用的产品,这种合作加速了新技术的研发和应用。
阅读原文
2. 地瓜机器人CEO王丛提到,机器人行业有着四个特点,行业格局上,应用需求发散,日益增多;二是从技术成熟度来看,机器人硬件不成熟,算法技术路线不确定;三是从数据获取难易来看,采集成本高,corner case难仿真,数据标准没有共识;四是在工具成熟度上,各类开源工具拼凑,各家重复造轮子。
3. 地瓜机器人拿出一张500元的“入场券”,在大模型的支持,RDK X5支持端侧部署各种类型的模型,包括Transformer&CNN模型等0种以上模型,双目深度算法等最新算法,还支持丰富的CV硬件加速。
4.机器人产业拥有一个不断的生态系统了从核心技术到应用落地的各个环节。在这个生态系统中,机器人行业与芯片行业之间存在紧密的产业协同关系上下游共同开发适用于机器人应用的产品,这种合作加速了新技术的研发和应用。
一文彻底搞懂大模型 - Agent(智能体)
文章概要:
1. 电影《钢铁侠》中的智能助手J.A.R.V.I.S.为我们描绘了未来AI Agent的雏形
2. 大模型Agent是一种构建于大型语言模型(LLM)之上的智能体,它具备环境感知能力、自主理解、决策制定及执行行动的能力
3. Agent是能够模拟独立思考过程,灵活调用各类工具,逐步达成预设目标
4. 大模型Agent由规划、记忆、工具与行动四大关键部分组成,分别负责任务拆解与策略评估、信息存储与回忆、环境感知与决策辅助、以及将思维转化为实际行动
5. 通过集成大型语言模型(LLM)检索增强生成(RAG)技术、自动化数据处理与分析工具,以及定制化的任务规划与执行流程,构建一个能够自动收集财报数据、进行深度分析并生成报告的智能代理系统
6. 财报分析Agent,自动化完成数据收集、分析与报告生成,具体步骤包括 需求分析、架构设计、设计、数据获取、RAG检索、LLM处理、报告生成等
阅读原文
2. 大模型Agent是一种构建于大型语言模型(LLM)之上的智能体,它具备环境感知能力、自主理解、决策制定及执行行动的能力
3. Agent是能够模拟独立思考过程,灵活调用各类工具,逐步达成预设目标
4. 大模型Agent由规划、记忆、工具与行动四大关键部分组成,分别负责任务拆解与策略评估、信息存储与回忆、环境感知与决策辅助、以及将思维转化为实际行动
5. 通过集成大型语言模型(LLM)检索增强生成(RAG)技术、自动化数据处理与分析工具,以及定制化的任务规划与执行流程,构建一个能够自动收集财报数据、进行深度分析并生成报告的智能代理系统
6. 财报分析Agent,自动化完成数据收集、分析与报告生成,具体步骤包括 需求分析、架构设计、设计、数据获取、RAG检索、LLM处理、报告生成等
2024 AI系列深度报告(四):大模型篇,大模型发展迈入爆发期,开启AI新纪元
文章概要:
1. 文章介绍了2024 AI系列深度报告(四)大模型篇
2. 指出大模型发展迈入爆发期,开启AI新纪元
阅读原文
2. 指出大模型发展迈入爆发期,开启AI新纪元
技术科普 | 盘点2024年最佳大语言模型
文章概要:
1. 本文通过测试来自同一基础模型多个独立模型,以找到最佳的大语言模型,介绍了2024年度最佳大语言模型,包括OpenAI的GPT、GitHub Copilot、Meta LLama 3、Claude 3、Qwen、GPT-4o和Google Gemini等。
2. 如何选择适合自己的大语言模型,最主要取决于性价比,其次要考虑数据的访问权限和拥有权。
阅读原文
2. 如何选择适合自己的大语言模型,最主要取决于性价比,其次要考虑数据的访问权限和拥有权。
垂直领域大模型的思考
文章概要:
1. 相比通用大模型,垂直大模型更有价值,能帮助解决问题,提高生产效率。将介绍如何做一个垂直领域的大模型,包括继续预训练,领域微调数据构建,减缓幻觉,知识召回多个方面。
2. 通用大模型的尴尬:虽然2023年以来几乎很多公司都发出了自己的通用大模型,但是都还停留在“开放闲聊”阶段,这种泛娱乐的方式是不能带来实际生产力的。
3. 垂直大模型产品:基于上面的思考,开始涌现出越来越多的垂域大模型,这些模型只针对一个特定的领域,甚至只能针对一两个场景。但是已经能初步的产品化落地,不再是一个只会「闲聊的玩具」,开始真的帮人们在解决问题。
4. 垂直大模型基本套路:参考通用的大模型的训练流程,可以得出垂直领域大模型的基本套路。
5. 继续预训练:通过继续预训练能给通用的大模型注入领域知识,领域内的专业词能更充分的学习。这部分只需要准备领域内的语料即可,然后进行LLM任务的继续训练。
6. 领域微调数据构建:领域微调的核心是构建高质量大规模的领域微调数据。让人去收集一个领域内的语料是容易的,但是让人去编写领域内的微调指令和回答是很难的。下面介绍的方法都是来尝试解决这个问题。这些方法的核心都是基于一些已有的数据+GPT4,然后生成领域内的微调数据。
7. 减缓幻觉:这里我们将探讨如何让大模型的生成结果减缓幻觉,同时如何检测幻觉,并在后处理阶段进行消除。
8. 知识召回:为了减少回答的幻觉,保证时效性,会先召回相关的知识帮助模型进行回答。Langchain中对这部分有很多实现,包括基于关键词的字面召回,基于相似度模型的语义召回等。但是实际落地就会发现召回的质量往往较差,下面介绍一些具体的优化方案。
阅读原文
2. 通用大模型的尴尬:虽然2023年以来几乎很多公司都发出了自己的通用大模型,但是都还停留在“开放闲聊”阶段,这种泛娱乐的方式是不能带来实际生产力的。
3. 垂直大模型产品:基于上面的思考,开始涌现出越来越多的垂域大模型,这些模型只针对一个特定的领域,甚至只能针对一两个场景。但是已经能初步的产品化落地,不再是一个只会「闲聊的玩具」,开始真的帮人们在解决问题。
4. 垂直大模型基本套路:参考通用的大模型的训练流程,可以得出垂直领域大模型的基本套路。
5. 继续预训练:通过继续预训练能给通用的大模型注入领域知识,领域内的专业词能更充分的学习。这部分只需要准备领域内的语料即可,然后进行LLM任务的继续训练。
6. 领域微调数据构建:领域微调的核心是构建高质量大规模的领域微调数据。让人去收集一个领域内的语料是容易的,但是让人去编写领域内的微调指令和回答是很难的。下面介绍的方法都是来尝试解决这个问题。这些方法的核心都是基于一些已有的数据+GPT4,然后生成领域内的微调数据。
7. 减缓幻觉:这里我们将探讨如何让大模型的生成结果减缓幻觉,同时如何检测幻觉,并在后处理阶段进行消除。
8. 知识召回:为了减少回答的幻觉,保证时效性,会先召回相关的知识帮助模型进行回答。Langchain中对这部分有很多实现,包括基于关键词的字面召回,基于相似度模型的语义召回等。但是实际落地就会发现召回的质量往往较差,下面介绍一些具体的优化方案。
从近100场大模型比赛看大模型关注热点
文章概要:
1. 作者对近100场大模型比赛进行归类总结,探讨了大模型目前的关注热点,包括比赛平台与模型推广、大模型逻辑推理能力、大模型安全问题、行业大模型及完成特定任务的大模型、大模型硬件落地、人机区分、大模型与数据处理、大模型与传统NLP任务、多模态大模型、大模型创作、大模型与搜广推、大模型的agent调度、大模型学术性质的比赛和趣味大模型比赛等方面
2. 作者指出,国内大模型创业公司通过比赛推广自己的产品,提高大模型的推理能力是当前研究的重点,大模型的安全问题也备受关注
3. 作者还介绍了一些特定行业的大模型比赛,如医学、金融、编程、电信、教育、政务、法律等,以及一些特定任务的大模型比赛,如图分析、采购文件解读、数据库查询、知识引入等
4. 作者提到了大模型硬件落地的挑战,以及人机区分、大模型与数据处理、大模型与传统NLP任务、多模态大模型、大模型创作、大模型与搜广推、大模型的agent调度、大模型学术性质的比赛和趣味大模型比赛等方面的研究进展
5. 作者认为,大模型的发展前景广阔,但也面临着一些挑战,需要不断探索和创新
阅读原文
2. 作者指出,国内大模型创业公司通过比赛推广自己的产品,提高大模型的推理能力是当前研究的重点,大模型的安全问题也备受关注
3. 作者还介绍了一些特定行业的大模型比赛,如医学、金融、编程、电信、教育、政务、法律等,以及一些特定任务的大模型比赛,如图分析、采购文件解读、数据库查询、知识引入等
4. 作者提到了大模型硬件落地的挑战,以及人机区分、大模型与数据处理、大模型与传统NLP任务、多模态大模型、大模型创作、大模型与搜广推、大模型的agent调度、大模型学术性质的比赛和趣味大模型比赛等方面的研究进展
5. 作者认为,大模型的发展前景广阔,但也面临着一些挑战,需要不断探索和创新