首页 » PHP教程 » php实现ai模子技巧_AI大年夜模型行业专题申报AI大年夜模型企业是若何炼成的

php实现ai模子技巧_AI大年夜模型行业专题申报AI大年夜模型企业是若何炼成的

访客 2024-11-19 0

扫一扫用手机浏览

文章目录 [+]

我们认为 AI 大模型是一个成本密集,人才密集和数据密集的家当,如何形成“数据-模型运用”的飞轮,是大模型企业成功的关键。
我们看到外洋企业中,微软&OpenAI、谷歌已经 逐步形成 AI 大模型的飞轮。
当前,海内百度、阿里、商汤、华为等积极加入,行业呈现“百 模大战”的竞争格局,是否能形成飞轮是末了胜出的关键。

微软&OpenAI 领先,谷歌追赶,Meta 防御性开源,英伟达转型算力云做事

php实现ai模子技巧_AI大年夜模型行业专题申报AI大年夜模型企业是若何炼成的

我们通过对外洋根本大模型演习企业进行了深度复盘。
微软和 OpenAI 是目前大模型技能水 平、产品化落地最为前沿的领军者,其对颠覆式创新的持续投入是当前领先的深层缘故原由。
谷歌技能储备丰硕,自有业务生态广阔并且是 AI 落地的潜在场景,但管理上未形成协力, 目前正在产品化、生态化加速追赶。
英伟达是 AI 芯片领军者,CUDA 框架构筑了其它芯片 公司难以超出的护城河,目前正在从硬件向算力云做事、MaaS 的商业模式转型。
Meta 在 产品化上进展缓慢,选择模型开源的防御性策略,以应对 OpenAI、谷歌等竞争对手的强势 闭源模型。
AWS 作为领先的云做事厂商,超算技能布局领先,但是在 AI 大模型竞争上的 应对稍显迟缓。

php实现ai模子技巧_AI大年夜模型行业专题申报AI大年夜模型企业是若何炼成的
(图片来自网络侵删)

科技巨子正通过其云打算部门,积极寻求与 AI 初创公司的互助

Al 行业进入大模型主导的时期,大模型的演习和推理对大量、可靠的打算资源和存储空间 提出哀求。
拥有云打算资源的科技巨子和研发大模型的 AI 初创公司积极寻求共赢互助,这 种互助模式类似云做事市场的代理人模式。
一方面,科技巨子常日以投资或收购的办法,选择一个或多个 AI 初创公司作为互助伙伴, 将大模型能力整合到自身产品中,以抢占布局大模型主导的 AI 市场;同时,通过云打算平 台供应大模型能力(MaaS),在云打算竞争中保持市场份额乃至突围。
另一方面,作为交 换,AI 初创公司将得到来自科技巨子的资金、强大云打算资源和根本举动步伐的支持来加快大 模型演习;同时也将更多的客户和 AI 运用处景,不仅能获取海量反馈数据来优化模型,也 便于让 AI 技能商业化以带来盈利。
因此,这种互助模式或许将导致 AI 市场构造与云做事市 场类似的高度集中的构造。

微软为 OpenAI 打造超级算力集群,并得到其技能的独家授权。
据微软 2020 年表露,微软 与 OpenAI 达成独家互助伙伴关系,并为 OpenAI 专属打造拥有超过 28.5 万张 CPU、1 万 张 GPU、网络连接能力为 400Gb/s 的 AI 超级打算机,用以支持 OpenAI 的大模型演习。
微软则将旗下多种产品与 OpenAI 技能集成,例如搭载 GPT-4 的新版 Bing 搜索引擎和 Microsoft 365 Copilot。
微软还推出了 Azure OpenAI 做事,使得企业客户可以在云平台上 直接调用 OpenAI 模型,通过云平台实现了大模型资源的按需分放。
谷歌联手 Anthropic,期望在天生式 AI 掀起的浪潮中巩固自身地位。
2023 年 2 月,谷歌向 AI 初创公司 Anthropic 投资了近 4 亿美元,持有后者约 10%股份。
双方签订了一份大型云 条约,谷歌云将为 Anthropic 供应大规模 TPU 和 GPU 加速支持,且将在谷歌云上支配其类 ChtaGPT 的谈天机器人产品 Claude。

亚马逊云科技(AWS)推出“中立”的托管平台 Amazon Bedrock,让企业级客户能快速、 安全和高性价比地调用多种大模型构建自己的程序。
差异于谷歌和微软已发布面向大众的 产品,AWS 瞄准的是企业客户,并且期望作为一个“中立”的天生式 AI 大模型托管平台, 不依赖于任何一家 AI 初创公司。
借助 Bedrock,企业级客户能通过 API 调用来自不同供应 商的 AI 模型,例如 AI21 Labs 的 Jurassic-2、Anthropic 的 Claude、Stability AI 的 Stable Diffusion 以及 AWS 自研模型 Titan。
此外,任何客户数据都不会被用于演习底层模型。

OpenAI:环球领先的 AI 初创企业

发展进程:从非营利开端到向营利性全面转型

OpenAI 是美国一家人工智能(Artificial Intelligence,AI)研究实验室,由非营利组织 OpenAI 和其营利组织子公司 OpenAI LP 所组成,公司致力于构建安全的通用人工智能(Artificial General Intelligence,AGI)以造福人类。
非营利开端:硅谷大牛云集,创建非营利组织以促进 AI 发展。
非盈利性的 AI 项目 OpenAI 于 2015 年宣告正式启动,由许多硅谷大牛共同创建,例如硅谷创业孵化器 Y Combinator CEO 的 Sam Altman、Google Brain 的 Ilya Sutskever、时任互联网支付处理平台 Stripe CTO 的 Greg Brockman 以及特斯拉的 CEO Elon Musk 等,许多创始人都曾是被誉为“深度学 习教父”Geoffrey Hinton 教授的学生。
公司把天生式预演习模型(Generative Pre-trained Transformer,GPT)确定为紧张研究方向,先后推出并开源预演习 NLP 模型 GPT-1,以 及采取迁移学习技能、能实现多个 NLP 任务的 GPT-2。

向营利性转型:与微软深度绑定,推出掀起天生式 AI 浪潮的 ChatGPT。
2018 年,由于 Elon Musk 担当 CEO 的 Tesla 等公司也在开拓 AI 技能,为避免潜在的利益冲突,Elon Musk 辞去 OpenAI 董事会席位。
为支撑大模型演习的高算力和资金需求,同年,有限营利公司 OpenAI LP 成立。
2019 年,OpenAI LP 接管微软 10 亿美元投资,与其达成独家互助伙伴 关系。
在强大算力和充足资金的助力下,OpenAI 沿着 GPT 路线持续发力,2020 年推出拥 有小样本泛化能力的 GPT-3,2022 年推出加入指示学习(Instruction Learning)和人工反 馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)的 InstructGPT, 并于 2022 年发布产品化的 ChatGPT,掀起了一股席卷环球的天生式 AI 浪潮。
全面转型:加快商业化步伐,构建生态圈。
2023 年 1 月,微软宣告与 OpenAI 长期互助伙 伴关系进入第三阶段,将连续向 OpenAI 投资数十亿美元,并加速产品与技能的整合。
2023 年 3 月,OpenAI 发布工程化的多模态 GPT-4,并与各个领域的软件开展互助;同月,OpenAI 发布 ChatGPT Plugins(ChatGPT 插件集),将 GPT 大模型能力与面向用户的第三方运用 程序互联,运用空间想象力广阔.

团队:年轻、背景豪华且高度聚焦技能

OpenAI 有着一支高人才密度、高效率的“特种兵”创始人团队。
首席实行官兼联合创始人 Sam Altman,曾任硅谷创业孵化器 Y Combinator 的 CEO,于 2015 年带领创建了 OpenAI, 致力于构建安全且人类级别 AI,是一位有着卓越的商业头脑和计策思维的领导者。
总裁兼 联合创始人 Greg Brockman,曾任互联网支付处理平台 Stripe 的 CTO,在 OpenAI 曾用九 个月韶光从“零”学起成为一名 1 顶 10 的 AI 工程师,是技能产品化的第一推手。
首席科 学家兼联合创始人 Ilya Sutskever,曾就职于 Google Brain,参与了深度学习框架 TensorFlow、天生式对抗网络(GAN)和序列到序列(Seq2Seq)模型的研究,在 OpenAI 领导了 GPT-1/2/3、DALLE 以及 ChatGPT 等模型的研发。
微软的 AI 研究实验室(Microsoft Research AI)是推进 AI 研究的主力团队。
实验室于 2017 年景立,从属于微软研究院,凝聚了来自感知、学习、推理和自然措辞处理等多个 AI 研究 子领域的顶尖科学家,旨在将不同学科结合起来以推进 AGI 技能研发。

ChatGPT 团队由一群年轻、背景豪华、履历丰富且高度聚焦技能研发的职员组成。
AMiner 与智谱研究发布的报告显示,团队规模虽不敷百人(共 87 人),但有着以下显著特色:1) 均匀年事 32 岁,“90 后”是主力军;2)学术能力和业界履历均突出,个中有 10 人来自谷 歌;3)技能职员近九成,高度聚焦技能研发;4)LLM 领域的履历丰富,1/4 团队成员曾 参与 Codex 项目。

算力:强大的算力支撑 GPT 开释大模型潜能

大模型的演习和推理对算力花费提出高哀求,AI 超级算力集群有力推动 GPT 系列发展。
2020 年,微软为 OpenAI 专属打造拥有超过 28.5 万张 CPU、1 万张 GPU 的 AI 超级打算 机,通过 Azure 云平台给予其算力支持,并担保该部分算力不会被 Azure 其他做事占用, 为 OpenAI 的大模型演习配置强大且灵巧的打算资源和根本举动步伐。
此外,芯片龙头企业 NVIDIA也与OpenAI保持紧密互助,供应最前辈的GPU以支持GPT系列模型的加速打算, 例如 2021 年 OpenAI 将 NVIDIA 环球首款 DGX AI 超级打算机用以演习 GPT-3.5。
微软正在自研 AI 芯片,紧张目标便是为 OpenAI 供应算力。
2023 年 4 月,据 The Information 宣布,微软正在秘密研发自己的 AI 芯片,代号雅典娜(Athena)。
雅典娜芯片由台积电代 工,采取 5nm 前辈制程,首个目标便是为 OpenAI 供应算力引擎,以替代昂贵的英伟达 A100/H100,节省本钱。
微软从 2019 年就开始研发这款芯片,目前已在测试阶段。

模型:坚持 GPT 技能路径,持续探索天生式 AI 潜力

OpenAI 从 18 年起一贯沿着 GPT 路线持续发力,通过 GPT1/2/3/3.5/4 等模型不断地进行 技能探索。
在模型架构上,GPT 是侧重天生的单向模型。
模型的根本架构是 Transformer 的解码器, 解码器的第一个自把稳力层加入了掩蔽机制,使得句子的未来信息被隐蔽,由于只能通过 学习当前和历史的文本信息,来对下一个字进行预测,因此属于单向的天生式模型。
天生 式模型比较理解式模型常日具有更高的灵巧性和更强的泛化能力,在运用时更具通用性。

不断扩大数据量和参数量进一步提升模型的表现。
GPT 系列模型构造秉承了不断堆叠 Transformer 的思想,通过不断提升演习语料的规模、网络的参数数量来完成 GPT 系列的 迭代更新。

InstructGPT 极大地提升了通用 AI 系统与人类意图的对齐能力。
InstructGPT 基于 GPT-3 的架构,引入了指示学习(Instruction Learning)来使得 AI 系统更遵照人类指令,减少产 生有害或缺点内容的可能性;同时,引入人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)演习机制,通过强化学习范式让天生式 AI 产出的内容更符合 人类意图。
多模态能力和预测扩展工具让 GPT-4 与万物互联。
2023 年 3 月,OpenAI 发布 GPT-4,模 型支持文本和图像输入的多模态能力,运用空间想象力巨大,有望重塑从浏览器到文档智 能等的软件交互。
同时,OpenAI 推出具备预测扩展性的深度学习堆栈,用极小算力本钱就 能可靠预测 GPT-4 不才游垂直领域运用的性能,让小本钱广泛试用成为可能。
在选择得当 的大模型后,模型微调让通用根本模型在细分领域的表现进一步提升。

运用:以产品为导向形成数据飞轮,逐步构建生态圈

推动技能商业化,形成模型调用、用户数据反馈和模型迭代的正反馈循环。
OpenAI 始终以 产品为导向,积极推出产品以迅速获取用户,从而得到用户反馈数据来演习出更好的模型。
2020 年,OpenAI 在发布 GPT-3 后快速开放商用 API 做事,让下贱客户通过 API 调用模型 能力。
在 ChatGPT 的演习过程中,则融入用户数据反馈:1)采取 GPT-3 API 获取的真实 用户要求微调根本模型;2)引入 RLHF 演习机制,采取人工标注的数据,通过人类的反馈进行强化学习,针对性地进行模型优化。
这使得ChatGPT在多个自然措辞任务如文书写作、 代码天生与修正、多轮对话等中展现出远超 GPT-3 的精良能力,并让有害和不真实输出有 效减少。

技能与产品的整合进一步推动数据飞轮的运转。
当前,微软将把 OpenAI 的技能与旗下各 运用生态的产品整合,涵盖企业级云打算、办公、底层代码天生和娱乐交互等各个运用层 面。

GPT-4 开始构建生态圈,与各个领域的软件开展互助。
Be My Eyes 是一款帮助全天下的盲 人以及低视力人群的产品,通过 GPT-4 的视觉输入功能,Be My Eyes 能够大幅度提高 Virtual Volunteer 对图片的理解程度。
措辞学习软件 Duolingo 推出 GPT-4 驱动的 Duolingo Max,能够赞助用户阐明答案对错,以及陪同用户进行角色扮演式地练习。
随着 AI 工具在 C 端渗透率逐步提升,各行业生态中的数据反馈越来越丰富和弘大,进一步推动数据飞轮 的快速运转。

谷歌:LLM 领域的奠基者

发展进程:从 AI 技能研发的领军者抵家当化进程的推动者

谷歌联手 AI 初创企业 DeepMind,率先展开 AI 领域的技能布局。
2014 年,谷歌收购 AI 初创公司 DeepMind。
DeepMind 持续探索仿照、生物科研、游戏操作、对话谈天等领域的 高性能算法,代表产品包括打败天下围棋冠军的 AIphaGo、精准预测蛋白质构造的 AIphaFold、降服电竞职业玩家的 AIphaStar、智能谈天机器人 Sparrow 等。
在 LLM 领域,谷歌是新技能研发的领军者和奠基者。
2015 年,谷歌开源了深度学习框架 TensorFlow,其具备灵巧、可扩展且易于支配等上风,成为运用最广泛的深度学习框架之 一,尤其在工业运用场于领先地位。
2017 年,谷歌发布 NLP 领域的里程碑——Transformer, 它首次引入把稳力机制,使得模型能更好地处理长文本和繁芜的措辞构造,大幅提高 NLP 任务的准确度和效率,为后来所有大措辞模型奠定根本架构。
2018 年,谷歌发布 3.4 亿参 数的大规模预演习模型 BERT,在理解繁芜的措辞构造和语义中表现精良,在多项 NLP 任 务上的效果都远远超过了传统的浅层架构,发布 NLP 范式转变为大规模预演习模型的方法。

谷歌加快天生式 AI 家当布局。
OpenAI 于 2022 年底推出的 ChatGPT 掀起了席卷环球的生 成式 AI 浪潮,使得 GPT 能力在各个行业和领域不断拓展,并对谷歌 AI 领先地位构成寻衅。
作为应对,谷歌于 2023 年 2 月宣告通过投资联手 AI 初创公司 Anthropic,将在谷歌云上部 署 ChatGPT 的有力竞品 Claude,并于同月推出自研的基于 1270 亿参数大模型 LaMDA 的 谈天机器人 Bard。

团队:Google DeepMind 搜集谷歌 AI 领域人才

经由两轮人才整合,当前谷歌紧张 AI 研发团队合并为 Google DeepMind。
为 2023 年 2 月,谷歌旗下专注 LLM 领域的“蓝移团队”(Blueshift Team)宣告加入 DeepMind,以共 同提升 LLM 技能的能力。
4 月,谷歌宣告正式将谷歌“大脑”和 DeepMind 两大团队合并, 组成“Google DeepMind”部门。
Google DeepMind 部门首席实行官将由 DeepMind 联合 创始人兼首席实行官 Demis Hassabis 担当;原谷歌大脑团队卖力人 Jeff Dean 转任谷歌首 席科学家,领导谷歌 AI 干系的最关键和计策性的技能项目,个中紧张项目便是系列多模态 AI 模型。
AI 领域的天下级人才与打算能力、根本举动步伐和资源的搜集,将显著加快谷歌在 AI 方面探索的进展。

算力:TPU 系列芯片和新一代超级打算机支撑 AI 大模型演习和创新

TPU(Tensor Processing Unit)是谷歌专门为高效打算和加速神经网络演习和推理过程而 设计的专用芯片(Application-Specific Integrated Circuit,ASIC)。
2016 年,谷歌发布第 一代 TPU,成为 AlphaGo 背后的算力。
与 GPU 比较,TPU 采取低精度打算,在险些不影 响深度学习处理效果的条件下大幅降落了功耗、加快运算速率。
最新一代的 TPU v4 发布于 2021 年,在相似规模的系统演习中,TPU v4 比 A100 打算速率快 1.15-1.67 倍、功耗低 1.33-1.93 倍。
TPU v4 卓越的性能、可伸缩性和灵巧性使其成为支持 LaMDA、MUM、PaLM 等大规模措辞模型的主力产品。

谷歌推出新一代超级打算机 A3 Virtual Machines,为大型措辞模型创新供应动力。
谷歌于 2023 年 5 月的 I/O 大会发布 A3 超级打算机,其采取第 4 代英特尔至强可扩展处理器、2TB DDR5-4800 内存以及 8 张英伟达 H100。
此外,A3 是首个利用谷歌定制设计的 200 Gbps IPU 的 GPU 实例,GPU 间的数据传输绕过 CPU 主机,通过与其他虚拟机网络和数据流量 分离的接口传输,网络带宽比较 A2 增加 10 倍,具有低延迟和高带宽稳定性。
A3 超级打算 机专门设计用于演习和做事对打算资源哀求极高的 AI 大模型,这些模型将推动当今生成式 AI 和大型措辞模型的创新进展.

框架:领先的自研深度学习平台 TensorFlow

2015 年,谷歌开源了深度学习框架 TensorFlow,其是当前 AI 领域主流开拓工具之一。
TensorFlow 采取打算图来表示神经网络打算过程和数据流动,从而实现高效的并行数据处 理和运算,尤其在大规模分布式演习方面具有上风。
TensorFlow 还供应了广泛的工具和 API, 可用于各种类型的深度学习运用,例如打算机视觉、自然措辞处理和语音识别等领域。
此 外,TensorFlow 具有很好的可移植性,能够在多种硬件设备和操作系统上运行。
目前, TensorFlow 生态系统完备,为研发职员供应了从模型构建到支配和运营管理的全套工具链, 是深度学习领域运用最广泛的框架之一,特殊在工业级领域运用场于领先地位。

模型:各技能路线的模型储备丰富,多模态大模型实现人机交互领域打破

谷歌在 AI 各技能路线上积累了丰富的模型储备。
从根本架构的角度,其技能路线紧张可以 分为三个方向: 1)基于 Transformer 纯编码器(Encoder-only):与单向天生的 GPT 模型不同,纯编码 器模型是侧重理解的双向模型,通过并行打算和多头把稳力层来学习单词之间的干系性, 实现高下文理解。
紧张模型包括措辞模型 BERT、LaMDA、PaLM、基于 LaMDA 的对话模 型 Bard 以及多模态视觉措辞模型 PaLM-E。
2)基于 Transformer 纯解码器(Decoder-only):纯解码器是单向天生模型,紧张用于句 子天生。
紧张模型包括谷歌的措辞模型 FLAN、DeepMind 的措辞模型 Gopher。
3)基于 Transformer 统一架构(Encoder-Decoder):统一模型框架能兼容以上两类模型 的理解和天生的下贱任务。
紧张模型包括措辞模型 T5、对话模型 Sparrow。

多模态视觉措辞大模型 PaLM-E 实现人机交互领域的重大飞跃。
2023 年 3 月,谷歌发布 5620 亿参数的多模态视觉措辞模型 PaLM-E,是 PaLM-540B 措辞模型与 ViT-22B 视觉模 型的结合。
与传统的措辞模型比较,PaLM-E 具有更高的效率和灵巧性,可以根据输入的复 杂度和任务的需求动态地激活不同的模块。
同时,PaLM-E 可以通过文本、图像和视频等多 种类型的输入来理解和掌握机器人等实体化系统,从而实现具象化的能力。
PaLM-E 的发布 代表着人机交互领域的一次重大飞跃,在工业、商业、办公等领域的机器人运用上有着巨 大的想象力。

最新的大措辞模型 PaLM 2 在多措辞能力、代码能力和逻辑能力上得到显著提升。
谷歌于 2023 年 5 月的 I/O 大会发布 PaLM 2,模型基于 2022 年 10 月提出的 AI 新架构 Pathways, 并基于 TPU v4 和 JAX 框架演习。
在措辞能力上,PaLM 2 的演习数据超过 100 种措辞, 能理解、翻译和天生更准确和多样化的文本;同时,PaLM 2 在 20 种编程措辞上进行演习 以提升代码能力。
在逻辑能力上,PaLM 2 在推理、数学任务测试中显著优于 PaLM,并与 GPT-4 相称。
此外,谷歌在 PaLM 2 的根本上还演习了用于编程和调试的专业模型 Codey, 安全知识模型 Sec-PaLM 以及医学知识模型 Med-PaLM 2。
模型压缩技能将加速 AI 技能与智能终真个领悟。
PaLM2 紧张包含 4 种规格(Gecko、Otter、 Bison 和 Unicorn),个中体积最小的 Gecko 可以在手机上运行,每秒可处理 20 个 Token, 大约相称于 16 或 17 个单词。
模型压缩技能或将成为实现 AI 大模型在边/端支配的核心技 术,加速 AI 技能与智能终端领悟。

运用:积极布局天生式 AI 运用以欢迎寻衅

谷歌在过去更看重揭橥论文,未能及时将成果产品化。
谷歌在各种路线上发布了很多模型, 论文成果丰富,但均未能走出象牙塔落地;同时,旗下 DeepMind 研发的根本措辞模型 Gopher、Chinchilla 和对话模型 Sparrow 也尚未产品化。
积极布局天生式 AI 领域运用以欢迎寻衅。
谷歌于 2023 年 2 月发布基于 1370 亿参数大模 型 LaMDA 的 AI 谈天机器人 Bard。
相较于 ChatGPT,Bard 的上风在于:1)能够利用来 自互联网的信息供应最新、高质量的回答;2)瞬间天生文本块;3)给出的答案包含三个 不同的版本或草稿,用户可以切换个中任何一个答案。
此外,谷歌在 4 月发布了 Bard 的更 新版本,升级了数学与逻辑能力。
2023 年 5 月 I/O 大会,谷歌展示了 Bard 支持的笔墨、 代码、图像天生与理解能力,并重点强调了 Bard 与谷歌运用,以及外部其他运用的协同 能力。
此外,谷歌通过投资联手 AI 初创公司 Anthropic,押注 ChatGPT 的有力竞品 Claude。

面向开拓者,谷歌开放 PaLM 的 API,并发布工具 MakerSuite,帮助开拓者们快速构建生 成式 AI 运用。
PaLM API 将为开拓者供应面向对轮交互而优化的模型,如内容天生与对话; 也能为开拓者供应择要、分类等多种任务的通用模型。
工具 MakerSuite 则能帮助开拓者快 速、轻松地构建和调度自定义模型,在浏览器中就能快速测试和迭代调度后的模型。

PaLM 2 赋能超 25 种功能和产品的升级,包括办公套件、谈天机器人以及企业级 AI 平台。
在 PaLM 2 的加持下,Workspace 推出的 AIGC 工具包 Duet AI,个中包含 Google Docs 和 Gmail 中的智能写尴尬刁难象、Google Slides 中的文本天生图像、演讲备注以及 Google Meet 的会议择要天生等功能。
升级版 Bard 不仅将支持图文多模态,还将接入网络以实时网页搜 索;同时,大量 Bard+tools 的组合将推出,Bard 有望深度领悟到 Google 所供应的原有工 具中。
ToB 运用方面,Vertex AI 凑集了谷歌研发的根本模型,用户可按需调用模型并对模 型的参数权重进行微调;此外,Vertex AI 还能够根据内部数据建立企业版本的搜索引擎。

英伟达:AI 时期的芯片领路者

发展进程:英伟达的二十年辉煌史

英伟达成立于 1993 年,是环球最大的 GPU 供应商,也是 AI 时期的芯片领路者。
上市初期 公司紧张关注 PC 图形业务,与 PC 出货量具备高度干系性,紧张以 OEM 的发卖模式。
后 续随着智好手机、平板电脑等消费电子的运用涌现,公司敏锐捕捉到终端需求的变革,将 业务重心向高端游戏显卡市场过渡。
按照过往履历,英伟达基本每 1-2 年更新一次游戏 GPU 架构,凭借强大的性能和生态上风迅速提升在环球独立 GPU 市场市占率,近几年均保持在 70%以上的份额。
进入 2018 年数字货币价格大幅下跌,数据中央开始承接公司新增长点, 2020 年该业务营收增速超过 120%。
此外,我们看到英伟达持续以 CUDA 为核心构建护城 河,结合 CPU+GPU+DPU 三大硬件,形成统一的生态闭环,且在各细分领域形玉成套解 决方案.

第一阶段:从图形芯片到游戏显卡,确定主流赛道形成稳定现金流

持续推动业务升级,计策核心转移至高端游戏卡领域。
在 GPU 推出初期,以 OEM 形式销 售显卡是公司主要的收入来源之一,市场终端运用以 PC 为主,条记本及平板的遍及度尚低, 英伟达的产品与 PC 出货存在较高程度的绑定。
随着半导体行业发展,终端运用趋于多元 化,PC 市场热度从 2012 年起开始涌现明显低落。
此外,随着集成显卡性能的提升,独立 桌面显卡出货情形也开始涌现衰退。
在此市场环境下,英伟达将计策核心转移至高端游戏 卡领域。
在 2010-2015 年在环球 PC 市场逐步倒退的情形下,英伟达游戏显卡出货量 5 年 实现 9%的年复合增长,发卖均价/收入分别呈现 11%/21%的年复合增长。
2019 年公司游戏 业务已经为其贡献了过半营收,而 OEM/IP 业务收入占比低落至仅 6%。

第二阶段:构建通用打算生态,数据中央业务实现爆发式增长

推出革命性架构 CUDA,进入发展高速期。
2006 年英伟达研发出了能够让 GPU 打算变得 通用化的 CUDA(Compute Unified Device Architecture)技能,利用 GPU 并行处理能力 来应对繁芜的打算,次年公司就在图形市场取得飞跃式增长,同时 Tesla GPU 的推出让英 伟达成功进入通用打算时期。
经由二十多年的发展,公司已形成包括:面对 PC 和条记本的 GeForce 系列,面对事情站的 Quadro 系列,面对超大型打算的 Tesla 系列和面对移动处理 器的 Tegra 系列。

第三阶段:AI 加持下,游戏、数据中央、自动驾驶三驾马车助力公司迈向千亿美金市场

英伟达经由前期的路径选择已经逐步清晰了三条紧张赛道,同时在人工智能飞速迭代的情 况下,从元宇宙平台搭建到帮忙内容创作到 AI 时期的“台积电”定位,精准把握每次技能 变革: 1)游戏方面:英伟达背靠强大的 GPU 实力不断在游戏行业进行创新,推出 DLSS、光芒 追踪等技能提高游戏体验,并进一步推动云端游戏业务发展。
23 年由于 PC 端出货减少短 期内影响了游戏业务增长,但未来 5 年游戏业务 CAGR 仍有望达到 10%。
2)数据中央方面:除了演习/推理芯片性能更新,英伟达更侧重于 AI 超级打算机的打造和 对全体做事器家当链赋能。
其在 GTC2023 推出的 NVIDIA DGX 超级打算机,将成为大语 言模型实现打破背后的引擎。
3)自动驾驶方面,英伟达在硬件上推出了自动驾驶汽车的平台 DRIVE Hyperion、算力达 每秒 254 TOPS 的系统级芯片 DRIVE Orin SoC、新一代集中式车载打算平台 DRIVE Thor。
22 年秋季 GTC 大会公布的中心打算引擎 Drive Thor 芯片由 Grace CPU、Hopper GPU 和 下一代 GPU 组成,可供应 2000TOPS 算力,估量将在 25 年搭载于极氪。
软件方面则推出 了操作系统 DRIVE OS、AI 赞助驾驶平台 DRIVE Chauffeur、可实现对话式 AI 等智能做事 的 DRIVE Concierge 等。
过去 5 年汽车业务 CAGR 为 10%,仅占 FY23 收入的 3%,但未 来会随着产品逐渐落地而稳步提升。
黄仁勋在 22年9月的Computex大会上估量未来6年, 将能够创造 110 亿美元营收代价。

团队:灵魂人物勾引家当变革,数次收购完善业务版图

灵魂人物带领数次决策,英伟达勾引家当变革。
英伟达由黄仁勋与 Chris Malachowsky、 Curtis Priem 于 1993 年 4 月共同创立,创业初期英伟达仅是数十家 GPU 制造商中的一员, 但凭借黄仁勋非凡的见识和蔼魄,从 1999 年大规模裁员后发布天下首款 GPU 拿下大客户 微软,到 2006 年推出 CUDA 技能,到 2012 年宣告打算卡与游戏卡分离成为与 AMD 竞争 迁移转变点,英伟达引领了显卡行业的每一次重大变革,成为霸占独立显卡 80%以上份额的巨 头。
英伟达不断通过收购完善业务版图。
英伟达早期的竞争对手 3dfx 在 2000 年被英伟达收购, 3dfx 是 20 世纪 90 年代显卡芯片的市场领导者,主营业务包括显卡以及 3D 芯片,在 2000 年时由于在一场与 NVIDIA 的官司中败诉而被 NVIDIA 仅仅以 7000 万美元和 100 万美元的 股票收购,并在 2002 年年底破产。
另一具有代表性的案例是末了以监管问题失落败告终的 2020 英伟达收购 ARM 事宜,如若达成或将打通 ARM CPU 的弘大生态系统,由此也可以 看出英伟达利用收购不断扩大商业版图,营造完全生态的动机。

商业模式:深度绑定台积电走 OEM 模式,轻装上阵重视研发投入

深度绑定台积电,外包制造环节轻资产专注研发。
1998 年,公司于台积电正式建立策略联 盟伙伴关系。
从一开始,黄仁勋就致力于使英伟达成为一家无晶圆厂的芯片公司,通过将 制造芯片用度外包以降落成本支出。
OEM 模式虽然令投资者担忧生产外包的风险,但另一 面英伟达将腾出的资金用于研发,逐渐建立起了高技能壁垒。
自上市以来,英伟达研发投 入绝对值基本呈现持续增长,单季度研发用度率均匀值超 20%,2022 年公司研发投入达 73 亿美元。
公司研发投入基本上全部用于 GPU 产品,长期研发投入与积累也使公司产品 技能壁垒及竞争力得以充分提升。
拓展云做事商业模式,将与企业、云厂商实现互惠共赢。
在硬件制造的根本上,英伟达近 期还推出了 NVIDIA AI Foundations,定位为“超算云做事+模型代工厂”,用于企业构建 自定义措辞模型和天生式 AI。
NVIDIA AI Foundations 包括措辞、视觉和生物学模型构建 做事,分别名为 Nemo、Picasso 和 BioNemo,利用企业专有数据进行演习,用于处理特 定领域的任务。
我们认为超算云做事+模型代工厂的商业模式是英伟达作为芯片送水人在大 模型时期的商业模式自然延伸。

硬件迭代:演习/推理芯片性能参数持续领先对手

芯片性能上风优于竞争对手,在推理芯片方面将连续扩大上风。
英伟达常日 1-2 年旁边更 新一次架构,2015 年以来经历了 Pascal、Volta、Turing、Ampere 和 Hopper 期间,其制 程也从 16nm 快速推进到 7nm 和 4nm,估量下一代 Blackwell 架构 GPU 将延续与台积电 互助选用 3nm 工艺。
为了加速在稠浊精度打算、光芒追踪领域的发展,英伟达在 Volta 架 构引入 Tensor Core 来加速 AI 处理,而在 Turing 架构上加入 RT Core 来实现光芒追踪的 稠浊渲染。
从性能比拟来看,英伟达在 22 年初推出的 H100 在 AI 性能方面速率比 A100 提 升 9 倍,在大型措辞模型上推理速率高 30 倍,在部分性能上优于 21 年 12 月 AMD 推出的 高端 GPU MI250,在演习芯片具备较强的话语权。
而在推理方面,只管算力哀求比演习端更低,市场需求更大也更为细分,英伟达面对的竞 争更激烈,但公司的推理侧办理方案更具备通用性、低延时、低功耗,我们认为演习真个 成功有望在推理端延续。

软件:CUDA 构建完全生态,CUDA-X AI 构造拉开巨大差距

CUDA 是一种将 GPU 作为数据并行打算设备的软硬件体系,不须要借助图形学 API,而 是采取了比较随意马虎节制的类 C 措辞进行开拓,开拓职员能够利用熟习的 C 措辞比较平稳地 从 CPU 过渡到 GPU 编程。
与以往的 GPU 比较,支持 CUDA 的 GPU 在架构上有了 显著的改进:1)采取了统一处理架构,可以更加有效地利用过去分布在顶点着色器和像素 着色器的打算资源;2)引入了片内共享存储器。
两项改进使得 CUDA 架构更加适用于通 用打算,加上 2008 年后苹果、AMD、和 IBM 推出的 OpenCL 开源标准,GPGPU 在 通用打算领域迅速发展。
英伟达在 CUDA(并行编程模型)上的计策眼力及持续坚持,是如今形成软硬凑集生态的 最核心壁垒:1)易于编程与性能提升:CUDA 包含 CUDA 指令集架构(ISA)以及 GPU 内部的并行打算引擎,采取通用并行打算架构,使 GPU 能够办理繁芜打算问题,相较 AMD 采纳的通用 OpenCL 平台而言,并行打算能力可提高 10-200 倍不等;2)不断丰富的生态 系统:英伟达通过十余年迭代扩充已形成丰富的函数库、API 指令、工具链、运用程序等, 对开拓者友好程度更高。
在 CUDA 根本上英伟达进一步推出 CUDA-X AI 软件加速库,供应 对深度学习、机器学习和高性能打算的优化功能,进一步拉开与竞争对手在 AI 时期的差距。

运用:以 Omniverse 为核心,推进工业/设计/医疗/零售/自动驾驶等多行业生态

英伟达一贯是行业创新的勾引者,从 2021 年开始公司 GTC 大会整体框架更新为以底层技 术上环绕元宇宙进行的大量软件新技能布局。
Omniverse 作为公司创建 AI 系统的数字孪生 的虚拟天下的根本平台,借助 MDL、Phys 与 RTX 等技能,以逼真的建模及数字工业化手 段将 AI 创作赋能到实际运用中,如用于构建医疗设备的 AI 打算平台 Clara Holoscan、为 机器人开拓和 AI 打造的加速平台 Isaac、自动驾驶汽车 (AV) 的端到端模组化开拓平台和 参考架构 DRIVE Hyperion 等。
除 Omniverse 外,英伟达还在生物医疗、光刻、量子打算、 物流等浩瀚领域与客户展开互助、建立独立加速库,帮助客户实现高效研发。
未来我们认 为软件和运用生态将成为打算芯片的竞争关键,而英伟达在垂直行业领域的布局为其构筑 了难以打破的竞争壁垒。

Meta:AI 和元宇宙双轮并驱

发展进程:环球最大社交媒体巨子拥抱元宇宙和 AIGC

Meta 是环球社交网络龙头企业。
2004 年 Mark Zuckerberg 创立 Facebook,2021 年公司 改名为 Meta Platforms,取意 Metaverse (元宇宙),表示了公司在虚拟天下中事情和娱乐的 愿景。
Meta 紧张经营社交网络做事、虚拟现实、元宇宙等产品,旗下拥有 Facebook、 Instagram 和 WhatsApp 等社交软件。
在大模型领域,Meta 奋起直追开源多个大模型。
2017 年,公司开源了深度学习框架 PyTorch, 是深度学习领域最常用的框架之一。
2023 年 2 月,Meta 推出针对研究社区的大型措辞模 型 LLaMA,在天生文本、对话、总结书面材料、证明数学定理或预测蛋白质构造等更繁芜 的任务方面有很大的前景。
4 月,Meta 发布机器视觉领域首个用于图像分割的通用大模型 SAM 和其演习数据集 Segment Anything 1-Billion,将自然措辞处理领域 prompt 范式延展 到 CV 领域,为 CV 领域带来革命性技能打破。
5 月,Meta 发布大规模多措辞语音 MMS 项目,将彻底改变语音技能,支持 1,107 种措辞的语音转笔墨和笔墨转语音以及超过 4,000 种措辞的措辞识别。
同月,Meta 发布 650 亿参数措辞模型 LIMA,无需 RLHF 就能对齐, 在人类评估结果中乃至可与 GPT-4、Bard 和 DaVinci003 相媲美。

团队:AI 人才汇聚,旨在创建 AIGC 顶级产品团队

Meta 拥有一支履历丰富的核心团队。
创始人、董事长兼首席实行官 Mark Zuckerberg,曾 就读于哈佛大学,2004 年创立了 Facebook。
首席运营官 Javier Olivan,持有斯坦福大学 工商管理硕士学位和纳瓦拉大学电气和工业工程硕士学位,在加入公司之前曾担当西门子 移动的产品经理。
首席技能官 Andrew Bosworth,毕业于哈佛大学,曾任微软 Visio 开拓人 员,2017 年创建了公司的 AR/VR 组织,领导公司发展 AR,VR,AI 和消费者硬件等。

Meta Al 是 Meta 旗下的人工智能实验室。
2013 年,深度学习教授和图灵奖得主 Yann LeCun 创建 FAIR,其最初目标是研究数据科学、机器学习和人工智能。
2014 年,统计学先驱 Vladimir Vapnik 加入 FAIR。
2018 年,IBM 大数据集团前首席技能官 Jérôme Pesenti 担当 FAIR 总裁一职。
2021 年,FAIR 更名为 Meta Al。
2022 年,Meta AI 在两周内预测了 6 亿 个潜在蛋白质的 3D 形状。
2023 年,Zuckerberg 宣告将成立专注 AIGC 的顶级产品团队, 由卖力 AI 和机器学习的副总裁 Ahmad Al-Dahle 领导,队内共有数十名成员,汇聚了过去 分散在公司各地团队的 AI 人才。

算力:拥有环球最快 AI 超级打算机 AI RSC,推出自研 AI 芯片 MTIA

AI RSC 是“环球最快 AI 超级打算机”之一。
AI RSC(AI Research SuperCluster)是 Meta 用于演习人工智能模型的 AI 超级打算机。
2017 年,公司设计自研第一代算力举动步伐, 在单个集群中拥有 2.2 万个英伟达 V100 Tensor Core GPU,每天可实行 35,000 个演习任 务。
2020 年,公司决定加速算力增长的最佳办法是从头开始设计全新打算根本架构,以利 用新的 GPU 和网络构造技能。
公司希望新 AI 超算能够在 1 EB 字节大的数据集上演习具有 超过一万亿个参数的模型,仅从规模上看,这相称于 36,000 年时长的高清晰度视频。
2023 年 5 月,Meta 宣告已经完成了 RSC 的第二阶段扩建,使其成为天下上最快的 AI 超级计 算机之一,其稠浊精度打算性能靠近 5 exaflops。

Meta 推出自研 AI 芯片 MTIA,入场大模型武备竞赛。
2020 年,Meta 设计了第一代 MTIA 芯片,采取 7 纳米工艺,可以从其内部 128 MB 内存扩展到高达 128 GB,并且在 Meta 设 计的基准测试中,它处理了低等和中等繁芜度的 AI 模型,效率比 GPU 高。
2023 年 5 月, Meta 首次推出 AI 定制芯片——MTIA(Meta Training and Inference Accelerator),是加速 AI 演习和推理事情负载的芯片“家族”的一部分。
MTIA 是一种 ASIC,一种将不同电路组 合在一块板上的芯片,许可对其进行编程以并行实行一项或多项任务。
MTIA 采取开源芯片 架构 RISC-V,它的功耗仅有 25 瓦,远低于英伟达等主流芯片厂商的产品功耗。

框架:PyTorch——深度学习领域最受欢迎的框架之一

PyTorch 是 Facebook 于 2017 年推出的一个基于 Python 的开源深度学习框架,具有灵巧 性、易用性和高性能,是深度学习领域最受欢迎的框架之一,在 GitHub 上获超 66,500 颗星。
在 ML 领域的紧张会议上提交事情成果的研究职员中,超过 80%利用了 PyTorch 框架。
PyTorch 支持在 GPU 上进行高速打算,在演习时拥有更快的速率和更好的性能,从而能大 规模提高研究效率。
PyTorch 已成为亚马逊网络做事、微软 Azure 和 OpenAI 等浩瀚公司 和研究机构构建 AI 研究和产品的根本。
2022 年,公司正式发布 PyTorch 2.0,它供应了相 同的 eager mode 和用户体验,同时通过 torch.compile 增加了一个编译模式,在演习和推 理过程中可以对模型进行加速,从而供应更佳的性能和对动态形状和分布式的支持。

模型:布局天生式 AI,开源措辞、视觉等大模型

措辞大模型#1:LLAMA 百亿参数模型在大多数基准上赛过 GPT-3。
2023 年 2 月,Meta 推出了 LLaMA(通用措辞大模型),目前供应 7B、13B、33B、65B 四种参数规模,都至 少经由 1T token 的演习:1)LLaMA 体量小、利用本钱低且效果好:Meta 表示,LLaMA-13B 在多数基准测试下(如知识推理、闭卷问答、阅读理解、偏见性等)优于 GPT-3(175B), 且可在单块 V100 GPU 上运行;LLaMA-65B 与目前 LLM 中最好的 Chinchilla-70B 和 PaLM-540B 旗鼓相当;2)LaMA 对非商用研究用例开源:LLaMA 不作商用目的,免费供 给研究职员,目前 Meta 在 GitHub 上供应了精简版 LLaMA。
基于 LLaMa 衍生出多个开源模型,例如此坦福的 Alpaca、伯克利的 Vicuna、Kaola 和 ColossalChat,以及哈工大基于中文医学知识的华驼。
加州大学伯克利分校打算机科学教 授 Ion Stoica 表示,免费的人工智能模型现在在性能上与谷歌和 OpenAI 的专有模型“相称 靠近”,大多数软件开拓商终极都会选择利用免费模型。

措辞大模型#2:LIMA 无需 RLHF 就能对齐,媲美 GPT-4。
2023 年 5 月,Meta 发布 650 亿参数措辞模型 LIMA,仅在 1,000 个精心挑选的样本上微调 LLaMa-65B 且无需 RLHF, 就实现了与 GPT-4 和 Bard 相媲美的性能。
GPT-4 背后的天生领域演习新范式 RLHF 依赖 于大量的人工标注和评估,Meta AI 等机构的研究者提出“表面对齐假说”,指出大型措辞 模型中险些所有的知识都是在预演习期间学习的,并且想让模型产生高质量的输出只须要 部分必要的指令调优数据,这将有助于大型措辞模型降落演习本钱。

语音大模型#1:MMS 模型可识别 1100+措辞,旨在保护天下语种的多样性。
2023 年 5 月, Meta 推出大规模多措辞语音项目 MMS(Massively Multilingual Speech)。
现有的语音识别 模型仅覆盖约 100 种措辞,仅为地球上已知的 7,000 多种措辞的小部分,MMS利用 wav2vec 2.0 的自监督学习,支持 1,107 种措辞的语音转笔墨和笔墨转语音以及超过 4,000 种措辞的 措辞识别。
MMS 用圣经演习,与 OpenAI Whisper 比较,利用 MMS 数据演习的模型中支 持 11 倍以上的措辞,且在 54 种措辞上的均匀缺点率仅为一半。

CV 大模型#1:SAM 模型可“分割统统”,CV 领域迎来 GPT-3 时候。
2023 年 4 月,Meta 推出首个可“任意图像分割”的根本模型——SAM(Segment Anything Model),它具有强 大的一键抠图功能,能从照片或视频中对任意工具实现一键分割,且能够零样本迁移到其 他任务,为 CV 领域开启了新的篇章。
Meta 还发布了有史以来最大的分割数据集 Segment Anything 1-Billion (SA-1B),拥有超过 11 亿个分割掩码,掩码具有高质量和多样性。

CV 大模型#2:DINOv2 视觉大模型完备自监督,无需微调。
2021 年 4 月,Meta 公开了 DINO 算法,通过自监督学习,DINO 可以从大量未标注的图像中提取视觉特色,这些特色 对付各种下贱打算机视觉任务非常有用,例如图像分类、物体检测和语义分割。
2023 年 4 月,Meta 开源 DINOv2 版本,比较较原始的 DINO 模型,DINOv2 能够对视频进行处理, 天生比原始 DINO 方法更高质量的分割结果。
模型除了具备图像的识别、分类、分割处理 等图像特色提取功能外,还具有语义分割,完善了以图搜图功能。

多模态模型#1:ImageBind 用图像对齐六模态,旨在实现感官大一统。
2023 年 5 月,Meta 开源 ImageBind 新模型,是一个像人类一样结合不同感官的新 AI 模型,能够同时从文本、 图像/视频、音频、深度(3D)、热能(红外辐射)和惯性丈量单元(IMU)等六种不同的模 态中学习。
ImageBind 可以利用文本、音频和图像的组合来搜索照片、视频、音频文件或 文本。
ImageBind 用于丰富的多媒体搜索、虚拟现实乃至机器人技能,可以和 Meta 内 部的虚拟现实、稠浊现实和元宇宙等技能相结合

AWS:环球卓越的云做事平台发力 AIGC 市场

发展进程:环球领先的云做事平台强势入局 AIGC

AWS 是亚马逊专门卖力云打算的子公司。
亚马逊成立于 1994 年,是目前环球最大的互联 网线上零售商之一。
AWS(Amazon Web Services)于 2016 年正式推出,是亚马逊公司 旗下的子公司,向个人、企业和政府供应按需即用云打算平台以及运用程序接口,并按照 利用量计费。
2002 年 7 月,亚马逊的“Amazon.com Web Services”上线了首款 Web 服 务。
2006 年 3 月,AWS 推出了 Amazon S3 云存储,随后于 2006 年 8 月推出了 EC2。
AWS 四项技能创新助力 AIGC 发展。
2023 年 4 月,AWS 正式入局 AIGC,推出自有根本 模型 Titan 和 AIGC 做事 Bedrock,以及 AI 编程助手 Amazon CodeWhisperer,并宣告基 于自研推理和演习 AI 芯片的最新实例 Amazon EC2 Trn1n 和 Amazon EC2 Inf2 正式可用。

算力:供应最具本钱效益的天生式 Al 云根本举动步伐

Inferentia 是 ML/DL 推理(Inference)加速器。
2018 年 11 月,AWS 发布首款云端 AI 芯片 Inferentia,旨在以极低本钱交付高吞吐量、低延迟推理性能。
2021 年 1 月,AWS 推 出基于 AWS Inferentia 加速器的 Amazon EC2 Inf1 实例,与当前一代基于 GPU 的 Amazon EC2 实例比较,吞吐量最高可提高 2.3 倍,每次推理的本钱降落多达 70%。
2023 年 4 月, AWS 推出配备 Amazon Inferentia2 芯片的 Amazon EC2 Inf2 实例。
与第一代 AWS Inferentia 比较,Inferentia2 的吞吐量提高了 4 倍,延迟低至前者的 1/10.

Trainium 是 ML/DL 演习(Training)加速器。
2020 年 12 月,AWS 发布第二款定制的机 器学习芯片 AWS Trainium,支持 TensorFlow、PyTorch 和 MXNet 等框架。
2022 年 10 月,AWS 推出 Amazon EC2 Trn1,基于 Trainium 的 EC2 Trn1 实例与基于 GPU 的同类实 例比较,可节省高达 50% 的演习本钱。
2023 年 4 月,AWS 推出配备 AWS Trainium 的 Amazon EC2 Trn1n 实例,比较于 Trn1 网络带宽提升了 1 倍,从之前的 800GB 旁边提升 到 1.6TB,旨在为大型的网络密集型的模型演习来利用。

框架:一站式机器学习平台 Amazon SageMaker 助力

AIGC 2017 年,AWS 推出 Amazon SageMaker,是一项完备托管的做事,可通过完备托管的基 础举动步伐、工具和事情流程为任何用例准备数据并构建、演习和支配机器学习(ML)模型。
它支持 MXNet、TensorFlow、PyTorch 等多种深度学习框架,同时供应了许多其他工具和 功能。
2022 年,AWS 与 Al 绘画独角兽 Stability Al 宣告组成同盟,成为 Stability AI 构建和 演习 AI 内容天生模型的“首选云互助伙伴”。
在 IDC2022 年发布的《2022 年亚太地区(不 含日本)AI 生命周期软件工具和平台供应商评估》中,AWS 凭借 Amazon SageMaker 强 大、丰富且灵巧的功能和广泛的交付能力及对开源项目的持续贡献,获评 AI 生命周期软件 领导者。

模型:推出 Titan 大模型及中立托管平台 Bedrock

2023 年 4 月,AWS 推出的自研措辞大模型 Titan。
Titan 系列模型分为两种,一种是用于内 容天生的文本模型 Titan text,可以实行诸如撰写博客文章和电子邮件、总结文档和从数据 库中提取信息等任务。
另一种是可创建矢量嵌入的嵌入模型 Titan Embeddings,能够将文 本输入(字词、短语乃至是大篇幅文章)翻译成包含语义的数字表达的大措辞模型。
中立托管平台 Amazon Bedrock 让 AIGC 变得普惠。
2023 年 4 月,AWS 推出 Amazon Bedrock,让企业级客户能快速、安全和高性价比地调用多种大模型构建自己的程序。
差异 于谷歌和微软已发布面向大众的产品,AWS 瞄准的是企业客户,并且期望作为一个“中立” 的天生式 AI 大模型托管平台,不依赖于任何一家 AI 初创公司。
借助 Bedrock,企业级客户 能通过 API 调用来自不同供应商的 AI 模型,例如 AI21 Labs 的 Jurassic-2、Anthropic 的 Claude、Stability AI 的 Stable Diffusion 以及 AWS 自研模型 Titan。

产品:免费向个人开放 AI 编程助手 AmazonCodeWisperer

AI 编程助手 Amazon CodeWhisperer 提高开拓者效率。
2022 年,AWS 推出 Amazon CodeWhisperer 预览版,这是一款 AI 编程助手,通过内嵌的根本模型,可以根据开拓者 用自然措辞描述的注释和集成开拓环境(IDE)中的既有代码实时天生代码建议,从而提升 开拓者的生产效率。
2023 年 4 月,AWS 将 Amazon CodeWhisperer 面向个人开拓者免费 开放,在适用 Python、Java、JavaScript、TypeScript 和 C#之外,新增支持 Go、Kotlin、 Rust、PHP 和 SQL 等十种开拓措辞。
开拓者可以通过在 VS Code、IntelliJ IDEA、Amazon Cloud9 等集成开拓环境中的 Amazon Toolkit 插件访问 CodeWhisperer。

Anthropic:OpenAI 前核心成员创建的人工智能安全与研究公司

由 OpenAI 的前核心成员创立,愿景是构建可靠、可阐明和可操控的 AI 系统

Anthropic 是一家人工智能安全与研究公司,由 OpenAI 的前核心成员创立,愿景是构建可 靠、可阐明和可操控的 AI 系统。
在 OpenAI 接管微软投资并转向盈利模式后,团队在人工 智能开拓的道路上产生了不合,时任研究副总裁的 Dario Amodei 和其他数十位 OpenAI 核 心成员选择离职,个中包含 8 位 GPT 系列作者,并于 2021 年创立 Anthropic,研究目标为 AI 安全与大模型。
公司期望能颠覆现有的深度学习范式,通过构建可阐明性人工智能模型 (Interpretable AI),办理神经网络的黑匣子问题。

Anthropic 前期以科研为重心,研究 AI 模型的安全问题

Anthropic 创立之初专注于科研,成立以来已经揭橥了 15 篇论文,研究方向包括自然措辞、 人类反馈、关于意图和结果间偏差的对齐问题、可阐明性、社会影响等方面。
2022 年 12 月,Anthropic 提出构建 Constitutional AI 的方法,即人类不再手工为每个有害输出打标签, 而是为 AI 指定一套行为规范或原则,模型产生无害性偏好的数据集,并且能够利用 AI 监督 AI 进行快速修复。
Constitutional AI 的提出使得更精确、更自动化地掌握 AI 的行为成为 可能,降落 AI 模型产生有害内容的风险。

加快商业化脚步,推出 ChatGPT 的有力对手

Claude Anthropic 于 1Q23 正式加速商业化。
公司推出以 Constitutional AI 为根本构建的谈天机器 人 Claude,与 ChatGPT 构成竟争。
Claude 包含两个产品类型:1)Claude Instant:针对 低延迟、高吞吐量用例进行了优化;2)Claude-v1:在繁芜推理的任务上表现更优。
Claude 当前已拥有十余家互助伙伴,共同探索在生产力、对话、医疗、客户成功、HR 和教诲等领 域的运用。

Anthropic 加速融资以支撑 AI 模型演习和支配

LLM 的演习和支配须要花费大量的资金和打算资源,Anthropic 今年估量花费 10 亿美元训 练和支配大模型,两年后更是须要 30-50 亿美元的资金。
2023 年以来,Anthropic 已经接 受了 3 轮来自 Google、Spark Capital 和 Salesforce Ventures 的投资,目前估值约 50 亿美 元。
公司已把 Claude 集成到把 Slack 平台中,并且将利用 Google 供应的云做事。

海内大模型:互联网巨子和已有充分积累的初创公司

百度:昆仑芯+飞桨平台+文心大模型,构建广泛运用端生态

百度是当前唯一一家在芯片层、框架层、模型层和运用层都有领先产品布局的企业,四层 架构相互协同优化,可以显著地降本增效。
在芯片层,百度昆仑芯科技已实现两代通用 AI 芯片“昆仑”的量产及运用,为大模型落地供应强大算力支持。
在框架层,“飞桨”是海内 首个自主研发的家当级深度学习平台,集根本模型库、端到端开拓套件和工具组件于一体, 有效支持文心大模型高效、稳定演习。
在模型层,“文心大模型”包括根本大模型、任务大 模型、行业大模型三级体系,全面知足家当运用需求。
在运用层,文心已大规模运用于百 度自有业务的各种产品,并通过企业级平台“文心千帆”进一步推动生态构建。

团队:百度 CTO 王海峰领衔,技能大牛带队

百度 CTO 王海峰作为领头人推动百度的 AI 技能计策发展和生态构建。
王海峰曾任职于微 软,先后主持 Bing 语义搜索、微软小冰等项目;其于 2010 年加入百度,并在 2018 年升 任百度 CTO,曾推出百度大脑、百度小度等一系列产品。
其他带队的高管还包括百度集团 副总裁兼深度学习技能及运用国家工程研究中央副主任吴甜、百度技能委员会主席吴华等。
吴甜于 2006 年加入百度,目前卖力百度 AI 技能平台和智能云 AI 产品,领衔研发为文心大 模型供应支撑的飞桨深度学习平台。
吴华曾在百度带领团队出世界首个互联网 NMT(神经 网络机器翻译)系统,目前紧张带领 NLP 大模型的技能推进。

算力:两代自研通用 AI 芯片“昆仑”支持大模型落地

百度旗下的芯片公司昆仑芯科技已实现两代通用 AI 芯片产品的量产及落地运用。
昆仑芯 1 代 AI 芯片于 2020 年量产,是海内唯一一款经历过互联网大规模核心算法磨练的云端 AI 芯 片,当前已被广泛支配在互联网、工业制造、聪慧城市、聪慧交通、科研等领域。
昆仑芯 2 代 AI 芯片于 2021 年 8 月量产发布,是海内首款采取 GDDR6 显存的通用 AI 芯片,比较昆 仑芯 1 代 AI 芯片性能提升 2-3 倍,且在通用性、易用性方面也有显著增强。
目前,昆仑芯 已在百度搜索等业务场景落地,也为大模型演习供应底层算力支撑。
百度之外,昆仑芯还 可为客户供应大模型定制服务,凭借强大算力为大模型落地供应全流程支持.

框架:家当级深度学习平台“飞桨”为大模型构建供应有力支撑

我国首个自主研发、功能丰富、开源开放的家当级深度学习平台飞桨(PaddlePaddle)是 百度大模型背后的有力支撑。
飞桨以百度多年的深度学习技能研究和业务运用为根本,集 深度学习核心演习和推理框架、根本模型库、端到端开拓套件和丰富的工具组件于一体, 有效支持文心大模型高效、稳定演习。
截至目前,飞桨已和 22 家国内外硬件厂商完成了超 过 30 种芯片的适配和联合优化,国产芯片适配第一。

文心大模型:“根本+任务+行业”大模型三层体系全面知足家当运用需求

百度文心大模型体系构建了文心大模型、工具与平台两层体系。
在模型层,文心大模型包 括根本大模型、任务大模型、行业大模型三级体系,打造大模型总量近 40 个,全面知足产 业运用需求,涵盖电力、燃气、金融、航天等领域。
根本大模型针对特界说务预演习构建 任务大模型,任务大模型结合垂直领域数据和知识进一步形成行业大模型,行业大模型则 在运用处景的数据反哺根本大模型优化。
在工具与平台层,大模型开拓套件、文心 API 以 及供应全流程开箱即用大模型能力的 EasyDL 和 BML 开拓平台,帮助全方位降落运用门槛。

运用:大模型生态逐步构建,推动 AI 落地家当

文心大模型是目前海内预演习大模型运用端生态最好的大模型之一。
在百度自有业务中, 文心已大规模运用于百度内部的各种产品,包含百度搜索、度小满金融、小度智能屏、百 度舆图等。
例如,度小满的智能征信中台将文心 ERNIE 大模型运用在征信报告的解读上, 能够将报告解读出 40 万维的风险变量,以更好地识别小微企业主的信贷风险。
在百度业务 之外,文心大模型联合国网、浦发、中国航天、公民网等企业推出了 11 个行业大模型,让 大模型加速推动行业的智能化转型升级。
例如,根据文心大模型官网,与深圳燃气联合建 立的深圳燃气·百度文心大模型,在工业巡检、环境巡检场景下,准确率和召回率分别平 均提升 2.5%和 4.5%,且所需标注数据比较传统模型低落 90%,泛化能力大幅提升。

阿里巴巴:通义大模型构建大一统模型,所有产品将接入通义千问

阿里达摩院:孕育阿里巴巴人工智能的技能沃土

阿里达摩院于 2017 年景立,在 NLP 自然措辞处理等前沿科研领域持续布局,于 2019 年启 动大模型研发,先后公布多个版今年夜模型和“通义”大模型系列。
2023 年 2 月,达摩院将 注书籍钱从 1000 万元增加至 3 亿元,新增投资将用于持续布局 AI 底层技能。
阿里达摩院的大模型主力团队由兼具 AI 领域的学术能力和项目履历的能力者带领。
模型主 力团队的“一号位”是周靖人,曾在微软任首席科学家,带领必应搜索根本举动步伐团队和大 数据部门;于 2016 年加入阿里,曾任阿里云首席科学家,现升任阿里达摩院副院长兼阿里 云智能 CTO。
三大主力团队是“措辞技能实验室”、“视觉智能实验室”以及“智能打算实 验室”,分别以 NLP、CV、打算能力为目标。
三个团队的领导者均是背景豪华、兼具学术 能力和项目履历的能力者。
NLP 团队的黄非,曾任职于 IBM、Facebook,在阿里领导 AliNLP 的根本技能研发和业务落地;CV 团队的赵德丽,曾供职于小米、微软亚洲研究院;智能计 算实验室的周畅,曾卖力多模态模型 M6、M6-OFA 及干系 AIaaS 做事项目。

算力:自研芯片含光 800 和倚天 710 供应高性价比算力支持

阿里巴巴自研芯片含光 800 和倚天 710 共同为 AI 大模型供应算力支持。
达摩院于 2018 年 成立了平头哥半导体有限公司,以推进云端一体化的芯片布局。
含光 800 是一款于 2019 年推出的专门为分布式打算和 AI 任务设计的芯片,比当时业界最好的 AI 芯片性能高 4 倍。
倚天 710 是中国首个云上大规模运用的自研 CPU,当前已在阿里云数据中央大规模支配, 并以云的形式做事阿里巴巴和多家互联网科技公司,将算力性价比提升超 30%、单位算力 功耗降落 60%。
此外,阿里云于 2022 年云栖大会上还发布了云根本举动步伐处理器(CIPU), CIPU 比较 CPU 性能更高、更稳定,将算力运送能力提升至新水平。

框架:统一易用的分布式深度学习演习框架 EPL 支撑“大一统”模型构建

EPL 是一个统一多种并行策略、易用的分布式深度学习演习框架,为万亿级大模型的低碳 高效演习供应有力支撑。
阿里云机器学习 PAI 团队于 2022 年 3 月宣告开源自主研发的分布 式演习框架 EPL(Easy Parallel Library),EPL 通过对不同并行化策略进行统一抽象、封 装,在一套分布式演习框架中支持多种并行策略,并进行显存、打算、通信等全方位优化 来供应易用、高效的分布式演习框架。
EPL 为万亿级大模型的低碳高效演习供应有力支撑, 10 万亿级模型 M6-10T 便是基于 EPL 框架演习而成。
比较之前发布的大模型 GPT-3,M6 实现同等参数规模的演习能耗仅为其 1%,做到了业内极致的低碳高效。

通义大模型:基于 AI 统一底座的层次化体系

达摩院构建了 AI 统一底座 M6-OFA,在业界首次实现大模型的模态表示、任务表示、模型 构造的统一。
通过这种统一学习范式,在不引入新增构造的情形下,单一模型即可同时处 理图像描述、视觉定位、文生图、视觉蕴含、文档择要等 10 余项单模态和跨模态任务,且 效果达到国际领先水平。
此外,模型设计借鉴了人脑模块化设计,以场景为导向灵巧拆拔 功能模块,实现高效率和高性能。

通义大模型基于海内首个 AI 统一底座,并构建通用与专业模型协同的层次化 AI 体系。
2022 年 9 月,阿里达摩院发布“通义”大模型系列,其架构分为三个层次:1)模型底座层:多 模态统一底座模型 M6-OFA,实现统一的学习范式和模块化设计;2)通用模型层:多模态 模型“通义-M6”、NLP 模型“通义-AliceMind”以及 CV 模型“通义-视觉”;3)行业模型 层:深入电商、医疗、法律、金融、娱乐等行业。

运用:赋能产品运用增效,推出模型即做事共享平台

通过支配超大模型的轻量化及专业模型版本,通义大模型已在超过 200 个场景中供应做事, 实现 2%~10%的运用效果提升。
在搜索场景中,可实现以文搜图的跨模态搜索。
在 AI 辅 助审判中,可实现法律卷宗的事宜抽取、文书分类等任务效果 3~5%的提升。
在人机对话 领域,初步具备知识、影象、情绪以及个性的中文开放域对话大模型可实现主动对话、广 泛话题、紧跟热点等对话体验。
此外,通义大模型在 AI 赞助设计、医疗文本理解等其他 领域也有丰富的运用处景。
阿里旗下所有产品将接入通义千问,并将向企业开放通义千问 API。
2023 年 4 月,阿里巴 巴发布类 ChatGPT 的大措辞模型“通义千问”,模型可供应文案创作、对话谈天、知识问 答、逻辑推理、代码编写、文本择要以及图像视频理解做事。
未来,阿里巴巴所有产品都 将接入大模型进行全面升级。
例如,钉钉在接入通义千问后,可实现撰写邮件、天生方案、 总结会议纪要等近 10 项新 AI 功能。
此外,通义千问 API 将开放给企业级用户来演习企业 专属垂直领域的大模型。
例如,阿里云宣告将与 OPPO 安第斯智能云互助,基于通义千问 大模型的能力打造 OPPO 大模型根本举动步伐,以支撑其海量终端用户的 AI 做事。

腾讯:算力集群+混元大模型,赋能自身业务生态降本增效

团队:混元助手项目组由大牛带队,3 位 PM 顶梁,聚拢跨奇迹群精英

腾讯针对类 ChatGPT 对话式产品已成立混元助手(HunyuanAide)项目组。
项目组将联 合腾讯内部多方团队构建大参数措辞模型,目标是“通过性能稳定的强化学习算法演习, 完善腾讯智能助手工具,打造腾讯智能大助手,并能成为海内的业界标杆”。
项目组 Owner 为张正友,曾任微软视觉技能组高等研究员,2018 年加入腾讯担当 Robotics X 实验室及腾 讯 Al Lab 卖力人,2021 年升任腾讯首位 17 级精彩科学家,是腾讯史上最高专业职级拥有 者。
3 位 PM(Programme Manager)为俞栋、王迪、刘田,能力上分别侧重于算法、工 程和商业化。
组长们则由腾讯各主要部门的卖力人构成,凝聚腾讯内部多个团队的能力。

混元大模型:依托低本钱算力和自研底座构建,模型可直接落地运用

基于腾讯强大的底层算力和低本钱的高速网络根本举动步伐,腾讯混元(HunYuan)大模型依 托腾讯自研的太极机器学习平台构建而成。
在模型层,混元大模型完全覆盖 NLP 大模型、 CV 大模型、多模态大模型、文生图大模型及浩瀚行业/领域/任务模型。
个中,HunYuan-NLP 1T 是海内首个低本钱、可直接落地运用的 NLP 万亿大模型,其模型能力在自然措辞理解任 务榜单 CLUE 中登顶。
在家当化运用上,混元大模型支持腾讯广告、搜索、推举、游戏、 社交等多个互联网业务生态的赋能和升级,实现技能复用和业务降本增效。

运用:赋能自身业务生态降本增效,广告类运用效果出众

HuanYuan 混元大模型已在腾讯多个核心业务场景落地,并带来了显著的效果提升。
大模 型支持了微信、QQ、游戏、腾讯广告、腾讯云等浩瀚产品和业务,尤其是其在广告内容理 解、行业特色挖掘、文案创意天生等方面模型表现出色。
例如,腾讯打造了以混元大模型 为技能底座的广告多媒体 AI 技能矩阵,在广告投放中,比较以前的小模型算法,腾讯广 告精排大模型当时累计给广告主带来 15%的成交总额 GMW(Gross Merchandise Volume) 的提升。

华为:昇腾芯片+MindSpore+盘古大模型,B 端运用处景落地可期

领导者:华为云 AI 首席科学家田奇

华为云 AI 首席科学家田奇是盘古大模型团队的卖力人。
田奇曾于 2008 至 2009 年,从大 学调至微软亚洲研究院多媒体打算组进行研究事情。
2018 年,田奇加入华为担当首席科学 家,卖力华为云干系业务,华为云是目前海内云做事市占率最高的厂商。
当前,田奇正带 领团队推动盘古大模型从科研创新走向家当运用,逐步构建大模型的运用生态。

算力:以自研 AI 芯片昇腾作为根基,打造 AI 家当平台

华为昇腾芯片包括用于演习的算力最强 AI 芯片昇腾 910,以及用于推理的全栈全场景 AI 芯片昇腾 310。
2019 年 8 月推出的昇腾 910 算力超英伟达 Tesla V100 一倍,在同等功耗 下拥有的算力资源达到了当时业内最佳水平的两倍。
目前,“昇腾 AI”根本软硬件平台已成 功孵化和适配了 30 多个主流大模型,为我国一半以上的原生大模型供应算力支撑。
基于该 平台,昇腾 AI 家当已与 20 多家硬件伙伴和 1100 多家软件伙伴建立了互助关系,并共同推 出了 2000 多个行业 AI 办理方案,参与个中的开拓者数量打破 150 万。

框架:深度学习框架 MindSpore 和一站式 AI 开拓平台 ModelArts 提升模型开拓效率

深度学习框架 MindSpore 从演习推理支配全流程支撑模型高效开拓,是海内社区中最生动、 关注度最高、被运用最多的框架之一。
匹配昇腾 AI 处理器,MindSpore 有效战胜 AI 打算 的繁芜性和算力的多样性寻衅,打造面向端、边、云的全场景 AI 根本举动步伐方案,让芯片的 强大算力能够以最高效的办法被开拓者们利用。
面向大模型开拓场景,MindSpore 供应系 列工具及套件,发挥软硬件综合上风,从演习推理支配全流程支撑模型高效开拓。
同时, MindSpore 可兼容第三方 AI 框架生态,以实现模型的快速迁移。
一站式 AI 开拓平台 ModelArts 进一步提升模型演习和支配的效率。
ModelArts 平台与华为 底层软件和演习框架协同优化,供应 E 级算力调度,并供应动态路由方案能力,为大模型 演习供应了最优的网络通信能力;同时,借助 ModelArts 平台处理海量数据的高效能力, 仅用 7 天就可完成 40TB 文本数据处理。
此外,ModelArts 平台为适应不同开拓者的开拓习 惯及不同运用处景,支持包含 TensorFlow、PyTorch、MXNet 等的所有主流 AI 打算框架, 并供应友好易用的开拓和调测环境。

盘古大模型:赋能千行百业的三阶段体系

华为云盘古大模型于 2021 年 4 月正式发布,到 2022 年聚焦行业运用落地,已经基于一站 式 AI 开拓平台 ModelArts,发展出包括根本大模型(L0)、行业大模型(L1)、行业细分场 景模型(L2)三大阶段的成熟体系,让 AI 开拓由作坊式转变为工业化开拓的新模式,赋能 千行百业。
详细来说,盘古大模型的三层体系架构包含:1)L0 根本大模型:30 亿参数的 CV 大模型在业界首次实现模型按需抽取,千亿参数和 40TB 演习数据的 NLP 大模型在在 CLUE 榜单实现业界领先,科学打算大模型致力于办理各种科学问题、促进根本科学的发展; 2)L1 行业大模型:涵盖矿山、气候、药物、分子、电力、海浪、金融等行业;3)L2 场景 模型:包含金融 OCR、电力巡检、建筑能耗优化等场景。

运用:行业大模型逐步落地,B 端场景运用可期

盘古 CV 大模型可以赋能分类、识别、检测等视觉场景。
华为已基于 CV 大模型推出矿山大 模型、电力大模型等行业大模型,推动干系工业领域安全高效作业。
在华为与能源集团合 作推出的盘古矿山大模型中,模型能够办理 AI 在煤矿行业落地难、门槛高档问题。
例如, 在煤矿主运场景中,AI 主运智能监测系统的异物识别准确率达 98%,实现全时段巡检,避 免因漏检造成的安全事件;在作业场景中,掘进作业序列智能监测的动作规范识别准确率 超过 95%,保障井下作业安全。
此外,盘古 CV 大模型还可运用在铁路轨道机车的毛病检 测中,识别机车中吊链、脱落、缝隙等潜在不屈安成分,在郑州铁路段的 32000 多样本评 测中,对毛病和故障检测的准确度达 99%。

盘古气候大模型是环球首个景象预测精度超过传统办法的 AI 模型。
传统是通过数字剖析的 方法,精度位列天下第一的是欧洲气候中央。
差异于传统的数字剖析方法,气候大模型基 于一种 3D 高分辨率的 AI 气候预报方法,可以在秒级的韶光内完玉成球未来 1 小时到 7 天 的景象预报,精度首次超过了欧洲气候中央的数字剖析的方法,并且预测速率提升了 1 万 倍以上。
在自然磨难里面,例如台风轨迹预测,盘古的精度相对付天下第一的欧洲气候中 心的方法提升了 20%以上。

商汤:SenseCore 大装置+日日新大模型

算力:基于 AI 大装置 SenseCore,以 AI 模型赋能四大业务

商汤基于 AI 大装置 SenseCore 赞助自身业务开展。
AI 大装置 SenseCore 打通了算力、 算法和平台之间的连接与协同,构建成一整套端到真个架构体系;基于 AI大装置 SenseCore, 商汤通过 22,000+商用 AI 模型,赋能聪慧商业、聪慧城市、聪慧生活和聪慧汽车四大业务。

日日新大模型:构建面向 AGI 的核心能力,驱动垂直行业降本增效

商汤是海内最早布局 AI 大模型的企业之一,已实现 CV、NLP、多模态等大模型的全面布 局。
2019 年已经发布了拥有 10 亿参数的图像大模型,2022 发布的视觉模型参数量达到 320 亿,是环球最大的通用视觉模型之一,能够实现高性能的目标检测、图像分割和多物体识 别算法等功能。
今年 3 月推出多模态大模型“诗人 2.5”,具备图像描述、视觉问答、视觉推 理、笔墨识别、文生图、文本检索视觉内容等功能,在海内处于领先地位。
2023 年 4 月, 商汤在技能互换会中正式发布“日日新 SenseNova”大模型体系,实现 CV、NLP、多模 态等大模型的全面布局,并展示了其问答、代码天生、2D/3D 数字人天生、3D 场景/物体生 成等 AI 模型运用能力。

运用:MaaS 模式可能成为主要新趋势

商汤日日新大模型开放 API 体系包含自然措辞天生 API、图片天生 API、视觉通用感知任务 API 和标注 API。
此外,商汤还供应了数据标注、模型演习及微调等一系列 MaaS 做事。
近 期,我们把稳到,英伟达,百度,商汤等企业都提出了类似 MaaS 的新商业模式,其核心 是利用自己已经拥有的通用大模型,帮助企业以专有数据创建专有模型。
个中,英伟达提 供基于其笔墨、图像和生物医药模型的大模型演习做事 Al Foundations,百度推出文心千 帆大模型平台,表示未来云打算商业模式会变成 MaaS。
拥有大模型的企业,从“卖算力” 走向“卖模型”可能成为 AI 企业发展的一条新商业模式。

智谱 AI:依托清华大学技能成果,打造高性能千亿级普惠大模型

团队:核心成员与清华大学联系紧密

智谱 AI 成立于 2019 年,由清华大学打算机系知识工程实验室的技能成果转化而来。
核心 团队与清华大学联系紧密,CEO 张鹏毕业于清华打算机系,总裁王绍兰为清华创新领军博 士,首席科学家唐杰为智源研究院学术副院长、清华大学打算机系副教授。
依托清华大学 团队多年的研发积累和人才上风,智谱 AI 作为主力参与研发落地了悟道 2.0,并打造了用 以支持各种 AI 系统的开拓者底层平台,而后陆续发布以文生图 CogView 大模型、代码生 成模型 CodeGeeX、双语千亿模型 GLM-130B 等大模型,未来将环绕平台形成完善的 AI 运用生态。
智谱 AI 已于 2022 年 9 月完成数亿元 B 轮融资,用于连续打造高性能千亿级普 惠大模型。

模型:智谱 AI 致力于打造高性能千亿级普惠大模型

高精度双语千亿模型 GLM-130B 于 2022 年 8 月发布并开源,模型的部分模型性能优于 GPT-3。
2022 年 11 月,斯坦福大学大模型中央开展了对环球 30 个主流大模型的全方位评 测,GLM-130B 是亚洲唯一入选的大模型。
评测报告显示:GLM-130B 在准确性和公正性 指标上与 GPT-3 靠近或持平,鲁棒性、校准偏差和无偏性均优于 GPT-3 175B。
此外,模 型仅需 4 张英伟达 RTX3090 就可以运行,实现真正的大模型普惠。

类 ChatGPT 对话模型 ChatGLM-6B 于 2023 年 3 月开源发布,可在消费级显卡上进行本 地支配。
ChatGLM-6B 具有 63 亿参数,针对中文问答和对话进行了优化,在 1T 的语料训 练和监督微调、反馈自助、人类反馈强化学习等技能的加持下,ChatGLM-6B 已经能天生 相称符合人类偏好的回答。
结合模型量化技能,用户可以在消费级的显卡上进行本地支配。
不过,由于 ChatGLM-6B 规模较小,目前测试创造具有较多的局限性,如事实性/数学逻辑 缺点、可能天生有害/有偏见内容、较弱的高下文能力等。
此外,当前基于 1300 亿参数 GLM-130B 的 ChatGLM 模型正在内测开拓中。
VisualGLM-6B 是海内首个能理解图像的中文开源对话模型。
2023 年 5 月,智谱 AI 和清 华大学 KEG 实验室开源了支持图像、中文和英文的多模态对话模型 VisualGLM-6B,措辞 模型基于 ChatGLM-6B;图像部分通过演习 BLIP2-Qformer 构建起视觉模型与措辞模型的 桥梁。
模型在长视觉问答数据上进行了演习,能够天生符合人类偏好的答案。
同时,结合 模型量化技能,用户最低只需 8.7G 的显存就可以进行本地支配。

(本文仅供参考,不代表我们的任何投资建议。
如需利用干系信息,请参阅报告原文。

精选报告来源:【未来智库】。
「链接」

标签:

相关文章

介绍爱思越狱,技术突破与风险分析

随着科技的发展,手机越来越成为人们生活中不可或缺的一部分。手机厂商对系统的封闭性让许多用户感到不满。在这种情况下,越狱技术应运而生...

PHP教程 2025-01-03 阅读0 评论0

介绍网络IP篡改,技术介绍与防范步骤

随着互联网技术的飞速发展,网络安全问题日益凸显。其中,IP篡改作为一种常见的网络攻击手段,给广大网民带来了极大的困扰。本文将深入剖...

PHP教程 2025-01-03 阅读0 评论0

介绍照片加密技术,守护隐私的数字堡垒

在信息爆炸的时代,个人隐私的保护显得尤为重要。照片作为记录生活、表达情感的重要载体,其安全性备受关注。如何加密照片,成为人们关注的...

PHP教程 2025-01-03 阅读0 评论0