更近了一步!美的精选小额IPO申请获证监会受理
06-18
AI技术在全球云计算公司之间掀起了新一轮的“军备竞赛”。
如何构建AI生态系统,成为这些厂商近一年来的核心任务。
得益于基础研究和应用创新的繁荣,国际云计算巨头的AI生态建设进展迅速。
尽管过去几年全球云计算市场增速明显放缓,但今年第四季度财报显示,受益于AI业务的推动,亚马逊云技术、微软智能云的增速和谷歌智能云都大幅增加。
随着2019年人工智能应用的加速落地,这一增长有望进一步扩大。
云计算领域将迎来新一轮洗牌,各大公司正在加速部署大型AI模型。
微软持续加强与OpenAI的合作,将AI技术更深入地融入到Azure的各种技术栈中;谷歌投入巨资开发自己的大机型,近期还对组织架构进行了全面调整。
亚马逊云技术也有新动作。
当地时间 4 月 23 日,亚马逊云科技宣布旗下 AI 开发平台 Bedrock 进行一系列重要更新:包括在基础模型层面,宣布支持刚刚发布的超级开源模型 Llama 3,以及自研模型。
-开发的Amazon Titan图像生成平台。
模型;功能层面,合规管理工具Guardrails、模型测试评估工具ModelEvaluation正式上线,代理开发平台BedrockAgent、知识库BedrockKnowledgeBase升级,预发布自定义模型导入新功能支持用户本地微调。
最新的开源模型。
从底层大模型训练和推理基础设施,到中层AI应用开发工具,再到上层开箱即用的AI应用,亚马逊云技术构建了完整的AI生态系统。
作为巨头三人中唯一一家不过度依赖自研、不依赖单一大模型的云计算厂商,亚马逊云科技的AI生态投资布局具有重要的借鉴意义。
极客公园对此进行了全面分析。
下面,我们详细探讨这些策略的具体细节及其对整个行业的潜在影响。
亚马逊云技术如何布局生成式AI的中间层? 在生成式AI领域,云计算厂商的战略布局主要集中在AI应用开发的三个关键层面:底层计算层,用于支持基础模型的训练和推理;中间工具层,基于基本模型构建各种A开发工具;最上面的应用层,是一系列基于基础模型的开箱即用的AI应用集合。
其中,最关键、最受关注的是中间工具层——中间层是一个比较笼统的概念,不仅包括对基础模型的定制化调整,还涵盖了基础模型所需的知识库、开发工具和测试工具。
构建人工智能应用程序。
许多方面。
对于云计算平台来说,工具层布局的核心可以分为三个主要方向:基础模型的选择池;能够调整和定制基本模型;以及开发、集成人工智能应用程序并将其部署到企业系统中的能力。
。
自2019年4月推出以来,亚马逊云技术的生成式AI开发平台Amazon Bedrock一直围绕这三个方向进行投资和部署。
丰富的基础模型池经过一年多的发展,大部分云厂商提供的AI开发工具系统已经逐渐同质化。
即使某些平台推出创新功能,其他平台通常也会在几个月内推出类似产品。
因此,工具层的竞争焦点逐渐转向支持的基础模型池。
添加 Llama 3 和 Amazon Titan Image Generator 等新的基本模型后,Amazon Bedrock 支持的基本模型数量增加到 27 个。
这些模型来自 Anthropic、Stability AI、Cohere AI、Meta、Mistral AI、AI21 Labs 和 Amazon 。
公司。
三大云厂商支持的基础机型对比丨出品:极客公园 如上图所示,极客公园根据官网信息整理了三大云厂商支持的基础机型对比。
虽然三大平台都涵盖了基础语言模型、图像生成模型、嵌入模型、语音模型等关键能力,但其生态布局各有特点。
第一个是微软Azure智能云。
其生成式AI服务的最大特点是与OpenAI深度绑定,基于后者开发的不同功能、规模、价格的基础模型,提供一系列产品服务。
由于OpenAI目前在生成式AI领域的多个方面处于领先地位,这种独家合作模式也成为微软智能云最大的特色和优势。
谷歌云与微软智能云正好相反。
虽然也支持一些开源模型或第三方模型(包括Google投资的Anthropic),但Google Cloud主要推广自研的大模型,包括大语言模型Gemini系列和图像生成模型Imagen系列。
以及语音转文本Chrip系列模型等。
亚马逊云技术在两者之间取得了平衡。
比如,虽然也有自己自主研发的Titan模型,具备文本、嵌入、图像生成等能力,但亚马逊云技术目前正在推广的Anthropic,其投资额达40亿美元。
其克劳德系列车型占据“C位”。
就连亚马逊云科技研发的AI算力芯片,也专门为克劳德定制优化。
不过,亚马逊云技术并不像微软那样只推广Anthropic的模式。
它还支持其他第三方和第一方基础模型,例如 Llama 系列、Stable Diffusion、Cohere's Command and Embed 和 Amazon Titan。
这些差异体现了三大云平台在大模型这一实现AI应用的关键能力方面的不同策略和优势。
Google Cloud 相信自己的技术能力。
虽然也通过投资、整合等方式与一些大型模型公司进行合作,但最重要的力量还是重点推广自主研发的大型模型;微软在这条技术路线上并没有太多的储备,因此选择深度与该领域最领先的公司合作,准备构建AI应用所需的基础设施和其他技术工具;亚马逊云技术采用完全开放的平台策略,也就是我们常说的“卖铲子给淘金者”,变大最关键的环节——模式,开发给所有的技术合作伙伴,重点推广最好的产品与客户成功的目标。
未来哪种模式策略更有效,还需要时间来验证。
这可能取决于未来是否有一个超大型模型以远远超过其他模型的智能脱颖而出,或者是否有一百个不同的模型蓬勃发展,各有千秋。
至少在今天,行业更倾向于使用多模型架构,因此生态繁荣之路意味着更能适应不同的应用场景和需求。
定制模型和集成能力:简单、全面、安全 虽然我们常说基础大模型能力的提升,推动了人工智能应用开发从“最后一公里”到“米”,但这并不意味着任何公司或个人可以基于这些模型轻松开发人工智能应用程序。
这就是云计算平台提供中间层服务的重要性。
同时,随着模型能力的增强,能够解决的问题范围不断扩大,越来越多的用户需要使用这些模型来解决问题。
这对提供AI应用服务的云计算厂商提出了新的要求:不仅需要适应越来越复杂的场景,还要让服务变得更加简单易用。
前者需要云计算厂商提供更强的模型定制和微调能力,而后者则意味着需要更简单易用的集成工具和平台。
对此,亚马逊云技术提供了六大核心功能: Amazon Bedrock 上的自定义模型导入 |来自:亚马逊云技术 首先是最近预发布的用户微调模型上传工具Custom Model Import。
它支持用户将本地微调的开源模型(如 Llama、Mistral 和 Flan-T5)上传到 Bedrock 平台,并以托管 API 的形式调用,无需复杂的运维工作。
未来,这个工具还将集成知识库、Agent等功能。
第二个是之前已经推出的知识库功能。
它允许模型安全地连接到 RAG 的内部公司数据源,从而为聊天机器人和问答系统等用例提供更准确、针对特定上下文的响应。
Amazon Bedrock 知识库支持矢量功能数据库,包括 Amazon OpenSearch、Pinecone 和 Redis Enterprise Cloud 的矢量引擎。
Amazon Bedrock 上的模型评估 |来自:亚马逊云技术除了微调工具和知识库之外,亚马逊云技术还提供了模型评估工具Model evaluation。
该工具用于评估、比较和选择最适合特定应用场景的基础模型。
功能包括比较基础模型的性能,并使用自己的数据集获得相应的评估结果。
以上三个用于定制、微调和测试模型。
以下两个功能与开发应用程序并将其集成到业务系统中相关。
第一个是代理开发工具Agents for Amazon Bedrock,这也是Amazon Bedrock的核心工具之一。
之前的文章中多次介绍过的Geek Park是一个允许生成式AI应用程序使用自然语言执行多步骤业务任务的工具。
其主要功能包括利用LLM的力量使用自然语言进行交互和响应;任务分割和编排;通过动态调用API完成任务执行;安全、私密地访问客户私人数据;跟踪FM思维链流程,优化底层Agent Prompt Word Project。
另一个是 Amazon Bedrock 的对象批处理工具 Batch。
该工具可以让用户在不编写代码的情况下,对大量数据有效执行模型推理任务,有助于避免大规模推理任务中的限流问题。
除了方便模型定制、简化应用开发流程之外,当今人工智能应用开发中另一个不可忽视的问题是确保大型模型的安全性。
众所周知,由于大模型训练的局限性以及所谓的“幻觉”问题,基于大模型开发人工智能应用可能会导致与现实世界政治和法律规则不符的安全问题。
这些典型问题包括人工智能技术能力的滥用以及对话、搜索等功能中有害内容的出现。
亚马逊基岩护栏|来源:亚马逊云技术 为此,亚马逊云技术针对 Amazon Bedrock 推出了全新的 AI 应用安全工具 Guardrails。
如上面的视频演示所示,开发者可以通过设置关键词等方式将答案替换为有害信息,从而提高模型对不当、有害内容响应的一致性。
总的来说,亚马逊云技术的生成式AI策略可以概括为:通过开放的生态系统提供丰富的模型选择,并基于积累的技术能力提供易于使用、功能丰富、足够安全的开放平台。
在过去。
Amazon Bedrock 提供了自定义模型导入、智能代理开发和批处理功能等工具和功能,所有这些都旨在简化和加速 AI 应用程序的开发过程,同时确保这些应用程序能够安全可靠地部署和运行。
通过提供强大的模型定制能力和全面的安全措施,亚马逊云技术不仅支持客户解决复杂多变的业务需求,还非常重视保护用户免受潜在的AI风险。
这种平衡创新与安全、多功能性和定制化的方法是在竞争激烈的云计算市场中的主要优势。
基础设施层和应用层 说完中间层,我们再来谈谈生成式AI战略布局的两端:基础设施层和应用层。
基础设施,即底层计算层。
如今,云计算厂商在AI基础设施上也有类似的布局。
其核心构成是以英伟达GPU为主导、自研AI芯片为辅的产业结构。
另外,全球算力网络的布局也是这一层的一部分,不过这里我们主要关注自研AI芯片的发展。
近两年,为了减少对NVIDIA的依赖,提高计算效率,云厂商加速布局自研AI芯片。
亚马逊云技术也不例外。
2017年推出高性能机器学习推理芯片Inferentia,年底推出定制机器学习训练芯片Trainium,并持续更新。
最新的Trainium 2支持千亿甚至万亿参数规模的模型训练,而Inferentia 2提供更高的计算能力和成本效益。
亚马逊云技术自主研发的AI芯片结合SageMaker Hyperpod和SageMaker Jumpstart,加速基础模型的推理和训练。
许多人工智能领导者,如 Anthropic、Mistral、stability.ai 和 Perplexity,都使用 Trainium 来训练他们的大型模型。
在AI应用层,差异更为显着。
从构建生态系统的角度来看,第一方原生应用的选择至关重要。
云计算平台不仅需要提供能够快速解决客户业务问题的通用工具,还应避免过度中心化,保护上游应用生态的合作空间,保持健康的整体生态布局。
亚马逊云技术构建的人工智能应用程序主要有两种:企业级生成式人工智能助手Amazon Q和强大的人工智能编程助手Amazon CodeWhisperer。
其中,Amazon Q类似于微软的Copilot,支持企业用户定制开发,连接公司数据和系统。
这使得营销人员、项目经理和销售代表等能够利用 Q 进行定制对话、问答、内容生成和行动指导,同时确保仅访问他们有权查看的信息。
除了定制之外,与微软将Copilot集成到Windows中的方式类似,亚马逊云技术也尝试将Amazon Q集成到其成熟的业务系统中。
第一个是 Amazon QuickSight,亚马逊云技术的 BI 服务。
借助 Amazon Q,客户可以使用自然语言构建仪表板,并轻松简化决策、同步信息等。
例如,使用故事生成功能要求 Amazon Q“描述上个月业务的变化,以便向领导层报告”,您可以根据 Amazon QuickSight 中的可用数据,在几个小时内创建一个数据驱动的、视觉上有效的故事。
秒。
描述可以节省您总结数据和制作 PPT 报告的时间。
此外,在客服、供应链等电商场景中,Amazon Q的集成使得客服人员无需主管协助即可满足客户需求,提高客户满意度,减少培训和解决问题的时间,降低成本。
在供应链工具Amazon Supply Chain中,Amazon Q可以根据亚马逊近30年的供应链经验,结合大量公开信息,解答一系列供应链问题。
例如,客户可以询问“是什么导致我的发货延迟?如何加快发货速度?” Amazon Q 将分析客户的供应链,并指出目前大多数订单都在东海岸。

风暴导致延误,客户可以选择运送到纽约。
代替迈阿密加快交货速度并降低成本。
大模型在对话中的潜力激发了人们的想象力,但今天的大模型还不能作为工作中的解决方案。
具体来说,这些聊天应用程序不了解企业的??业务、数据、客户、运营或员工,例如员工做什么、与谁交互、他们应用哪些信息以及他们可以访问哪些数据。
此外,这些解决方案最初并未配备企业所需的安全和隐私功能,以确保员工在日常工作中安全使用。
企业必须构建助手,然后将这些功能添加到助手中,这远不如从一开始就将安全性融入设计中那么有效。
这就是 Amazon Cloud Technologies 创建 Amazon Q 的原因,以帮助客户为每位员工释放生成式 AI 的优势。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态