腾讯投资航空科技公司飞翔互联
06-17
有人调侃,大模型与其“造福人类”,不如先喊“给我场景”。
不过,在无问芯穹看来,经历了互联网时代的快速发展后,中国市场并不缺乏应用场景。
实现大型模型的困难在于业界持续遇到的计算能力问题。
无问芯穹认为,如果能够对这些算力资源进行有效整合和优化,并设计出好的利用方法和工具,将极大缓解大型模型公司面临的算力短缺问题,帮助他们将今天的算力储备转化为明天的竞争力。
无问芯穹成立于2019年5月,创始团队来自清华大学电子工程系,致力于成为大模型实施中的“M×N”中间层,打造大模型软硬件一体化解决方案,链接上游以及下游,建立AGI(通用人工智能时代的大模型基础设施)。
成立不到一年,无问芯穹身后就聚集了一长串投资人团队,其中包括红杉中国、真格基金、启明创投、旭辉资本等十多家风险投资机构。
3月31日,在上海,一向低调的无问芯穹、发起人和汪玉首次与合资团队集体公开亮相。
此次,他们正式发布了“Infini-AI”大模型开发与服务平台。
投资界获悉,百亿级代币免费额度全面注册将于4月份正式开放。
基于多芯片算力基础,吴琼Infini-AI大模型开发与服务平台将于4月份正式开放全面注册,实行全部实名注册。
百亿代币免费为个人和企业用户提供额度。
开发者可以在此平台上体验和比较各种模型能力和芯片效果。
只需拖动各种参数按钮,他们就可以微调出更适合业务的大模型,并将其部署在Infini-AI上。
,然后以每千枚代币非常优惠的价格为用户提供服务。
目前,武琼Infini-AI已支持百川2、ChatGLM2、ChatGLM3、ChatGLM3闭源模型、Llama2、Qwen、Qwen1.5系列等20余种模型,以及AMD、Biren、寒武纪、燧原、天书等10余种类型智芯、Muxi、Moore Thread、NVIDIA等计算卡支持多型号、多芯片间软硬件联合优化和统一部署。
来自第三方平台或自定义训练和微调的模型也可以无缝迁移和托管到Wuqiong Infini-AI,并获得细粒度定制的按代币计费解决方案。
“我们的车型品牌、芯片品牌的覆盖范围将会不断扩大,随着时间的推移,吴琼Infini-AI的性价比优势将会越来越凸显。
”无问芯穹联合创始人兼CEO夏立学表示,未来,五琼Infini-AI还将支持更多模型和算力生态合作伙伴推出产品,让更多大型模型开发者“花少量的钱”钱多用大池”,持续降低AI应用落地成本。
一个月前,同道猎聘在部分城市发布了AI驱动的数字真人面试机,更多AI功能正在筹备中。
它是无问芯穹提供的灵活算力使用计划,基于无问芯穹的平台。
从大型开源模型进行微调。
与市场上其他解决方案相比,它实现了更高的推理加速,并显着降低了推出新功能的成本。
夏立雪表示,这样的效果让吴琼团队非常有信心,因此除了开放全员注册之外,还正式向大型算力需求者发起测试邀请,提供更具性价比的算力以及在算法和硬件方面更加深入的内容。
算力优化服务。
计算能力很难,但有一个解决方案。
它来自于多芯片优化的实力。
“市场上还有大量未激活的有效算力,硬件本身的差距正在迅速缩小,但大家在使用时总会遇到‘生态问题’。
”夏立雪表示,这是因为硬件的迭代速度总是比软件更慢、更昂贵。
软件开发者不希望自己的研发工作之外的其他“变量”出现在自己的工作中,因此总是倾向于直接使用成熟的生态系统。
的芯片。
无问芯穹希望帮助所有构建大型模型的团队“控制变量”,即在使用无问芯穹的算力服务时,用户不需要也不会感受到底层算力的品牌差异。
成立还不到一年的无问芯穹,怎么能够在这么短的时间内跑完多张计算卡的性能优化呢? 年底,大模型引起社会广泛关注后,夏立学和他的导师汪玉认为,国内算力整体水平仍明显落后于国际先进水平。
仅仅依靠芯片技术改进或多芯片迭代已经不够了,需要建立一个大的模型生态系统,使不同的模型可以自动部署在不同的硬件上,从而使各种计算能力得到有效利用。
一年后,无问芯穹公布了在Nvidia GPU、AMD等芯片上取得的优化结果,达到了当时最高的计算加速效果,实现了大型模型任务的推理速度2-4倍的提升。
随后,AMD中国宣布与无问芯穹建立战略合作伙伴关系,双方将共同致力于提升商业AI应用的性能。
两年后,无问芯穹在本次大会上展示了其在10种芯片上的性能优化数据,显示每张卡都达到了业界最佳的性能优化效果。
“我们与各型号、芯片合作伙伴建立了牢固的信任关系,”夏立雪告诉记者:“一方面来自于我们对大型型号的计算优化实力,另一方面无问芯穹非常重视保护无问芯穹将继续保持中立性,不与客户产生利益冲突,是我们业务发展的基础,“从云到端,软硬件联合优化进行到底。
”本轮的模型结构,表现出持续应用突破的趋势。
”汪玉在开幕致辞中表示:“过去,在AI 1.0时代,我们作为一家公司只能完成一小部分AI任务。
今天,大模型结构统一了,建立的硬件壁垒依靠生态正在‘细化’。
”得益于全球人工智能浪潮的兴起以及中国市场的独特机遇,无问芯穹面临着巨大的技术机遇。
Transformer在设计时自然是基于并行计算架构的。
规模越大,大模型带来的智能化效果越好。
使用的人越多,需要的计算量就越大。
“无问芯穹正在做的是‘原生大型模型’的加速技术堆栈。
”无问芯穹联合创始人兼CTO严圣根表示,大模型的实现依赖于算法、算力、数据和系统。
计算能力决定大型模型的速度,设计良好的系统可以释放更多的硬件潜力。
无问芯穹团队打造了数万个GPU级大规模高性能AI计算平台,具备万卡管理能力。
还成功构建了基于自营集群的云管理系统,实现了跨域、多云的统一调度。
“在客户端,人们更倾向于将大型模型的能力快速应用到人机交互界面中,以提高实践体验。
”无问芯穹联合创始人、首席科学家戴国豪认为,未来,只要有算力的地方,就会出现AGI级别的智能。
两端的智能来源是大型号专用处理器LPU。
戴国豪宣布“吴琼LPU将于2020年上市”。
大模型处理器LPU可以提高大模型在各种端侧硬件上的能效和速度。
戴国豪在发布会上向观众展示了“一卡办大模式”。
作为LPU的基础,他的团队在今年1月初推出了全球首个部署在FPGA上的大模型推理IP。
通过对大模型的高效压缩,软硬件协同优化技术将LLaMA2-7B模型的FPGA部署成本从4卡降低为1卡,性价比和能效比高于同技术的GPU 。
未来,无问芯穹的端侧大型号专用处理器LPU可以模块化集成到各种端侧芯片中。
发布会最后,无问芯穹宣布与紫光展锐签署大型机型端侧部署战略合作。
双方宣布最终将共同探讨大型模型的部署和性能提升。
会上,无问芯穹还宣布与燧原科技就i20大卡集群进行战略合作。
吴琼Infini-AI平台与燧原科技i20大卡集群已成功完成系统级集成。
通过吴琼Infini-AI平台,可以灵活调用燧原科技的智能计算集群,完成大型模型推理任务。

随后,无问芯穹与摩尔线程签署战略合作备忘录,双方将开展深度合作。
目前,吴琼Infini-AI平台和基于摩尔线程大模型智能计算加速卡MTT S的千卡集群已成功完成系统级集成。
通过吴琼Infini-AI平台,可以灵活调用摩尔线程夸额钱卡智能计算集群,完成大型模型的高效训练和微调任务。
此外,无问芯穹还宣布与智普AI联合发布大型模型万卡培训推广计划。
双方将共同打造大模型训练推广万卡集群,并在大模型训练推理优化、计算集群性能提升等方面开展深度合作。
万卡集群将面向大模型行业应用,提供端到端的模型和算力服务,围绕技术创新和产业发展需求,利用算力集群赋能行业创新。
【本文经授权发表,不代表投资界立场。
本平台仅提供信息存储服务。
】如有疑问,请联系投资界()。
#阿里云#创新创业#创业支持#创业资讯我们关注国内外最热门的创新创业动态,提供一站式资讯服务,实时传递行业热点新闻、深度评论和前瞻观点帮助企业家掌握新兴技术。
趋势和行业变化,以及对未来技术趋势的洞察。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-17
06-18
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态