最好看的新闻,最实用的信息
11月28日 21.1°C-23.1°C
澳元 : 人民币=4.7
墨尔本
今日澳洲app下载
登录 注册

Google Gemma 优化后可在NVIDIA GPU上运行

2024-02-26 来源: 新浪电竞 原文链接 评论0条

2024年2月21日,NVIDIA携手Google在所有NVIDIA AI平台上发布面向Gemma的优化功能,Gemma是Google最先进的新型轻量级2B和 7B开放语言模型,可在任何地方运行,从而降低成本并加快特定领域用户案例的创新工作。

NVIDIA 和 Google的团队紧密合作,利用NVIDIA TensorRT-LLM(用于优化大语言模型推理性能的开源库),在数据中心的NVIDIA GPU、云计算和搭载NVIDIA RTX GPU 的PC上运行时,加速Gemma性能(Gemma由创建 Gemini 模型的相同研究和技术构建)。

这使开发者能将全球高性能 AI PC中超过1亿台搭载NVIDIA RTX GPU的用户作为潜在用户进行开发。

开发者还可在搭载 NVIDIA GPU 的云端运行Gemma,该实例拥有141GB HBM3e显存,速度为4.8TB/秒,Google将于今年部署该实例。

此外,企业级开发者还可利用NVIDIA丰富的工具生态系统(包括依托NeMo框架的 NVIDIA AI Enterprise和 TensorRT-LLM),对 Gemma 进行微调,并将优化后的模型部署到生产应用中。

详细了解有关 TensorRT-LLM如何加快 Gemma 推理速度的更多信息,以及面向开发者的其他信息:包括 Gemma 的多个模型文件和模型的 FP8 量化版本,以上这些都使用 TensorRT-LLM 进行优化。

您可在NVIDIA AI Playground 上直接通过浏览器体验 Gemma 2B 和Gemma 7B。

Gemma即将上线ChatwithRTX

NVIDIA Chat with RTX 技术演示版也即将支持 Gemma,该Demo使用 检索增强生成(RAG) 和 TensorRT-LLM 软件,为用户提供在本地 Windows RTX PC 上的生成式AI功能。

Google Gemma 优化后可在NVIDIA GPU上运行 - 1

视频链接:https://www.bilibili.com/video/BV1Ky421z7PT/

借助Chat with RTX,用户可将 PC上的本地文件轻松连接到大语言模型,利用自己的数据打造个性化聊天机器人。

由于模型在本地运行,因此可快速生成结果,而用户数据则保留在本地设备上。与依赖基于云的 LLM 服务不同,Chat with RTX 可让用户在本地 PC 上处理敏感数据,而无需与第三方共享这些数据或连接互联网。

关于NVIDIA

自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动跨市场的工业数字化。NVIDIA现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/ 。

# # #

媒体咨询:

Jade Li

NVIDIA GeForce, Studio PR

邮箱:[email protected]

关键词: NVIDIAGemmaPCRTXLLMAI
今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]

电话: (03)9448 8479

联系邮箱: [email protected]

友情链接: 华人找房 到家 今日支付Umall今日优选