最好看的新闻,最实用的信息
12月28日 10.5°C-14.5°C
澳元 : 人民币=4.53
墨尔本
今日澳洲app下载
登录 注册

原来是谷歌Open了AI?

2024-02-22 来源: 搜狐 原文链接 评论0条

太热闹了。Google发布Gemini1.5的时候,被 OpenAI 的 Sora 截胡抢了风头。这些天,铺天盖地都是“Sora又让人类完了”的新闻。

昨夜,“悄悄地”,Google发布了自己的开源大模型——一款能跑在你笔记本电脑上的大模型。

最强的开源模型!

Google 开放了与 Gemini 模型“同源”的轻量级模型——Gemma(取拉丁文“宝石”之意)。Gemma 模型包括两种权重规模,“Gemma 2B”和“Gemma 7B”,分别对应 20 亿参数和 70 亿参数版本。

“宝石”开源模型丨Google

对于 Gemma 的技术细节深挖和测试之后,大家的“兴奋点”主要在,Gemma 的性能表现和对于开发者的友好和易用性。

首先,与参数规模相当的模型进行比较,在涵盖语言理解,推理,数学,编程的8项基准测试中,Gemma(7B)超过了LLaMA 2(7B)、LLaMA 2(13B)和Mistral(7B)(除了在语言理解上弱于LLaMA 2(13B))。

每种规模模型都有预训练和指令微调变体。Google十分强调 Gemma 开源模型的安全性。

Google 进行了大量的微调和人类反馈强化学习(RLHF),降低模型带来的风险,经过指令微调的Gemma-2B IT和 Gemma-7B IT模型,在人类偏好评估中都超过了Mistal-7B v0.2模型。特别是Gemma-7B IT模型,它在理解和执行具体指令方面,表现得更加出色。——与Google负责任的AI目标对齐。

官方给出的数据对比丨Google

深度学习框架 Keras 的作者 François Chollet 对此称,“最强开源模型易主。”

其次,方便易用。

用户能通过 Colab 和 Kaggle notebooks(可以理解为一个在线notebook,用于运行代码),以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM 等流行工具集成。

上线Hugging Face的Gemma丨Hugging Face

Gemma 可以被轻松部署在资源有限的环境中,比如笔记本电脑,台式机,Google Cloud,Vertex AI(训练和部署模型和应用的ML平台)和 Google Kubernetes Engine(托管环境,在里部署、管理和扩缩容器化应用),以满足开发者不同需求。

尤其是今天很多端侧设备,比如手机、车机、电脑等,都在进行“AI转型”,灵活、运行成本低的轻量级模型,有了更明确的商业前景。

大模型怎么还分“开”和“闭”

这一轮生成式 AI 浪潮是由 ChatGPT 掀起的,毫无置疑,对大模型的普及和加速,OpenAI 所起到的贡献也是最大的。“但是名为Open,却正变得越来越封闭”,一些声音说。

Meta、Mistral 因为开源,赢得不少赞誉。开源,是一种“众人拾柴火焰高”的策略,一个开放的生态系统,能吸引开发者加入,他们的生产力“反哺”到模型本身。

在开放和垄断的问题上,龙与屠龙者的身份不断交换丨Giphy

对于 Meta 开源LLaMA 2,Yann LeCun(杨立昆)说,“这将改变大模型市场的格局。”

美国斯坦福大学基金会模型研究中心主任 Percy Liang 说,“对于许多应用场景来说,你不需要 GPT-4,相较于一个庞大、复杂的专有模型,一个更可定制、更透明的模型——比如 Llama 2,可能会帮助公司更快地创造产品和服务。”

Mistral 想法与之类似。小模型能将 Agents 运行的计算成本降低,有机会构建更多有意思的应用。

Gemma(7B)用到6万亿Token,效果和Mistral 7B 差不多,之前大家也猜测 Mistral 7B使用了7万亿Token。Gemma再次证明,数据质量足够好(比如Google说Gemma数据集以数学,代码数据为主),小模型的能力仍然能够持续提升。

Hugging Face是目前最著名的开源模型基地丨Giphy

Mistral AI CEO Arthur Mensch 说,“开源让模型受到公众监督,更加安全。”分歧的声音说,闭源优势在于可控性,和知识产权保护。闭源模型相对成熟,数据质量更有保障。拼模型规模上,开源相对闭源处于劣势,大模型对于资源的消耗,是少有公司能承担的。产生路线的分歧,来自各自的商业逻辑。

Google 开源 Gemma,无论步子大小,是主动出击,还是防御战略,至少为开发者提供了更多选择,对大模型的开源生态注入一股新鲜活力。

谷歌曾经Open了哪些AI?

纵观 Google 的历史,你能看到很多其为 AI 开放开源所做的贡献。

Transformers

在“谷歌大脑”于2017年的一篇论文中最先提出(Attention Is All You Need),很快成为自然语言处理和电脑视觉领域的主流方案,目前我们谈论的这些“生成式AI大模型”,几乎都是以Transformers为基础的。如那篇论文题目,Transformers的核心机制叫做“自注意力”,简单粗暴的理解,就是让AI获得了分辨数据优先级的能力,从看什么都兴奋语无伦次的“多动症”,变成了“正常人”。

Transformer的开放使用,塑造了我们这个AI时代。

不是这个Transformer哦丨Giphy

TensorFlow

TensorFlow 是一个开源机器学习平台,同样由“谷歌大脑”团队开发,于2015年首次发布,继而迅速成为各类“含 AI 应用”开发者们最常用的创作平台。谷歌在2016年还专门为 TensorFlow 开发了一款“人工智能加速处理器”,TPU——目前也和大家熟悉的GPU一样,被用于各种AI大模型的训练。

JAX

JAX 是谷歌开发并开放的一种 Python 机器学习框架,开发者常拿来与 TensorFlow 一起配合使用,甚至有人曾预言它将取代 TensorFlow。

AlphaFold

这是一个用来预测蛋白质结构的工具,也属于一种深度学习系统。最早由谷歌在2018年发布,并在2020年更新了第二代版本。“蛋白质结构预测”是生物学和医学中最重要的命题之一,在这个领域的权威会议CASP中,2016年前各类传统方式预测得分最高只有40/100,而AlphaFold在2020年取得了92.4/100的成绩。在新冠疫情期间,AlphaFold还对新冠病毒蛋白质结构的研究起到了重要作用。

而今天 Google 推出 Gemma,再一次掀起构建开源模型的浪潮,抢先了 Llama 3。接下来,就看 Meta 将会如何接招了。

作者:沈知涵

编辑:卧虫

Guokr

苹果Vision Pro,真机实测来了!Vision Pro号称是一款革命性的空间计算机,将带来虚拟键盘、眼球追踪、语音识别等新的交互方式。不过3499美元(约合2.48万元人民币)的苹果混合现实大眼镜门槛属实不低,虽然没买到,但总能看看吧~

2 月 23 日(周五)18:30,果壳将开启Vision Pro 真机直播实测!直播中,你将目睹 Vision pro 的超清显示效果、流畅的操作体验和独特的交互方式,主播还会解答关于 Vision pro 的各种问题,分享他们的使用感受。

如果你想入手一台,先进直播间看看值不值得买?已经是氪金机主,也欢迎大家在直播中来吐槽和分享体验。上方预告按钮,可预约直播。

我们不见不散,一起来感受未来科技的震撼吧!

如有需要请联系[email protected]

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]

电话: (03)9448 8479

联系邮箱: [email protected]

友情链接: 华人找房 到家 今日支付Umall今日优选