[人工智能] [大模型] [PaLM 2] [多语言模型]
Google 在今年的I/O大会上,发布了新的大规模语言模型 PaLM 2,根据官方博客 Introducing PaLM 2 介绍,有以下几点:
-
改进了多语言,推理和写代码的能力
- 多语言方面,PaLM 2 使用了更多的训练数据, 涵盖 100 多种语⾔ 。PaLM 2 在多语言理解、生成和处理一些比较难的文字(包括成语 、 诗歌和谜语) 的能⼒有很大改进。通过了“精通”级别的⾼级语⾔能⼒考试 。
- 推理方面,训练数据中包含了科学论⽂、和有数学表达式的⽹⻚ ,提高了 PaLM 2 数理推理能力。
- 代码编写方面,⼤量公开可⽤的源代码数据集上进⾏了预训练,在多个编程语言生成上表现出色。
-
PaLM 2 提供四种多种尺⼨的模型:
- 从最⼩到最⼤: Gecko 、Otter 、 Bison 和 Unicorn 。
- Gecko ⾮常小,可以在移动设备上⼯作 ,速度⾜也够快 , 在离线时也能在设备上运⾏。
-
具体应用
- Gmail 和 Google Docs上书写
- Med-PaLM 2 是第 ⼀ 个在美国医疗执照考试类问题上表现出“ 专家”⽔平的⼤型语⾔模型
- Sec-PaLM:网络安全领域的大模型
-
多模态大模型 Gemini 正在训练中。
现在PaLM 2已经开放API服务,也可以通过MakerSuite平台进行使用
使用PaLM2方式
网友评论