Google正式推出旗舰AI模型Gemini 2.0 Pro,同时推出Flash Thinking模型,加强其在AI 领域的竞争力。
谷歌推Gemini 2.0系列
面对DeepSeek 所掀起的低价高效风潮,Google(谷歌)于周三正式推出了旗舰AI 模型Gemini 2.0 Pro Experimental,并同时发布Gemini 2.0 Flash Thinking 模型,被视为Google 在AI 领域积极应对竞争,巩固其市场地位的重要举措。
Gemini 2.0 Pro:编码能力再升级,上下文窗口扩大
Gemini 2.0 Pro 是Google 于去年二月推出的Gemini 1.5 Pro 的继任者,Google 宣称其现在是Gemini AI 模型系列中的领头羊。该模型擅长编码和处理复杂提示,并且比以往任何模型都拥有「更好的世界知识理解和推理能力。」
据《Tech Church》报导,Gemini 2.0 Pro 甚至可以调用Google 搜寻等工具,并代表用户执行程式码。
值得一提的是,Gemini 2.0 Pro 的上下文窗口达到了200 万tokens,这意味着它可以一次处理约150 万个单字(指英语词汇),此容量足以让它在单个提示中读取《哈利波特》系列的所有七本书,并且还剩下约40 万个单字的空间。
Gemini 2.0 系列模型已正式推出。图/ Google
应对DeepSeek! Gemini 2.0 Flash Thinking参战
Google 和DeepSeek 都于去年12 月发布了AI 推理模型,但DeepSeek 的R1 获得了更多关注。 DeepSeek 的模型在效能上可媲美,甚至超越美国科技公司提供的领先AI 模型,而且企业可以透过其API 以相对低廉的价格使用这些模型。
为了应对DeepSeek 的竞争,Google 正试图透过Gemini 应用程式让更多人看到Gemini 2.0 Flash Thinking 模型,盼透过Gemini 2.0 Pro 和Gemini 2.0 Flash Thinking 的推出,在竞争激烈的AI 市场中保持领先地位。
Gemini 2.0 系列模型比一比
Gemini 2.0 Flash
Gemini 系列中的主力模型,适用于日常任务。相较于1.5 Flash,它在品质上有显著提升,若与1.5 Pro 相比,则在品质略微提升的同时,延迟更低,更接近即时反应。
主要特性:
具备多模态即时API,支援低延迟的双向语音和影片互动。在多数品质基准测试中,效能优于Gemini 1.5 Pro。在多模态理解、编码、复杂指令遵循和函数呼叫等方面有所改进,支援更优质的代理体验。新增内建图像生成和可控制的文字转语音功能,实现图像编辑、本地化艺术作品创作和富有表现力的故事叙述。
适用场景:
适用于需要快速反应和高品质输出的日常应用,例如即时翻译、影片辨识等。
Gemini 2.0 Flash-Lite
它是Flash 模型中最快速且最具成本效益的版本,适合需要兼顾速度和成本的场景。
主要特性:
在相同的价格和速度下,品质优于1.5 Flash。具有多模态输入和文字输出功能,配备1M tokens 输入上下文窗口和8k tokens 输出上下文窗口。但它不包含Gemini 2.0 Flash 的多模态输出生成、多模态即时API 整合、思考模式和内建工具使用等功能。
适用场景:
适用于大规模文字输出应用,例如为大量照片生成标题等。
Gemini 2.0 Pro
Gemini 系列中编码能力和世界知识最强的模型,并具备2M 长的上下文窗口,适合需要处理大量资讯和复杂编码任务的场景。
主要特性:
在编码效能和处理复杂提示方面表现出色,对世界知识的理解和推理能力更强。拥有200 万tokens 的超大上下文窗口,能够全面分析和理解大量资讯。具备工具调用能力,例如Google 搜寻等。
适用场景
适用于需要强大编码能力和处理复杂问题的场景,例如将Python 程式码转换为Java 程式码。或是研究人员可以使用Gemini 2.0 Pro 快速阅读和理解大量的学术文献,并自动生成文献综述,节省大量的时间和精力
本文链接地址:https://www.wwsww.cn/hqfx/30457.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。