谷歌版o1模型发布:霸榜排名第一,深度展示思维链

rainbow @ 2024年12月21日 财经风云

谷歌版o1模型发布:霸榜排名第一,深度展示思维链

AIGC开放社区 


新的Thinking模型是以刚发布的2.0 Flash版本为基础,使用了类似o1模型的慢思维思考方式,可以深度可视化展示整个思维链过程,尤其是在执行数学、编程等复杂问题方面,能持续输出全部推理过程,而不是直接给出答案。
今天凌晨1点,谷歌DeepMind首席科学家宣布推出全新测试模型——Gemini 2.0 Flash Thinking。

新的Thinking模型是以刚发布的2.0 Flash版本为基础,使用了类似o1模型的慢思维思考方式,可以深度可视化展示整个思维链过程,尤其是在执行数学、编程等复杂问题方面,能持续输出全部推理过程,而不是直接给出答案。

值得一提的是,Thinking是支持多模态推理的。

例如,让Thinking模型解读一道非常复杂的物理题:一个电子被困在一维无限势阱中,其边界位于\(x = -0.15 \) nm 和 \( x = +0.15 \) nm。求当电子在势阱中改变能级时发射出的四个最长波长的光子。

Thinking可以完完整整地展现出所有的推理过程。
也可以让Thinking推理一下图片:如何使用这些数字中的三个,使其相加总和为 30 呢?

根据Chatbot Arena LLM Leaderboard最新评测数据显示,Thinking模型在代码、数学、指令遵循、多轮测试等基准测试中,全部排名第一,超过了o1的预览版。

谷歌和OpenAI在今年12月打的真激烈啊。

我哭死,那个曾经的老大哥——谷歌回来了!

Gemini 2.0 Flash Thinking是下一代AI。显式思考意味着推理变得更智能、更快速、更强大。更长的推理时间?完全值得。智能呈指数级增长。未来已来。

非常棒。我很想知道,Gemini 2.0 Flash Thinking的推理链是否会使用除了文本之外的其他模态,例如,在推理链中使用非常出色的图像生成功能来帮助解决问题、提前规划、模拟各种旋转、标记、编辑,以及使用图像和视频功能?(是支持多模态的)

谷歌正在迎头赶上,全新推理模型!

Taking模型将性能提升到全新层次,这款将是改变游戏规则!

目前,Thinking模型已经开放使用,可以在Google AI Studio 和 Vertex AI 中的 Gemini API中尝试。

本文来源: AIGC开放社区,原文标题:《谷歌版o1模型发布:霸榜排名第一,深度展示思维链》


风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。