谷歌最新的模型 Gemini 1.5 Flash-8B 是目前市场上速度最快且最实惠的。就像谷歌在过去几个月发布的其他许多模型一样,8B 在基础的 Flash 模型上进行了扩展,同时做了一些关键改进,包括价格更便宜、速度更快和速率限制更高。通过这些改变,这表明谷歌打算成为市场上性价比最高的模型。
Gemini 1.5 Flash-8B有何不同?谷歌团队对其轻量级模型进行了一些调整。在他们的博客文章中,他们解释说,这些调整是基于“开发者反馈及测试所能达到的极限”。这是一个相当大胆的声明,让我们来看看具体做了哪些调整。
价格下调令人惊讶的是,Flash的价格已经很低,但随着Flash-8B的发布,价格再次减半。这意味着价格减半,现在,100万个输入token只需0.0375美元,而100万个输出token,在大提示的情况下只需0.15美元。
虽然这听起来不错,但我没有直接与其他同类产品比较,所以我没能真正体会到这款产品的价格有多实惠。
更快的响应当 Gemini 1.5 Flash 发布时,Google 解释说它是为了成为高性能的 Gemini 1.5 Pro 的快速且便宜的替代品。这款新的实验性 Flash 模型将在这一理念的基础上进一步加快速度。现在,无论是通过 AI Studio 进行实验,还是使用 Gemini API 进行开发,您都会发现更加流畅的体验。
当我们看看Artificial Analysis制作的速度对比图时,可以真正看到这个模型的速度有多么令人印象深刻。他们的数据显示,Flash 比 GPT-4o 快 40%,后者是速度排名第二的模型。显然,速度是 AI 产品的一个关键因素。使用 8B 后,开发人员可以确保用户会感受到明显缩短的响应时间。
(视觉设计来自Artificial Analysis)
提高的速率限制这个模型的最后一个重大改进是请求速率限制。与Flash相比,请求速率限制增加了一倍!考虑到Flash主要用于更小、更快速的任务,提高的请求速率限制确保开发人员和用户不会受到请求数量的限制。新的请求速率限制是每分钟4,000个请求。
怎么才能访问Flash-8B?目前,这款新的 Gemini 模型可以用于 Google AI Studio 以及 Gemini API。我建议先在 AI Studio 上免费试一下,然后再过渡到 API。
Flash-8B跟其他的Gemini模型比起来怎么样?在将 Flash 或 Flash-8B 与其他 Gemini 模型进行比较时,重要的是要记住,该模型旨在成为像 Gemini 1.5 Pro 这样的强大模型的更便宜和更快的替代品。话虽如此,最新的 Flash 模型在常见基准评测中仍然表现良好。下图展示了不同 Gemini 模型之间的比较以及 Flash-8B 在整体层次结构中的位置中的位置。值得注意的是,这个新模型仅在四个基准测试中超越了基础 Flash 模型,但在大多数其他评测中仅略有不如。
共同学习,写下你的评论
评论加载中...
作者其他优质文章