1月26日消息,美国时间周四, OpenAI宣布了一系列重大更新。这些更新不仅关乎它们备受欢迎的大模型,还包括API访问价格的调整、性能优化以及全新嵌入性模型的发布。这些动作旨在吸引更多开发者的注意,也有望为未来的消费者市场设立新的标杆。
OpenAI这次更新中,特别提到了它们的GPT-4 Turbo和GPT-3.5 Turbo两大模型。它们都是大型多模式模型,可以理解和生成自然语言或代码。在新版本中,它们迎来了诸多增强功能,包括更精准的指令跟随、支持JSON模式、更多可复现的输出,以及并行函数调用的优化。
此外,该公司还推出了全新的16k版本GPT-3.5 Turbo,这一版本在处理超长输入和输出时,相比标准的4k版本展现出了更为出色的性能。
对于众多用户而言,GPT-3.5 Turbo并不陌生。作为大多数人通过ChatGPT进行互动的背后支持模型,它几乎已经成为了行业内的金标准。面对其他聊天机器人,如果用户发现其回答质量不及ChatGPT,那么继续使用后者无疑成为了最佳选择。
在API领域,GPT-3.5 Turbo同样表现不俗。在执行各类任务时,它不仅能够提供比GPT-4更低的成本,还能保证更快的执行速度。因此,对于那些付费用户来说,此次输入价格下调50%、输出价格下调25%无疑是一大利好。具体来说,新的输入价格定格在每千个代币0.0005美元,而输出价格则为每千个代币0.0015美元。
在处理文本密集型应用(如整篇论文或书籍的分析)时,这些代币的累积费用往往相当可观。而且随着开源大模型开始发力,OpenAI需要确保其客户不会离开。因此,这一价格调整无疑将为用户带来真正的实惠。当然,这也是模型精简和基础设施改进的结果。
在GPT-3.5 Turbo上,OpenAI还悄然推出了代号为GPT-3.5 Turbo 0125的新模型版本。虽然该公司并未大肆宣扬,但这一版本显然包含了一系列“各种改进”。不过,相较于最新版本GPT-3.5 Turbo 0613,这一更新似乎并未带来公司认为值得特别提及的重大突破。
在GPT-4 Turbo上,OpenAI同样有所动作。一个新的API使用预览模型——GPT-4 Turbo 0125应运而生。这个模型成功解决了GPT-4 Turbo过去存在的一个老问题,即模型在面对某些任务时可能出现的“懒惰”情况。此外,GPT-4 Turbo 0125在代码生成等任务方面的表现也较之前的预览模型有了显著提升。
目前,GPT-4 Turbo 0125仍处于预览模式阶段。不过,具有视觉效果的GPT-4 Turbo(即GPT-4 V)有望在“未来几个月内”与广大用户正式见面。
在嵌入模型方面,OpenAI同样带来了令人振奋的消息。该公司推出了全新的text-embeddings-3-small和text-embeddings-3-large模型,它们相较于上一代的text-embeddings-ada-002展现出了更为强大的性能和更为亲民的价格。
这些新模型能够创建多达3072维度的嵌入空间,从而捕获更多的语义信息并提高下游任务的准确性。在性能测试中,新模型将多语言检索(MIRACL)常用基准的平均分数从31.4%提升至54.9%,而在英语任务(MTEB)常用基准上的平均分数也从61.0%提升至64.6%。
更值得一提的是,与text-embeddings-ada-002相比,text-embeddings-3-small的价格降到1/5,这无疑为开发人员带来了更为经济实惠的选择。
此外,OpenAI还发布了一个全新版本的免费文本审核API。这一API能够检测文本是否包含敏感或不安全的内容,并且新版本还扩展了支持的语言和领域范围,同时为其预测提供了更为详尽的解释。(小小)