OpenAI宣布推出了最新的、更聪明的AI模型GPT-4 Turbo,阿尔特曼介绍了六大更新点。
首先,更长的上下文长度。GPT-4 Turbo具有128k上下文长度,相比于此前的版本有显著增加,此前GPT-4支持8k上下文长度,在某些情况下能支持高达32k长度。这也意味着,GPT-4 Turbo单个提示中可容纳相当于300多页文本的内容。
今天,GPT-4 Turbo可供所有付费开发者通过传递gpt-4-1106-previewAPI进行尝试,阿尔特曼透露,他们计划在未来几周内发布稳定的生产就绪模型。 第二,更可控。开发人员需要对模型的响应和输出进行更多控制,OpenAI推出了被称为Json Mode的新功能,其可以确保开发人员更容易调用API,且更好遵循指示。 这一功能的改进包括,提供了一条消息中调用多个功能的能力,用户可以发送一条消息请求多个操作等。
除此以外,其它相关更新参数将允许开发人员使模型更容易返回一致的输出结果,从而实现可重复输出,这一测试版功能对于重播调试请求、编写更全面的单元测试以及通常对模型行为具有更高程度的控制等应用非常有用。 OpenAI还推出了能记录GPT-4 Turbo、GPT-3.5 Turbo在未来几周内生成的最有可能输出token的概率的日志工具,这有助于构建搜索体验中的自动完成等功能。 第三,更多的世界知识。GPT-4 Turbo的知识库截止时间为2023年4月,这意味着它在回答截止日期前发生事情的相关问题时答案将更准确。OpenAI还在平台中启动检索,开发人员可以将外部文档或数据库中的指示带入其正在构建的内容中。 第四,新的视觉模态。GPT-4 Turbo可以支持图像输入,并完成生成标题、详细分析图像以及阅读带有图形的文档等应用。OpenAI计划为主要的GPT-4 Turbo模型提供视觉支持,作为其稳定版本的一部分。
开发人员可以通过其图像API指定模型,将DALL·E 3直接集成到企业的应用程序和产品中。每生成一张图像的起价为0.04美元(折合人民币约0.29元)。 同时,开发人员还能通过文本转语音API生成更自然的语音文件,OpenAI新TTS模型提供了六种预设声音及两种模型变体。每输入1000个字符起价为0.015美元(折合人民币约0.11元)。 OpenAI还宣布了开源语音识别模型的下一个版本,很快就会发布。 第五,定制微调。这项更新针对的是GPT-4,OpenAI推出一项用于微调GPT-4的实验性访问计划,允许开发人员创建ChatGPT的自定义版本,包括修改模型训练过程的每一步,进行额外的特定领域预训练、运行针对特定领域定制的自定义强化学习后训练过程。
第六,更低的价格和更高的费率限制。OpenAI正在降低整个平台的价格。GPT-4 Turbo输入tokens价格是GPT-4的1/3,为0.01美元/1k tokens(折合人民币约0.07元),输出tokens价格是其1/2,为0.03美元/1k tokens(折合人民币约0.22元)。阿尔特曼举了个例子,将1080×1080像素的图像传递给GPT-4 Turbo将花费0.00765美元(折合人民币约0.06元)。 GPT-3.5 Turbo输入tokens比之前的16k模型价格便宜1/3,输出tokens便宜1/2,分别是0.001美元/1k tokens(折合人民币约0.007元)和0.002美元/1k tokens(折合人民币约0.015元)。 |