OpenAI 昨天低调地宣布了一项重要消息,其旗舰前沿模型GPT-4o现在支持更多的输出词元。GPT-4o 的实验版本名为 GPT-4o Long Output,现在每个请求最多可支持 64000 个输出标记。
这将有助于开发人员将 GPT-4o 模型用于需要较长时间完成的用例。加入 OpenAI alpha 计划的开发人员可以使用"gpt-4o-64k-output-alpha"模型名称访问 GPT-4o Long Output。
由于长补全的成本较高,OpenAI 提高了该模型的单位令牌定价。gpt-4o-64k-output-alpha 的价格为 6.00 美元/100 万个输入词元,18.00 美元/100 万个输出词元。
与此相关,微软昨天宣布发布GPT-4o mini API,为全球和美国东部地区标准部署提供视觉支持,微软将很快把它推广到更多地区。
有了 GPT-4o mini 的视觉支持,开发人员可以在涉及视觉识别、场景理解等应用中使用 API 处理图像和视频。此外,GPT-4o mini 还能根据视觉输入生成详细、上下文准确的文本输出。
Microsoft Azure 团队就 GPT-4o mini 在 Azure 上的可用性撰文如下:
"GPT-4o mini 增加了视觉输入功能,扩大了其多功能性,为开发人员和企业开辟了新天地。这一增强功能使用户能够处理和分析视觉数据,提取有价值的见解,并生成全面的文本输出"。
Azure 客户现在可以在 Azure OpenAI Studio Playground 中试用 GPT-4o mini,他们可以在这里了解有关该模型的更多信息。
OpenAI 和微软产品的这些进步表明了人工智能领域的快速发展,尤其是在语言和视觉模型方面。随着这些模型变得更加强大和易于使用,它们为开发者和企业重新思考为消费者提供的体验开辟了新的可能性。