今年 4 月,微软首次发布了Phi-3 系列 SLM(小型语言模型),该产品具有低成本、低延迟的特性。Phi-3-mini 是一种 3.8B 语言模型,有 4K 和 128K 两种上下文长度。Phi-3-medium 是 14B 语言模型,也有两种上下文长度。
微软今天宣布,Phi-3-mini 和 Phi-3-medium 均可在 Azure 上进行微调。微调允许开发人员针对不同的用例提高基本模型的性能。例如,可以针对学生辅导对 Phi-3-medium 模型进行微调,也可以根据特定的语气或回复风格构建聊天应用。可汗学院等领先机构已经在实际的人工智能应用中使用了 Phi-3 模型。
微软还宣布了模型即服务(无服务器端点)功能的全面可用性。正如预期的那样,Phi-3-small 模型现在可通过无服务器端点提供,让任何人都能快速开发人工智能应用,而无需担心底层基础设施。通过 Azure AI 模型目录提供的多模式模型Phi-3-vision 很快也将通过无服务器端点提供。
上个月,微软更新了 Phi-3-mini 型号,提供了显著的改进。根据行业基准测试,Phi-3-mini-4k 在 2024 年 6 月更新后的得分为 35.8(以前为 21.7),Phi-3-mini-128k 的得分为 37.6(以前为 25.7)。
微软还重点介绍了最近在 Azure 上推出的新机型:
OpenAI GPT-4o mini
Mistral Large 2
Meta Llama 3.1 型号系列
Cohere Rerank
Azure OpenAI 服务现在默认启用了新的 Azure AI 内容安全功能,包括提示屏蔽和受保护材料检测。开发人员可以将这些功能用作任何基础模型(包括 Phi-3、Llama、Mistral 等)的内容过滤器。
通过这些更新和扩展,微软清楚地表明了其在 Azure 上推进人工智能功能的承诺。通过不断投资于Azure上最先进的人工智能模型,并提供用于微调和部署的可用工具,使开发人员能够轻松创建人工智能解决方案。
了解更多: