Phi-3 家族
Phi-3 模型是市面上最有能力且成本效益最高的小型语言模型(SLMs),在各种语言、推理、编码和数学基准测试中,超越了同等大小以及下一个大小级别的模型。这一发布扩展了客户选择的高质量模型范围,为客户提供了更多实用的选择,用于组合和构建生成性人工智能应用。
Phi-3 家族包括迷你版、小型版、中型版和视觉版,根据不同的参数量进行训练,以服务于各种应用场景。每个模型都经过指令调优,并根据微软的负责任人工智能、安全和安全标准开发,确保它可以直接使用。
Phi-3-迷你版
Phi-3-迷你版是一个具有38亿参数的语言模型,提供两种上下文长度 128K 和 4K。
Phi-3-迷你版是一个基于Transformer的语言模型,拥有38亿参数。它使用包含教育有用信息的高质量数据进行训练,并辅以包含各种NLP合成文本和内外聊天数据集的新数据源,这些数据源显著提高了聊天能力。此外,Phi-3-迷你版在预训练后通过监督式微调(SFT)和直接偏好优化(DPO)进行了聊天微调。在此后的训练后,Phi-3-迷你版在几个能力上表现出显著的改进,特别是在对齐、鲁棒性和安全性方面。该模型是Phi-3家族的一部分,以迷你版的形式提供,有两种变体,4K和128K,分别代表它能够支持的上下文长度(以令牌计)。
Phi-3-小型版
Phi-3-小型版是一个具有70亿参数的语言模型,提供两种上下文长度 128K 和 8K。
Phi-3-小型版是一个基于Transformer的语言模型,拥有70亿参数。它使用包含教育有用信息的高质量数据进行训练,并辅以包含各种NLP合成文本和内外聊天数据集的新数据源,这些数据源显著提高了聊天能力。此外,Phi-3-小型版在预训练后通过监督式微调(SFT)和直接偏好优化(DPO)进行了聊天微调。在此后的训练后,Phi-3-小型版在几个能力上表现出显著的改进,特别是在对齐、鲁棒性和安全性方面。与Phi-3-迷你版相比,Phi-3-小型版在多语言数据集上接受了更为密集的训练。该模型家族提供两种变体,8K和128K,分别代表它能够支持的上下文长度(以令牌计)。
Phi-3-中型版
Phi-3-中型版是一个具有140亿参数的语言模型,提供两种上下文长度 128K 和 4K。
Phi-3-中型版
Phi-3-中型版是一个基于Transformer的语言模型,拥有140亿参数。它使用包含教育有用信息的高质量数据进行训练,并辅以包含各种NLP合成文本和内外聊天数据集的新数据源,这些数据源显著提高了聊天能力。此外,Phi-3-中型版在预训练后通过监督式微调(SFT)和直接偏好优化(DPO)进行了聊天微调。在此后的训练后,Phi-3-中型版在几个能力上表现出显著的改进,特别是在对齐、鲁棒性和安全性方面。该模型家族提供两种变体,4K和128K,分别代表它能够支持的上下文长度(以令牌计)。
Phi-3-视觉版
Phi-3-视觉版 是一个具有42亿参数的多模态模型,具备语言和视觉能力。
Phi-3-视觉版是Phi-3家族中的第一个多模态模型,将文本和图像结合在一起。Phi-3-视觉版可以用来推理真实世界的图像,并从图像中提取和推理文本。它还针对图表和图解的理解进行了优化,可以用来生成洞见和回答问题。Phi-3-视觉版在Phi-3-迷你版的基础上构建,继续在小型模型中提供强大的语言和图像推理质量。