本站点文档内容均翻译自code.visualstudio.com,仅供个人学习,如有差异请以官网为准。

在AI工具包中探索模型

AI 工具包为各种生成式 AI 模型提供全面支持,包括小型语言模型 (SLM) 和大型语言模型 (LLM)。

在模型目录中,您可以探索和利用来自多个托管源的模型:

  • 托管在GitHub上的模型,如Llama3、Phi-3和Mistral,包括按使用付费选项。
  • 由出版商直接提供的模型,包括 OpenAI 的 ChatGPT、Anthropic 的 Claude 和 Google 的 Gemini。
  • 托管在微软Foundry的模型。
  • 从Ollama和ONNX等仓库本地下载的模型。
  • 通过自定义自托管或外部部署模型,通过自定义模型(BYOM)集成进行访问。

直接从模型目录中将模型部署到Foundry,简化您的工作流程。

注意

使用 Microsoft Foundry、Foundry Local 和 GitHub 模型,这些模型已添加到 AI 工具包中,并与 GitHub Copilot 集成。有关更多信息,请查看 更改聊天对话的模型

AI 工具包模型目录展示各种生成型 AI 模型

找到一个模型

要查找模型目录中的模型:

  1. 在活动栏中选择AI工具包视图

  2. 选择型号 > 目录 打开型号目录

  3. 使用筛选器来减少可用型号的列表

    • 托管方:AI 工具包支持 GitHub、ONNX、OpenAI、Anthropic、Google 作为模型托管来源。
    • 发布者:AI 模型的发布者,例如微软、Meta、谷歌、OpenAI、Anthropic、Mistral AI 等。
    • 功能:模型支持的功能,例如 文本附件图片附件网页搜索结构化输出,以及更多。
    • 模型类型:筛选可以在 CPU、GPU 或 NPU 上远程或本地运行的模型。此筛选取决于本地可用性。
    • 微调支持:显示可用于运行微调的模型。
  4. 浏览不同类别的模型,例如:

    • 热门模型 是一个精心挑选的列表,包含在各种任务和领域中广泛使用的模型。
    • GitHub 模型 提供了对托管在 GitHub 上的流行模型的便捷访问。它最适合快速原型设计和实验。
    • ONNX 模型 优化用于本地执行,并且可以在 CPU、GPU 或 NPU 上运行。
    • Ollama 模型 是受欢迎的模型,可以使用 Ollama 在本地运行,并通过 GGUF 量化支持 CPU。
  5. 或者,使用搜索框通过名称或描述查找特定型号

从目录中添加一个模型

要添加模型目录中的模型:

  1. 在模型目录中找到您要添加的模型。

  2. 选择 添加 在模型卡上

  3. 根据提供商不同,添加模型的流程会略有不同:

    • GitHub:AI 工具包需要您的 GitHub 凭据来访问模型库。一旦验证通过,模型将直接添加到 AI 工具包中。

      注意

      AI 工具包现在 支持 GitHub 按使用量付费模式,因此您在免费层级限制之后仍可以继续工作。

    • ONNX:该模型从ONNX下载并添加到AI工具包。

    • Ollama:该模型从Ollama下载并添加到AI Toolkit。

      小贴士

      您可以在稍后通过右键单击模型并选择编辑来编辑API密钥,并在查看加密值${HOME}/.aikt/models/my-models/yml文件。 AI 工具包界面的截图,显示了一个模型卡片,其中包含选项“在 Playgound 中尝试”、“下载”和“在 Playgound 中加载”。

    • OpenAIAnthropicGoogle:AI 工具包需要您输入 API 密钥。

    • 自定义模型参考自定义模型部分的详细说明。

一旦添加,该模型会出现在我的模型下树视图中,并且您可以在游乐场智能体构建器中使用它。

添加自定义模型

您还可以添加外部托管或本地运行的自己的模型。有几种选择:

  • 添加来自Ollama库的Ollama模型或自定义的Ollama端点。
  • 添加具有 OpenAI 兼容端点的自定义模型,例如自托管模型或在云服务上运行的模型。
  • 使用AI Toolkit的模型转换工具添加自定义ONNX模型,例如来自Hugging Face的模型。

有几种方法可以将模型添加到AI工具包中:

  • 我的模型 在树视图中,悬停并选择 输入:+图标。 AI 工具包界面的截图,显示了模型目录工具栏,其中“+ 添加模型”按钮被突出显示,指示用户可以点击此处添加新的自定义模型。

  • 模型目录中,选择工具栏上的 + 添加模型 按钮。 AI 工具包界面的截图,显示了模型目录工具栏,其中“+ 添加模型”按钮被突出显示。工具栏位于目录视图的顶部,“+ 添加模型”按钮被突出显示,以指示用户可以点击此处添加新的自定义模型。

  • 模型目录中的自定义模型部分,选择+ 添加您自己的模型AI 工具包界面的截图,显示在模型目录中的自定义模型部分。+ 添加模型按钮被突出显示,表示用户可以点击此处添加新的自定义模型。

添加Ollama模型

Ollama 通过 GGUF 量化使许多流行的生成式 AI 模型能够本地运行 CPU。如果你在本地机器上安装了 Ollama 并下载了 Ollama 模型,你可以将它们添加到 AI 工具包中,以便在模型游乐场中使用。

在 AI 工具包中使用 Ollama 模型的先决条件:

  • AI 工具包 v0.6.2 或更新版本。
  • Ollama (测试于 Ollama v0.4.1)

将本地Ollama添加到AI工具包

  1. 从上面提到的入口之一中,选择添加Ollama模型

    选择模型类型以添加

  2. 接下来,选择 从Ollama库中选择模型

    如果你在不同的端点启动Ollama运行时,选择提供自定义Ollama端点来指定一个Ollama端点。

  3. 选择您想要添加到AI工具包的模型,然后选择确定

    注意

    AI 工具包仅显示已下载到 Ollama 但尚未添加到 AI 工具包中的模型。要从 Ollama 下载模型,可以运行ollama 拉取 <模型名称>要查看Ollama支持的模型列表,请参阅Ollama库或参考Ollama文档

  4. 您现在应该在树视图的模型列表中看到所选择的Ollama模型。

    注意

    目前Ollama模型不支持附件。因为我们通过其兼容OpenAI的端点连接到Ollama,而它目前不支持附件。

添加一个与 OpenAI 兼容的自定义模型端点

如果你有一个可以透过互联网访问的、与 OpenAI 兼容的自托管或部署模型的端点,你可以将其添加到 AI 工具包中并在游乐场中使用它。

  1. 从上面的入口点之一,选择添加自定义模型
  2. 输入OpenAI兼容的端点URL和所需信息。

要添加一个自托管或本地运行的Ollama模型:

  1. 选择 + 添加模型 在模型目录中。
  2. 在快速选择模型中,选择 Ollama自定义模型
  3. 输入所需的详细信息以添加模型。

添加自定义 ONNX 模型

要添加自定义 ONNX 模型,请首先使用模型转换工具将其转换为 AI 工具包模型格式。转换后,将模型添加到 AI 工具包。

将模型部署到微软Foundry

您可以直接从AI Toolkit将模型部署到Microsoft Foundry。这使您能够在云端运行模型,并通过端点访问它。

  1. 从模型目录中选择您想要部署的模型。

  2. 选择部署到微软铸造厂,可以从下拉菜单或直接从部署到微软铸造厂按钮,如下图所示:

    AI 工具包界面的截图,显示了模型目录,其中选择了某个模型,并且“部署到 Microsoft Foundry”按钮被突出显示。

  3. 模型部署标签页中,输入所需信息,例如模型名称、描述和任何附加设置,如下截图所示:

    AI 工具包界面的截图,显示了模型部署选项卡,其中包含模型名称、描述和附加设置的字段。

  4. 选择部署到微软铸造厂以开始部署过程。

  5. 将出现一个对话框以确认部署。查看详细信息并选择部署以继续。

  6. 部署完成后,模型将出现在我的模型部分的AI工具包中,您可以在游乐场或代理构建器中使用它。

选择一个模型进行测试

您可以在聊天完成的游乐场中测试模型。

使用模型目录中模型卡片上的操作:

  • 在游乐场尝试:在游乐场中加载所选模型进行测试。
  • 在Agent Builder中尝试:在Agent Builder中加载所选模型以构建AI代理。

管理模型

您可以在AI工具包视图的我的模型部分管理您的模型。在这里您可以:

  • 查看您已添加到AI Toolkit的模型列表。

  • 右键单击模型以访问选项,例如:

    • 在游乐场加载:在游乐场中加载模型以进行测试。
    • 复制模型名称:将模型名称复制到剪贴板,以便在其他上下文中使用,例如您的代码集成。
    • 刷新:刷新模型配置以确保您拥有最新的设置。
    • 编辑:修改模型设置,例如 API 密钥或端点。
    • 删除:从AI工具包中移除模型。
    • 关于此模型:查看有关该模型的详细信息,包括其发布者、来源和支持的功能。
  • 右键单击ONNX部分标题以访问选项,例如:

    • 启动服务器:启动 ONNX 服务器以在本地运行 ONNX 模型。
    • 停止服务器:如果 ONNX 服务器正在运行,请停止它。
    • 复制端点:将 ONNX 服务器端点复制到剪贴板,以便在其他上下文中使用,例如您的代码集成。

许可证和登录

某些模型需要一个发布者或托管服务许可证和账户来登录。在这种情况下,在您能够在 模型游乐场 中运行模型之前,系统会提示您提供此信息。

你所学到的

在本文中,您将学习如何:

  • 在AI Toolkit中探索和管理生成式AI模型。
  • 从各种来源找到模型,包括 GitHub、ONNX、OpenAI、Anthropic、Google、Ollama 和自定义端点。
  • 将模型添加到您的工具包中,并将其部署到Microsoft Foundry。
  • 添加自定义模型,包括与Ollama和OpenAI兼容的模型,并在游乐场或智能体构建器中测试它们。
  • 使用模型目录查看可用模型,并选择最适合您AI应用需求的模型。
  • 使用筛选器和搜索快速找到模型。
  • 按类别浏览模型,例如 Popular、GitHub、ONNX 和 Ollama。
  • 使用模型转换工具转换并添加自定义 ONNX 模型。
  • 管理我的模型中的模型,包括编辑、删除、刷新和查看详情。
  • 启动和停止ONNX服务器,并复制本地模型的端点。
  • 在测试某些型号之前,请处理许可证和登录要求。