本站点文档内容均翻译自code.visualstudio.com,仅供个人学习,如有差异请以官网为准。

AI 工具包常见问题

模型

如何找到我的远程模型端点和认证头?

以下是一些关于如何在常见的 OpenAI 服务提供商中找到你的端点和认证头的示例。对于其他提供商,你可以查看他们关于聊天完成端点和认证头的文档。

示例 1: Azure OpenAI

  1. 转到 部署 页面在 Azure OpenAI Studio 并选择一个部署,例如, gpt-4o如果你还没有部署,请查看Azure OpenAI 文档了解如何创建部署。

    选择模型部署

  2. 目标URI字段中获取你的聊天完成端点端点部分

    查找模型端点

  3. 密钥 属性中获取 端点 部分的 API 密钥。

    在您复制API密钥后,以格式添加api-key: <你的API密钥> 用于AI工具包中的身份验证标头。请参阅 Azure OpenAI服务文档 以了解更多关于身份验证标头的信息。

示例 2: OpenAI

  1. 目前,聊天完成端点固定在https://api.openai.com/v1/chat/completions。查看OpenAI 文档以了解更多。

  2. 前往 OpenAI 文档 并选择 API 密钥项目 API 密钥创建或检索您的 API 密钥。

    在您复制 API 密钥后,请以以下格式填写:授权:令牌 <您的 API 密钥>用于AI工具包中的认证标头。请参阅OpenAI文档了解更多信息。

    查找模型访问密钥

如何编辑端点网址或认证标头?

如果您输入了错误的端点或认证头,您可能会遇到推理错误。

  1. 打开 VS Codesetting.json文件:

    • 选择编辑 settings.json在身份验证失败通知中

      编辑

    • 或者,输入打开用户设置(JSON)在命令面板中 (⌃⌘P (Windows, Linux ⌃+Shift+P))

  2. 搜索windowsaistudio.远程推理端点设置

  3. 编辑或删除现有的端点网址或认证标头。

    在设置中编辑端点

    保存设置后,树视图或游乐场中的模型列表将自动刷新。

如何才能加入OpenAI o1-mini或OpenAI o1-preview的候补名单?

OpenAI o1系列模型专门设计用于解决推理和问题解决任务,具有更强的专注力和能力。这些模型花费更多时间处理和理解用户的需求,因此在科学、编码、数学等领域表现出色。例如,o1可以被医疗研究人员用来标注细胞测序数据,被物理学家用来生成量子光学所需的复杂数学公式,还可以被各个领域的开发人员用来构建和执行多步骤的工作流程。

重要

o1-preview 模型仅限部分访问。要尝试在 playground 中使用该模型,需要进行注册,并根据 Microsoft 的资格标准进行访问。

访问 GitHub 模型市场 以找到 OpenAI o1-mini 或 OpenAI o1-preview 并加入等待名单。

我可以使用自己的模型或来自Hugging Face的其他模型吗?

如果你自己的模型支持OpenAI API合同,你可以将其托管在云端并将模型添加到AI Toolkit 作为自定义模型。你需要提供诸如模型端点URL、访问密钥和模型名称等关键信息。

微调

有很多微调设置。我需要担心所有这些吗?

不,你只需使用默认设置和我们的示例数据集进行测试。你也可以选择自己的数据集,但需要调整一些设置。请参阅微调教程了解更多信息。

AI 工具包没有生成微调项目

在安装扩展之前,请确保检查扩展的先决条件

我有NVIDIA GPU设备,但先决条件检查失败。

如果您拥有NVIDIA GPU设备,但先决条件检查失败显示“未检测到GPU”,请确保已安装最新驱动程序。您可以在此处检查和下载驱动程序:NVIDIA网站

另外,请确保它已安装在路径中。要验证,请运行英伟达系统管理接口从命令行。

我生成了项目,但Conda activate无法找到环境

设置环境时可能遇到了问题。您可以手动初始化环境,使用bash /mnt/[项目路径]/设置/首次设置.sh从工作区内部。

当使用Hugging Face数据集时,我该如何获取它?

在你开始之前python 精调/invoke_olive.py命令,确保你运行huggingface-cli 登录命令。这确保了数据集可以为您下载。

环境

这个扩展在Linux或其他系统上能用吗?

是的,AI 工具包可以在 Windows、Mac 和 Linux 上运行。

如何在我的WSL中禁用Conda自动激活

要禁用WSL中的Conda安装,请运行conda 配置 -- 设置 auto_activate_base false. 这禁用了基础环境。

您今天支持容器吗?

我们目前正在开发容器支持,并将在未来的版本中启用。

为什么你需要 GitHub 和 Hugging Face 的凭证?

我们将在GitHub上托管所有项目模板,基础模型托管在Azure或Hugging Face。这些环境需要一个账户才能通过API访问。

我正在下载 Llama2 时遇到错误。

请通过 Llama 2 注册页面 申请访问 Llama。这是为了遵守 Meta 的贸易合规规定。

我无法在WSL实例内保存项目

因为目前在运行AI Toolkit操作时远程会话不被支持,所以当你连接到WSL时无法保存项目。要关闭远程连接,请在屏幕左下角选择“WSL”,然后选择“关闭远程连接”。

错误:GitHub API 被禁止

我们将项目模板托管在微软/Windows AI Studio 模板GitHub 仓库,扩展使用 GitHub API 加载仓库内容。如果您在微软公司,您可能需要授权微软组织以避免此类禁止问题。

参见此问题的解决方法。详细步骤如下:

  1. 从 VS Code 中退出 GitHub 帐户

  2. 重新加载 VS Code 和 AI 工具包,您将被要求再次登录 GitHub

  3. 重要: 在浏览器的授权页面,请确保授权该应用程序访问Microsoft组织

    授权访问

无法列出、加载或下载 ONNX 模型

在 VS Code 的输出面板中查看 AI 工具包日志。如果看到 Agent 错误或 无法获取已下载的模型,则关闭所有 VS Code 实例并重新打开 VS Code。

(这个问题是由底层的ONNX代理意外关闭引起的,上面的步骤是重新启动代理。)