Cursor

更新时间:
复制为 MD 格式

阿里云百炼支持通过 Cursor 使用千问系列模型。您可在 Cursor 中配置 OpenAI 兼容的 Base URL 和 API Key,将模型切换为百炼提供的模型进行代码编写与对话。

重要

本文档仅适用于按量付费模式。如果您已订阅阿里云百炼 Coding Plan 并希望在 Cursor 中使用,请参考 Coding Plan进行配置。

模型配置

支持的模型

文本生成-千问

千问Max千问Plus千问Flash千问Turbo千问CoderQwQ

文本生成-千问-开源版

Qwen3.5Qwen3QwQ-开源版QwQ-PreviewQwen2.5Qwen2Qwen1.5Qwen-Coder

文本生成第三方模型

MiniMax-M2.1

模型选型建议

  • 深度研发与架构设计:推荐使用qwen3.5-plus 、qwen3-maxqwen3-coder-plusqwen3-coder-next。适用于复杂算法实现、系统架构设计及核心逻辑推理。

  • 辅助编码与轻量任务:推荐使用 qwen3-coder-nextqwen-flash。适用于代码补全、解释及日常脚本编写。

详细步骤

步骤一:安装 Cursor

通过 Cursor 官网 下载并安装 Cursor。

说明

由于 Cursor 的产品限制,仅订阅 Cursor Pro 及以上套餐的用户支持自定义配置模型,否则会报错“The model xxx does not work with your current plan or api key”。

步骤二:开通阿里云百炼

  1. 注册账号:若无阿里云账号,需首先注册

    如遇问题,请参见注册阿里云账号
  2. 开通阿里云百炼:使用阿里云主账号前往阿里云百炼大模型服务平台,阅读并同意协议后,将自动开通阿里云百炼,如果未弹出服务协议,则表示您已经开通。

    如果开通服务时提示"您尚未进行实名认证",请先进行实名认证
首次开通百炼后,您可领取新人免费额度(有效期:百炼开通后90天内),用于模型推理服务。免费额度领取方法和详情,请查看新人免费额度页面。
说明

超出额度或期限将产生费用,开启免费额度用完即停功能可避免此情况下产生费用,具体费用请以控制台的实际报价和最终账单为准。

步骤三:配置模型

  1. 在 Cursor 中,点击2026-02-03_16-52-37图标,单击Cursor Settings,选择Models页面。

  2. 开启 OpenAI API Key,填入 阿里云百炼API Key

  3. 开启 Override OpenAI Base URL,根据地域填入服务地址:

    • 华北2(北京)https://dashscope.aliyuncs.com/compatible-mode/v1

    • 新加坡https://dashscope-intl.aliyuncs.com/compatible-mode/v1

    • 美国(弗吉尼亚)https://dashscope-us.aliyuncs.com/compatible-mode/v1

  4. Add or search model中,输入要使用的模型名称,点击Add Custom Model,建议选择代码能力较强的模型,各模式支持的模型请参见模型列表

配置完成后,在聊天面板中选择已配置的模型即可开始使用。

2026-02-03_17-20-29

常见问题

Q:为什么无法添加自定义模型,报错“The model xxx does not work with your current plan or api key”?

A:请检查您的 Cursor 订阅套餐是否为 Cursor Pro 及以上版本。只有 Pro 及以上套餐支持添加自定义模型功能。

Q:配置完成后找不到添加的模型怎么办?

A:请在聊天面板点击并关闭Auto模式,在模型下拉栏选择所需模型。

Q:为什么调用模型报错“We're having trouble connecting to the model provider. ”或“Unauthorized User API key”?

A:可能有以下原因:

  • 您调用的模型不存在,各部署模型模式支持的模型请参见模型列表

  • 在配置了阿里云百炼的请求地址和API Key后,调用其他模型提供商的模型将导致报错。如需使用其他模型,请依据情况重新配置或关闭OpenAI API KeyOverride OpenAI Base URL

  • 报错可能源于 Cursor 软件与部分模型不兼容,而非配置或模型提供商的问题。

Q:模型响应速度较慢怎么办?

A:响应速度受多种因素影响,建议:

  • 选择合适的模型:对于简单任务,使用 qwen3-coder-nextqwen-flash 可获得更快的响应速度。

  • 检查网络连接:确保网络连接稳定,必要时可切换网络环境。

  • 减少上下文长度:过长的对话历史会增加处理时间,为提升响应效率,可以开启新的对话。