资讯首页 新闻资讯 云计算测评 云服务商动态 技术频道
上云无忧 > 云计算资讯  > 云服务商动态 > 阿里云通义灵码全面支持Qwen3,PAI上线Qwen3云上一键部署教程

阿里云通义灵码全面支持Qwen3,PAI上线Qwen3云上一键部署教程

发布时间: 2025-05-06 09:09:18 |浏览量:307| 评论: 0

29日,通义千问Qwen3开源后,大家可以在通义APP直接体验,或者在开源社区下载模型进行二次开发。

现在阿里云也为企业和开发者提供了更多使用渠道,阿里云内部核心产品也已逐步完成通义千问Qwen3的集成和部署工作:通义灵码全面支持Qwen3,并上线编程智能体;同时,阿里云PAI Model Gallery已同步接入Qwen3本次开源的所有模型,提供企业级部署方案。

通义灵码编码速度和准确率全面提升,支持自主配置MCP工具

Qwen3原生支持MCP协议,开发者要定义可用工具,可基于MCP配置文件,使用Qwen-Agent的集成工具或自行集成其他工具,快速开发一个带有设定、知识库RAG和工具使用能力的智能体。

通义灵码现已全面支持Qwen3,并上线编程智能体,具备自主决策、环境感知、工具使用等能力,可以根据开发者的诉求,使用工程检索、文件编辑、终端等工具,端到端地完成编码任务。
基于此,通义灵码智能体支持开发者配置自己的MCP工具,更加贴合开发者工作流程,并深度集成国内最大的MCP中文社区——魔搭MCP广场,涵盖开发者工具、文件系统、搜索、地图等十大热门领域2400+MCP服务,全面拓宽AI编码助手能力边界,更加贴合开发者工作流程。

基于Qwen3强大的代码能力与原生的MCP协议支持,全新上线的通义灵码智能体具备以下六大能力:

多种会话模式:一次会话流中同时支持问答模式、文件编辑模式、智能体模式,开发者可以针对不同场景和问题难度自由切换模式,实现工作效率最大化。

工程自动感知:根据开发者的任务描述,可自动感知工程框架、技术栈、所需代码文件、错误信息等工程内信息,无需手动添加工程上下文,任务描述更轻松。

工具使用:可自主使用十多种内置编程工具,例如读写文件、代码查询、错误排查等,同时支持MCP工具配置,并集成魔搭MCP广场,开发者可自由配置。

终端命令执行:在执行编码任务时,可以自主决策需要执行的命令,自动完成命令编写并运行终端,大幅提升编码任务的执行效率。

工程级变更:可根据开发者的任务描述,自主进行任务拆解和工程内多个代码文件修改,同时可通过多次对话进行逐步迭代或快照回滚,与灵码协同完成编码任务。

记忆感知:支持基于大模型的自主记忆能力,在开发者与灵码的对话过程,灵码会逐步形成针对开发者个人、工程、问题等相关的丰富记忆,越用越懂你。

通义灵码智能编程体体验地址:
https://lingma.aliyun.com/download

说明:VSCode用户在4月30日晚上可以更新插件体验,JetBrains用户可下载离线安装包抢先体验,插件市场预计1-2天内上线

接下来,请看通义灵码编程智能体能力展示


// 示例一:构建一个通义灵码官网首页


以前,搭建一个网页至少需经历项目初始化、组件开发、状态管理、交互实现、响应式布局、性能优化等步骤。

今天,只需一句话——“帮忙根据设计稿开发页面”,通义灵码就能调用MCP工具读取设计稿,根据用户的编码习惯,选择合适的技术栈、自动创建好工程文件、定义开发规范,实时反馈生成效果,甚至生成研发文档。整个过程用户只需要一句话和点几个确认键即可。


// 示例二:开发一个记账App

以往,常规开发一款App,至少需要需求分析、设计、业务逻辑开发、前端页面开发、测试优化等流程,整个研发流程至少需要一位开发工程师1~2天时间。

现在,借助通义灵码编程智能体,只需要输入几句话,通义灵码就能根据你的需求描述,结合技术栈,自动创建工程文件、定义开发规范、实时反馈生成效果,甚至生成研发文档,10分钟就能完成开发,大幅提升研发效率。

PAI Model Gallery支持 云上一键部署Qwen3全尺寸模型

Model Gallery是阿里云人工智能平台PAI的产品组件,集成了国内外AI开源社区中优质的预训练模型,涵盖了LLM、AIGC、CV、NLP等各个领域。通过PAI对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的AI开发和应用体验。

PAI Model Gallery也已同步接入本次Qwen3开源的所有模型,并提供企业级部署方案。接下来下面以Qwen3-235B-A22B模型部署为例,分享PAI Model Gallery上一键云上部署Qwen3模型的解决方案。

1.在Model Gallery模型广场找到Qwen3-235B-A22B模型。

2.在模型详情页右上角点击「部署」,选择部署框架(SGLang、vLLM)。在选择计算资源后,即可一键完成模型的云上部署。

3.部署成功后,在服务页面可以点击“查看调用信息”获取调用的Endpoint和Token,想了解服务调用方式可以点击预训练模型链接,可查看模型介绍页的调用方式说明。

4.使用推理服务。您可以在PAI-EAS推理服务平台上在线调试已部署好的Qwen3模型服务,从图中可以看出模型回复具备较好的思维链能力。(注意:使用vLLM部署时,需要在请求Headers中增加Content-Type。SGlang部署时不需要)

视频版教程:

PAI Model Gallery访问地址:

https://pai.console.aliyun.com/#/quick-start/models

更多【云服务商动态】相关文章

有话要说

全部评论

暂无评论
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部