阿里云通义灵码全面支持Qwen3,PAI上线Qwen3云上一键部署教程
29日,通义千问Qwen3开源后,大家可以在通义APP直接体验,或者在开源社区下载模型进行二次开发。 现在阿里云也为企业和开发者提供了更多使用渠道,阿里云内部核心产品也已逐步完成通义千问Qwen3的集成和部署工作:通义灵码全面支持Qwen3,并上线编程智能体;同时,阿里云PAI Model Gallery已同步接入Qwen3本次开源的所有模型,提供企业级部署方案。 通义灵码编码速度和准确率全面提升,支持自主配置MCP工具 Qwen3原生支持MCP协议,开发者要定义可用工具,可基于MCP配置文件,使用Qwen-Agent的集成工具或自行集成其他工具,快速开发一个带有设定、知识库RAG和工具使用能力的智能体。 通义灵码现已全面支持Qwen3,并上线编程智能体,具备自主决策、环境感知、工具使用等能力,可以根据开发者的诉求,使用工程检索、文件编辑、终端等工具,端到端地完成编码任务。 基于此,通义灵码智能体支持开发者配置自己的MCP工具,更加贴合开发者工作流程,并深度集成国内最大的MCP中文社区——魔搭MCP广场,涵盖开发者工具、文件系统、搜索、地图等十大热门领域2400+MCP服务,全面拓宽AI编码助手能力边界,更加贴合开发者工作流程。 基于Qwen3强大的代码能力与原生的MCP协议支持,全新上线的通义灵码智能体具备以下六大能力: 多种会话模式:一次会话流中同时支持问答模式、文件编辑模式、智能体模式,开发者可以针对不同场景和问题难度自由切换模式,实现工作效率最大化。 工程自动感知:根据开发者的任务描述,可自动感知工程框架、技术栈、所需代码文件、错误信息等工程内信息,无需手动添加工程上下文,任务描述更轻松。 工具使用:可自主使用十多种内置编程工具,例如读写文件、代码查询、错误排查等,同时支持MCP工具配置,并集成魔搭MCP广场,开发者可自由配置。 终端命令执行:在执行编码任务时,可以自主决策需要执行的命令,自动完成命令编写并运行终端,大幅提升编码任务的执行效率。 工程级变更:可根据开发者的任务描述,自主进行任务拆解和工程内多个代码文件修改,同时可通过多次对话进行逐步迭代或快照回滚,与灵码协同完成编码任务。 记忆感知:支持基于大模型的自主记忆能力,在开发者与灵码的对话过程,灵码会逐步形成针对开发者个人、工程、问题等相关的丰富记忆,越用越懂你。 通义灵码智能编程体体验地址: https://lingma.aliyun.com/download 说明:VSCode用户在4月30日晚上可以更新插件体验,JetBrains用户可下载离线安装包抢先体验,插件市场预计1-2天内上线 接下来,请看通义灵码编程智能体能力展示
// 示例一:构建一个通义灵码官网首页 以前,搭建一个网页至少需经历项目初始化、组件开发、状态管理、交互实现、响应式布局、性能优化等步骤。 今天,只需一句话——“帮忙根据设计稿开发页面”,通义灵码就能调用MCP工具读取设计稿,根据用户的编码习惯,选择合适的技术栈、自动创建好工程文件、定义开发规范,实时反馈生成效果,甚至生成研发文档。整个过程用户只需要一句话和点几个确认键即可。 // 示例二:开发一个记账App 以往,常规开发一款App,至少需要需求分析、设计、业务逻辑开发、前端页面开发、测试优化等流程,整个研发流程至少需要一位开发工程师1~2天时间。 现在,借助通义灵码编程智能体,只需要输入几句话,通义灵码就能根据你的需求描述,结合技术栈,自动创建工程文件、定义开发规范、实时反馈生成效果,甚至生成研发文档,10分钟就能完成开发,大幅提升研发效率。 PAI Model Gallery支持 云上一键部署Qwen3全尺寸模型 Model Gallery是阿里云人工智能平台PAI的产品组件,集成了国内外AI开源社区中优质的预训练模型,涵盖了LLM、AIGC、CV、NLP等各个领域。通过PAI对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的AI开发和应用体验。 PAI Model Gallery也已同步接入本次Qwen3开源的所有模型,并提供企业级部署方案。接下来下面以Qwen3-235B-A22B模型部署为例,分享PAI Model Gallery上一键云上部署Qwen3模型的解决方案。 1.在Model Gallery模型广场找到Qwen3-235B-A22B模型。 2.在模型详情页右上角点击「部署」,选择部署框架(SGLang、vLLM)。在选择计算资源后,即可一键完成模型的云上部署。 3.部署成功后,在服务页面可以点击“查看调用信息”获取调用的Endpoint和Token,想了解服务调用方式可以点击预训练模型链接,可查看模型介绍页的调用方式说明。 4.使用推理服务。您可以在PAI-EAS推理服务平台上在线调试已部署好的Qwen3模型服务,从图中可以看出模型回复具备较好的思维链能力。(注意:使用vLLM部署时,需要在请求Headers中增加Content-Type。SGlang部署时不需要) 视频版教程: PAI Model Gallery访问地址: https://pai.console.aliyun.com/#/quick-start/models |
全部评论
暂无评论
有话要说