宣布 Qwen 3 现已在 GMI Cloud 上线

Qwen3 的 235B-A22B 和 32B 型号现已可供使用!

April 28, 2025

Why managing AI risk presents new challenges

Aliquet morbi justo auctor cursus auctor aliquam. Neque elit blandit et quis tortor vel ut lectus morbi. Amet mus nunc rhoncus sit sagittis pellentesque eleifend lobortis commodo vestibulum hendrerit proin varius lorem ultrices quam velit sed consequat duis. Lectus condimentum maecenas adipiscing massa neque erat porttitor in adipiscing aliquam auctor aliquam eu phasellus egestas lectus hendrerit sit malesuada tincidunt quisque volutpat aliquet vitae lorem odio feugiat lectus sem purus.

  • Lorem ipsum dolor sit amet consectetur lobortis pellentesque sit ullamcorpe.
  • Mauris aliquet faucibus iaculis vitae ullamco consectetur praesent luctus.
  • Posuere enim mi pharetra neque proin condimentum maecenas adipiscing.
  • Posuere enim mi pharetra neque proin nibh dolor amet vitae feugiat.

The difficult of using AI to improve risk management

Viverra mi ut nulla eu mattis in purus. Habitant donec mauris id consectetur. Tempus consequat ornare dui tortor feugiat cursus. Pellentesque massa molestie phasellus enim lobortis pellentesque sit ullamcorper purus. Elementum ante nunc quam pulvinar. Volutpat nibh dolor amet vitae feugiat varius augue justo elit. Vitae amet curabitur in sagittis arcu montes tortor. In enim pulvinar pharetra sagittis fermentum. Ultricies non eu faucibus praesent tristique dolor tellus bibendum. Cursus bibendum nunc enim.

Id suspendisse massa mauris amet volutpat adipiscing odio eu pellentesque tristique nisi.

How to bring AI into managing risk

Mattis quisque amet pharetra nisl congue nulla orci. Nibh commodo maecenas adipiscing adipiscing. Blandit ut odio urna arcu quam eleifend donec neque. Augue nisl arcu malesuada interdum risus lectus sed. Pulvinar aliquam morbi arcu commodo. Accumsan elementum elit vitae pellentesque sit. Nibh elementum morbi feugiat amet aliquet. Ultrices duis lobortis mauris nibh pellentesque mattis est maecenas. Tellus pellentesque vivamus massa purus arcu sagittis. Viverra consectetur praesent luctus faucibus phasellus integer fermentum mattis donec.

Pros and cons of using AI to manage risks

Commodo velit viverra neque aliquet tincidunt feugiat. Amet proin cras pharetra mauris leo. In vitae mattis sit fermentum. Maecenas nullam egestas lorem tincidunt eleifend est felis tincidunt. Etiam dictum consectetur blandit tortor vitae. Eget integer tortor in mattis velit ante purus ante.

  1. Vestibulum faucibus semper vitae imperdiet at eget sed diam ullamcorper vulputate.
  2. Quam mi proin libero morbi viverra ultrices odio sem felis mattis etiam faucibus morbi.
  3. Tincidunt ac eu aliquet turpis amet morbi at hendrerit donec pharetra tellus vel nec.
  4. Sollicitudin egestas sit bibendum malesuada pulvinar sit aliquet turpis lacus ultricies.
“Lacus donec arcu amet diam vestibulum nunc nulla malesuada velit curabitur mauris tempus nunc curabitur dignig pharetra metus consequat.”
Benefits and opportunities for risk managers applying AI

Commodo velit viverra neque aliquet tincidunt feugiat. Amet proin cras pharetra mauris leo. In vitae mattis sit fermentum. Maecenas nullam egestas lorem tincidunt eleifend est felis tincidunt. Etiam dictum consectetur blandit tortor vitae. Eget integer tortor in mattis velit ante purus ante.

今天我们很高兴地宣布 Qwen 3 32BQwen 3 235B 现已在GMI Cloud位于美国的推理集群上可用,并利用我们在全球的数据中心提供全球部署支持。

由阿里巴巴的Qwen团队建造 Qwen 3 模型在许可的 Apache 2.0 许可下开源,代表了开放 LLM 性能、灵活性和多语言可访问性方面的新飞跃。现在,开发人员首次可以在由GMI Cloud专门构建的人工智能堆栈支持的美国高可用性、低延迟基础设施上即时部署这些模型。

为什么 Qwen 3 很重要

旗舰 Qwen 3 235B-A22B 该模型总共拥有2350亿个参数(已激活22B),在STEM、编码、长情境任务和多语言推理方面的性能可与Gemini 2.5 Pro和Grok-3等模型相媲美。

同时,较小的 Qwen 3 32B 该模型以更轻的占地面积和更低的延迟提供卓越性能,是大规模生产推理的理想之选。

主要创新包括:

  • 混合思维模式 — 根据任务复杂性和预算限制,在 “思考”(逐步推理)和 “非思考”(快速响应)模式之间动态切换。

  • 大型上下文窗口 — 凭借多达 12.8 万个代币,Qwen 3 型号可以处理更长的文档、更详细的说明和持续的多回合对话。

  • 精通多语言 — Qwen 3 支持 119 种语言和方言,是当今全球可访问性最高的模型之一。

  • 代理就绪 — 针对工具使用、代码执行以及与 MCP(多代理能力协议)等新兴代理标准的兼容性进行了优化。

这为开发人员解锁了什么

Qwen 3 的混合思维、庞大的上下文长度和多语言流畅度为 AI 开发人员创造了以前根本不切实际的新机会:

  • 动态的成本质量权衡:微调是否需要 “思考” ——根据任务平衡速度、深度和成本。
  • 国际部署:构建多语言应用程序,以 100 多种语言为用户提供流畅的本地流利度,无需外部翻译层。
  • 长篇推理:一次即可处理技术文件、法律合同或研究论文等输入,保持对128K代币序列的细致理解。
  • 工具增强型代理:构建能够智能推理、规划 API 和服务并与之交互的代理,通过 MCP 集成原生支持工具调用工作流程。

现实世界的用例现在触手可及:

  • 启动一个 多语言支持代理 这是因为需要复杂的产品手册,而无需单独的翻译管道。
  • 部署 全球客户服务助理 它根据用户查询在快速响应模式和深度推理之间切换。
  • 构建 人工智能研究副驾驶 使用完整的 128K 代币上下文窗口,在单个会话中分析完整的研究论文和技术文档。
  • 创建 工具增强型代理 在原生 MCP 支持支持下,与 API、数据库和工作流程进行动态交互。
  • 开发 自适应代理 根据系统负载或用户偏好在快速交互和深度思考模式之间切换。

放大你可以用 Qwen 做什么

  • 自定义部署 使用我们的推理引擎,轻松调整延迟、吞吐量和扩展参数,以满足特定的应用程序需求。
  • 优化资源使用 使用集群引擎-动态平衡 GPU 分配,以最大限度地提高效率和可预测成本。
  • 全球部署 借助我们的多区域基础设施——使您能够为邻近其地理位置的用户提供服务,并充分利用 Qwen 3 的多语言功能。
  • 灵活扩展 通过在多个 GPU 上分配工作负载,非常适合高容量、低延迟或长上下文的 AI 应用程序。

在 Qwen 3 之前,交付可扩展的多语言代理、推理引擎或成本优化的 AI 应用程序意味着将多个模型拼接在一起或依赖专有平台。现在,它是开源的,可以投入生产了!—在 GMI 云上。

为什么选择 GMI Cloud

GMI Cloud 专为当今和未来的 AI 工作负载而构建:

  • 推理优化的集群 — 针对高吞吐量、低延迟的大型模型服务进行了调整。

  • 透明定价 — 简单、可预测的账单,没有隐性费用。

  • 即时 API 访问 — 通过 vLLM 和 sGLang 等框架启动与 OpenAI 兼容的 API,只需最少的设置。

  • 企业级可靠性 — 高可用性、安全部署和可随着需求增长而扩展的容量。

无论你是在运行自主代理、构建多语言副驾驶还是研究新的人工智能行为,Qwen 3 现在都只需点击几下即可。

开始吧

准备好构建代理、副驾驶或下一代 AI 产品了吗?

立即启动 Qwen 3 32B 和 235B GMI Cloud 的推理引擎—扩展灵活,API 简单,不出意外。

阅读 Qwen 的 博客公告。

使用 GMI Cloud 上的 Qwen 3 更快地构建,更深入地思考。

即刻开始

试用 GMI Cloud 算力服务,即刻体验高效的 AI 应用构建。

即刻开始
14 天试用
无长期合同约束
无需部署设置
按需 GPU

低至

$ 4.39 /GPU-小时

立即开始使用
预留 GPU

低至

$ 2.50 /GPU-小时

立即开始使用