Tongyi Lab của Alibaba đã mở mã nguồn mô hình sparse MoE Qwen3.6-35B-A3B, với 35 tỷ tham số tổng và chỉ 3 tỷ tham số được kích hoạt khi suy luận.
Mô hình này được giới thiệu là vượt đáng kể Qwen3.5-35B-A3B ở các chuẩn lập trình như SWE-bench và Terminal-Bench, đồng thời có hiệu năng tương đương các mô hình dày lớn hơn như Qwen3.5-27B và Gemma-31B.
Qwen3.6-35B-A3B hỗ trợ gốc văn bản-hình ảnh, đa phương thức và trí tuệ không gian. Theo nội dung gốc, mô hình đạt điểm RefCOCO là 92,0 và ODInW13 là 50,8.
Mô hình đã được phát hành trên Hugging Face và ModelScope, có thể triển khai cục bộ. Alibaba Cloud dự kiến cung cấp qua nền tảng Bailian dưới dạng API tương thích với giao thức OpenAI và Anthropic, để tích hợp với các trợ lý lập trình như OpenClaw, Claude Code và Qwen Code.





