产品功能
- - 提供各种大小的密集和混合专家(MoE)模型,包括0.6B、1.7B、4B、8B、14B、32B以及30B-A3B和235B-A22B。
- - 支持无缝切换思考和非思考模式,适用于不同的应用场景。
- - 显著提升了推理能力,在数学、代码生成和常识逻辑推理上超过了之前的QwQ(在思考模式下)和Qwen2.5指令模型(在非思考模式下)。
- - 具有卓越的人类偏好对齐能力,在创造性写作方面有突出表现。
应用市场介绍
收起
用户评价
用户评论
暂无用户评价,马上成为第一个评价该产品的人吧~