蚂蚁集团的3000 亿参数的 MoE 大模型可在使用国产 GPU 的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及 MoE 模型相当。
蚂蚁集团的3000亿参数的MoE大模型可在使用国产GPU的低性能设备上
泉水中的硬币
2025-03-24 20:43:51
0
阅读:0