近日,微软在Hot Chips 2024大会上正式揭开了其首款定制AI加速器芯片——Maia 100的神秘面纱,这款专为Azure中大规模AI工作负载设计的芯片,标志着微软在AI硬件领域迈出了坚实的一步。
首款 5nm AI 芯片面世微软不仅把 Bing Chat 改名为 Copilot,还公开展示了其备受关注的自主研发芯片。
他们宣布了两款专为其云服务基础架构打造的高级定制芯片,这两款芯片是 Azure Maia 100 AI 芯片和 Cobalt 100 CPU。这两款芯片由微软内部团队所构建,针对其云服务器堆栈进行了深度优化,以提升性能、降低功耗并节约成本。预期这些芯片将在 2024 年正式发布。
Maia 100是微软首次推出的定制化AI加速器系列的首款产品。这款产品专门设计用来处理和优化云AI的工作负载,如GPT 3.5 Turbo和GPT-4等大型语言模型的训练和推理。
Maia 100的目标是为微软Azure云上最大的AI工作负载提供支持,其中也包括为OpenAI的所有工作负载提供支持。微软表示,在Maia的设计和测试阶段,它一直与OpenAI进行了紧密的合作。
具体来看,Maia 100是采用台积电5nm工艺制成,拥有1050亿个晶体管,这个数字仅比AMD MI300 AI GPU芯片的1530亿晶体管少大约30%。
5nm、COWOS-S工艺Maia 100在硬件规格上展现出了其卓越的性能潜力。该芯片尺寸约为820平方毫米,采用台积电的N5工艺和COWOS-S中介层技术制造,是台积电5nm节点上制造的最大处理器之一。其标线大小SoC芯片集成了大型片上SRAM,并结合四个HBM2E芯片,实现了每秒1.8TB的总带宽和64GB的存储容量,充分满足了AI数据处理的高要求。
在计算性能方面,Maia 100配备了高速张量单元和矢量处理器。高速张量单元提供快速的训练和推理处理,支持多种数据类型,包括低精度的MX数据格式,为AI计算提供了强大的动力。矢量处理器则是一个松散耦合的超标量引擎,采用定制指令集架构(ISA),支持FP32和BF16等多种数据类型,进一步提升了AI运算的效率。
Maia 100系统采用垂直集成方式,以优化成本和性能。其平台架构包括定制服务器主板和量身定制的机架,以及旨在提高性能和成本效率的软件堆栈。这种垂直集成的方式不仅实现了性能优化,还显著降低了成本,为Azure OpenAI Services等高级AI功能提供了强大的支持。
在网络连接方面,Maia 100支持高达4800 Gbps的全收集和分散减少带宽,以及1200 Gbps的全到全带宽。这种以太网互连采用定制的RoCE类协议,不仅提供了增强的可靠性和平衡性,还支持AES-GCM加密,为机密计算提供了理想选择。这一特性使得Maia 100在保障数据传输速度的同时,也确保了数据的安全性。
为了方便开发人员将模型快速部署到Azure OpenAI服务,微软为Maia 100提供了全面的开发工具包(SDK)。该SDK包括一流的PyTorch后端、调试器、分析器、可视化器以及模型量化和验证工具等,为开发人员提供了从模型开发到部署的全链条支持。此外,Maia SDK还支持Triton编程模型和Maia API两种编译器选择,前者注重灵活性和可移植性,后者则追求最高性能。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。