新 闻①: 微软分享Maia 100更多规格信息,N5工艺+CoWoS-S封装,适配AI工作负载
在去年的开发者大会上,微软 宣布 推出其芯片实验室设计的两款定制芯片,分别是Azure Maia 100 AI加速器和Azure Cobalt 100处理器。微软和OpenAI希望使用自己开发的AI芯片,以更高效、更低成本地适配其开发的大型语言模型(LLM),满足未来算力的需求。
近日在Hot Chip 2024大会上,微软 分享 了Azure Maia 100 AI加速器更多的规格信息。其芯片面积为820mm²,采用了台积电(TSMC)N5工艺制造,运用了CoWoS-S封装技术,搭配了64GB的HBM2E,提供了1.8TB/s的带宽,主机接口为PCIe 5.0 x8通道(32GB/s),后端网络连接带宽为600GB/s,配置功耗为500W,设计支持最高700W的 TDP ,可根据目标工作负载有效地管理功耗。
Azure Maia 100 AI加速器配有高速Tensor单元,采用16xRx16结构单元,可为训练和推理提供高效处理,同时支持多种数据类型,包括微软于2023年通过MX联盟首次推出的MX数据格式等;矢量处理器是一个松散耦合的超标量引擎,采用定制 指令集 架构(ISA),支持包括FP32和BF16在内的多种数据类型;直接内存访问(DMA)引擎支持不同的张量分片方案;在Maia系统上,硬件信号标支持异步编程。
原文链接:https://www.expreview.com/95594.html
很久之前就传出过微软将自研AI及服务器芯片的消息,现在终于有消息了。 这是一款足够“大”的芯片,不管是体积,还是成本。微软也算是下了血本,使用了台积电的N5工艺+CoWoS-S封装,算是比较尖端的产品了,目前微软还没有正式应用,更多表现还尚需等待,不知道能不能取代那些昂贵的NVIDIA GPU。
新 闻 ②: 台积电A16工艺增添新客户,OpenAI已为自研AI芯片下单
今年4月,台积电(TSMC) 举办 了2024年北美技术论坛,揭示了其最新的制程技术、先进封装技术、以及三维立体电路(3D IC)技术,凭借这些先进的半导体技术来驱动下一代人工智能(AI)的创新。其中台积电首次公布A16制程工艺,将结合纳米片晶体管和背面供电解决方案,大幅度提升逻辑密度和能效,且不需要下一代High-NA EUV光刻系统参与,预计2026年量产。
据TrendForce 报道 ,虽然A16工艺还没有正式量产,但是已经吸引了不少潜在客户的关注,不仅是主要客户苹果已经预订了产能,最近两年因ChatGPT而备受业界关注的OpenAI出于自研AI芯片的需求,也将加入到首批A16工艺的客户名单中,已下达了预订单。
此前有 报道 称,OpenAI正在与博通就开发定制AI加速器进行谈判,以满足其对高性能解决方案日益增长的需求。OpenAI希望可以更高效、更低成本地适配其下一代大型语言模型(LLM),满足未来算力的要求。最新消息称,OpenAI在AI芯片领域的合作伙伴还包括美满电子(Marvell),同时也有望跻身博通前四大客户。
有消息人士透露,OpenAI与台积电就双方的进行了积极的讨论,甚至还有建立专用产线的想法,不过经过评估后搁置了计划。OpenAI希望继续投资设计和开发自己的定制AI芯片,以保持在AI计算领域的影响力。
原文链接:https://www.expreview.com/95631.html
除了微软自己,还有与其关系密切的OpenAI也在为芯片做准备了。之前我们认为,微软会将自己的自研芯片强推给OpenAI用,但现在看来显然没打算共用。OpenAI这次的芯片还没看到,但从现在就开始锁单来看,OpenAI的需求量应该非常大。另外,拿下OpenAI这个大客户的博通估计也得大赚一笔,不知道最终博通和OpenAI能碰撞出什么火花。
新 闻③ : IBM带来全新Telum II处理器,以及Spyre AI加速器
2021年,IBM 推出 了Telum处理器,采用了全新的内核架构,针对AI加速做了优化。其配置了8核心16线程,频率超过5GHz,采用了三星7nm工艺制造,核心面积为530平方毫米,集成了225亿个晶体管,拥有全新的分支预测、缓存和多芯片一致性互连。Telum处理器是IBM z16大型机计划成功的关键,随着客户需求的变化,IBM需要不断创新并突破新兴技术的发展极限。
近日在Hot Chips 2024大会上,IBM 宣布 推出面向AI时代的下一代企业计算产品,包括全新Telum II处理器和Spyre AI加速器,预计2025年上市。IBM表示,新产品引入的增强功能旨在为客户端提供显著的性能改进,两者都通过集成AI方法用例来支持更广泛、更大的模型集,利用多个AI模型的优势来提高预测的整体性能和准确性。
Telum II处理器采用了三星5HPP工艺制造,核心面积为600平方毫米,集成了430亿个晶体管,配置了8个核心,频率达到了5.5 GHz,每个核心对应36MB的L2缓存,片上缓存容量达到了360MB,相比Telum增加了40%,另外每个处理器还有2.88GB的Level-4虚拟缓存。其集成了AI加速器,支持低延迟、高吞吐量的交易内AI推理。另外还提供了全新的I/O加速单元DPU,通过提高50%的I/O密度来改善数据处理。
Spyre AI加速器采用了三星5LPE工艺制造,核心面积为330平方毫米,集成了260亿个晶体管,是一款专门构建的企业级加速器,为复杂的AI模型和生成式AI用例提供可扩展的功能。其拥有32个计算内核,与Telum II集成的AI加速器共享类似的架构,还配备了高达1TB的内存。多个Spyre AI加速器可以通过PCIe连接到IBM Z的I/O子系统。
原文链接:https://www.expreview.com/95521.html
另外,上一代蓝色巨人IBM也带来了新的AI专用芯片。IBM这次带来的新Telum II处理器,相比于初代变化非常大,而且整体也更“大”了,又是一颗大芯片。与刚刚介绍的微软不同,IBM这款采用了三星的5LPE工艺制造,在产能上应该更充裕。目前AI芯片市场的竞争越来越激烈,形成了NVIDIA一家超级企业和多个大型企业的“一超多强”局面,不知道有没有能超过NVIDIA的。
买电脑讨论群:386615430
电脑吧评测室官方一群:798545305
文章转载自网络(链接如上)。文章出现的任何图片,标志均属于其合法持有人;本文仅作传递信息之用。如有侵权可在本文内留言。
引用文章内容与观点不代表电脑吧评测室观点。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.