归档: 快讯

摘要

亚马逊斥资 150 亿美元建设 AI 数据中心

摘要:: 亚马逊 AWS 宣布将在未来 15 年内在亚太地区和北美投资 **150 亿美元**,用于建设和运营支持 AI 计算的超大规模数据中心。这笔投资重点在于液冷技术和自研 Trainium/Inferentia 芯片的部署。
来源:: CNBC / AWS News

长江存储发布新款 300 层以上 3D NAND

摘要:: 长江存储(YMTC)在近期行业论坛上展示了堆叠层数超过 **300 层** 的闪存芯片样品。凭借 Xtacking 4.0 架构,该芯片在存储密度和传输速率上均达到全球领先水平,进一步缩短了与国际巨头的技术代差。
来源:: 南华早报 / 闪存市场

三星电子 3D DRAM 研发取得重大进展

摘要:: 三星宣布其 **3D DRAM** 技术进入样品阶段。通过将存储单元垂直堆叠,3D DRAM 能够在不增加芯片面积的前提下显著提升容量,主要针对未来 AI 服务器对高频宽、大容量内存的极端需求。
来源:: Business Korea / SamMobile

北方华创发布混合键合设备,攻坚先进封装

摘要:: 北方华创(NAURA)在 SEMICON 期间推出了 **12 英寸混合键合(Hybrid Bonding)设备**。随着 Chiplet 技术成为延续摩尔定律的关键,该设备的研发成功打破了海外厂商在高端封装设备领域的长期垄断。
来源:: 第一财经 / 北方华创官网

微软“Copilot+ PC”标准升级:最低算力要求提升

摘要:: 微软宣布更新 **Copilot+ PC** 的硬件标准,要求 NPU(神经网络处理单元)的算力至少达到 **50 TOPS**。这一举动迫使英特尔和 AMD 加速迭代其酷睿 Ultra 及锐龙系列芯片,以确保能运行更复杂的本地大模型功能。
来源:: Windows Central / ZDNet

台积电 2nm 工艺预计于 2026 年底量产

摘要:: 台积电(TSMC)在近期财报说明会中确认,**2nm (N2)** 工艺的研发进度超前,位于宝山的工厂已开始安装设备。首批客户预计将包括苹果和英伟达,预计 2026 年底将看到首款搭载 2nm 芯片的消费电子产品。
来源:: 联合报 / 彭博社

谷歌 Gemini 2.0 全面集成至 Android 17 开发版

摘要:: 谷歌在 3 月份的开发者活动中展示了深度集成 **Gemini 2.0** 的 Android 17。新系统支持实时多模态理解,用户可以通过摄像头让 AI 实时解释眼前看到的复杂电路图或翻译生僻文档,无需上传云端即可完成部分复杂推理。
来源:: The Verge / Google Developers

中微公司发布 5nm ICP 刻蚀设备 Primo Angnova

摘要:: 中微公司(AMEC)宣布其 **Primo Angnova™ ICP 刻蚀设备** 已成功进入头部晶圆厂 5nm 生产线。该设备主要用于逻辑芯片和高堆叠层数 3D NAND 的制造,标志着国产高端刻蚀设备在先进工艺市场的份额进一步提升。
来源:: 华尔街见闻 / 中微公司公告

华为发布全场景 AI 原生(AI-Native)框架

摘要:: 华为在 MWC 2026 期间及后续技术分享中,正式推出了行业首个 **AI 原生框架**。该框架旨在将 AI 深度植入通信网络、工业控制及终端设备,实现从“AI 辅助”到“AI 核心控制”的转变,特别是在水泥、化工等重工业的实时优化中表现卓越。
来源:: Huawei News / Asia Times

SEMICON China 2026:国产 5nm 量检测设备突破

摘要:: 在上海举办的 SEMICON China 展会上,国产设备厂商展示了针对 5nm 工艺的量检测原型机。业内专家指出,中国半导体设备在刻蚀、薄膜沉积等关键环节的国产化率正从 28nm 向更先进的 14nm 及以下节点渗透,参展商数量创历史新高。
来源:: 电子时报 / SEMI 中国

苹果发布 M5 系列芯片及新款 MacBook Pro

摘要:: 苹果于 3 月初正式发布 **M5、M5 Pro 和 M5 Max** 芯片。新款芯片采用台积电最新的 3nm 工艺及 SoIC 先进封装技术,首次引入“超核(Super Core)”概念。M5 Max 的 LLM 提示词处理速度较 M1 Max 提升了 6.7 倍,显著增强了端侧 AI 性能。
来源:: Apple Newsroom / Macworld

英伟达正式推出 GB300 NVL72 推理平台

摘要:: 英伟达(NVIDIA)宣布推出基于 Blackwell Ultra 架构的 **GB300 NVL72** 平台。该系统专为“AI 推理时代”设计,相比前代 Hopper 架构,其用户响应速度提升了 10 倍,整体推理吞吐量提升了 50 倍,标志着 AI 算力从大模型训练向大规模落地应用转型。
来源:: NVIDIA Official / Investing.com