“人工智能”的一个定义是模仿和产生类似人类行为的软件。这是否可取是一个有争议的话题,许多人会更喜欢我们周围的机器和自动化服务保证理性和确定性的响应。然而,人工智能将继续存在,在云的支持下,它代表着一项价值约 $136B 的业务,预计到 2030 年将增长到近 $2T, 根据 Grand View Research 的数据。人工智能的一个有价值的功能是最大限度地减少家庭和工业领域的能源消耗,但人工智能计算本身会消耗大量电力,无论是在“学习”阶段还是在日常使用中。因此,最大的数据中心需要超过 100MW 的供电,这代表着高昂的成本,以及由此产生的碳足迹对环境造成的损害。我们正在考虑人工智能,但当然其他增加的负担包括加密货币挖掘、物联网和社交媒体/流媒体。
一个成功案例是,与不断膨胀的数据吞吐量相比,数据中心的能耗增长相对较慢,这在很大程度上要归功于硬件及其电源的能效不断提高。然而,据说人工智能的机架功率密度要求比传统数据中心功能高 3 倍,进一步提高效率变得越来越困难。因此,系统设计人员不断重新审视其供电架构,寻找提高效率的方法,将公用交流电转换为 GPU、CPU、FPGA 和 ASIC 通常所需的 1V 以下直流电水平。
阅读有关 Flex 电源模块对 AI 更高功率密度和最高效率的需求的完整文章
我们在本网站上使用 cookie 来增强您的用户体验。 您可以详细了解我们对 cookie 的使用以及您的选择 这里。通过与此页面交互,即表示您同意我们设置 cookie。 解雇