Eine Definition von „künstlicher Intelligenz“ ist Software, die menschliches Verhalten nachahmt und erzeugt. Ob dies wünschenswert ist, ist Gegenstand von Debatten, und es wird viele geben, die garantierte rationale und deterministische Antworten von den Maschinen und automatisierten Diensten, die uns umgeben, bevorzugen würden. KI wird jedoch bleiben und stellt, unterstützt durch die Cloud, ein Geschäft dar, das im Jahr 2022 rund $136Billionen wert ist und bis 2030 auf fast $2Billionen ansteigen soll. laut Grand View Research. Eine wertvolle Funktion der KI ist die Minimierung des Energieverbrauchs sowohl im Haushalt als auch in der Industrie, aber KI-Computing selbst verbraucht enorme Mengen an Energie, sowohl in der „Lernphase“ als auch im Routinebetrieb. Die größten Rechenzentren benötigen daher eine Einspeisung von mehr als 100 MW, was hohe Kosten in Dollar und durch den daraus resultierenden CO2-Fußabdruck für die Umwelt bedeutet. Wir denken an KI, aber natürlich gibt es auch andere erhöhte Belastungen wie das Mining von Kryptowährungen, das IoT und soziale Medien/Streaming.
Eine Erfolgsgeschichte ist das relativ langsame Wachstum des Energieverbrauchs von Rechenzentren im Vergleich zum explodierenden Datendurchsatz, was größtenteils auf kontinuierliche Verbesserungen der Energieeffizienz von Hardware und deren Stromversorgung zurückzuführen ist. Allerdings soll der Bedarf an Rack-Leistungsdichte für KI dreimal höher sein als für herkömmliche Rechenzentrumsfunktionen, und weitere Effizienzsteigerungen werden zunehmend schwieriger zu erreichen. Daher überprüfen Systemdesigner ständig ihre Stromversorgungsarchitektur, um nach Möglichkeiten zur Verbesserung der Effizienz bei der Umwandlung von Wechselstrom in Gleichstrom unter 1 V zu suchen, der häufig für GPUs, CPUs, FPGAs und ASICs erforderlich ist.