Veri Merkezleri Herkesin Beklediğinden Daha Fazla Güç Tüketiyor. Sektör Yetişmek İçin Yarışıyor.

2026-04-29 - bana mesaj bırak

Yıllardır hikayeveri merkezienerji tüketimi tahmin edilebilir bir eğri izledi. Dijitalleşme elbette büyüyordu, ancak daha iyi sunuculardan, sanallaştırmadan ve bulut birleştirmeden elde edilen verimlilik kazanımları, toplam elektrik kullanımının şaşırtıcı derecede sabit kalmasını sağladı. Küresel veri merkezi güç talebi, on yılın büyük bir kısmında toplam elektrik tüketiminin yüzde 1'i (yılda yaklaşık 200 terawatt saat) civarında seyretti.

O dönem sona eriyor.

Üretken yapay zeka, kripto para madenciliği, uç bilişim ve bağlı cihazların katlanarak artmasının birleşmesi eski verimlilik eğrisini kırdı. Sektör tahminleri artık veri merkezi güç talebinin 2000'li yılların başından beri görülmeyen yıllık oranlarda arttığını gösteriyor. Bazı bölgelerde (İrlanda, Kuzey Virginia, Singapur) veri merkezleri halihazırda toplam elektrik tüketiminin yüzde 15 ila 25'ini oluşturuyor ve bu da düzenleyicileri yeni inşaatlara moratoryum uygulamaya zorluyor.

Bu çerçevede, bir zamanlar teknik ayrıntılar gibi görünen altyapı seçimleri (soğutma mimarisi, güç dağıtım topolojisi, raf yoğunluğu planlaması) toplantı odası kararları haline geldi. Enerji maliyeti artık bir kalem değil. Büyümenin kısıtlanmasıdır.


Her Şeyi Değiştiren Basit Ölçü

Güç Kullanımı Etkinliği veya PUE, yaklaşık yirmi yıldır veri merkezi endüstrisinin standart verimlilik ölçüsü olmuştur. Bu basit bir orandır: toplam tesis gücünün BT ekipmanı gücüne bölümü.

2,0'lık bir PUE, sunuculara ve depolamaya güç sağlayan her watt için bir watt'ın daha soğutmaya, aydınlatmaya, güç dönüşümü kayıplarına ve diğer yüklere harcandığı anlamına gelir. 1,2'lik bir PUE, genel giderin BT watt başına yalnızca 0,2 watt tükettiği anlamına gelir.

Endüstri, PUE'ye dayalı olarak geniş çapta kabul görmüş katmanlara sahiptir:

Seviye PUE DCiE Bu ne anlama geliyor?
Platin <1,25 >0,80 Birinci sınıf verimlilik, genellikle serbest soğutma veya sıvı soğutma gerektirir
Altın 1,25 – 1,43 0,70 – 0,80 Çok verimli, ılıman iklimlerde modern tasarımlarla ulaşılabilir
Gümüş 1,43 – 1,67 0,60 – 0,70 Eski tesisler veya daha sıcak iklimler için kabul edilebilir
Bronz 1,67 – 2,00 0,50 – 0,60 Büyük tadilat gerektirmeyen eski veri merkezleri için tipiktir
Adil 2,00 – 2,50 0,40 – 0,50 Düşük verimlilik, yüksek işletme maliyeti
Fakir >2.50 <0,40 Kritik verimsizlik, muhtemelen acil müdahale gerektirir

Sorun pek çok kuruluşun aslında PUE'lerini bilmemesidir. Tahmin ediyorlar. Tahmin ediyorlar. Veya sadece ana sayaçta ölçüm yapıp gerisini üstleniyorlar.

2023 yılında yapılan bir sektör anketi, veri merkezi operatörlerinin yaklaşık yüzde 40'ının PUE'yi raf düzeyinde hiçbir zaman ölçmediğini ortaya çıkardı. Bunu yapanlar arasında, bildirilen ve gerçek PUE arasındaki fark ortalama 0,3 puandı; bu, kimsenin farkına varmadan bir tesisi Altın'dan Gümüş'e taşımaya yetiyordu.

Güç Aslında Nereye Gidiyor?

PUE'nin neden bu kadar geniş çapta değiştiğini anlamak, gücün bir veri merkezinden nerede ayrıldığına bakmakla başlar.

PUE'si 1,8 civarında olan tipik bir hava soğutmalı tesiste, arıza kabaca şöyle görünür:

  • BT ekipmanı (sunucular, depolama, ağ): yüzde 55-60
  • Soğutma (CRAC/CRAH üniteleri, soğutucular, pompalar, kuru soğutucular): yüzde 30-35
  • Güç dağıtımı (UPS, transformatörler, PDU kayıpları): yüzde 5-8
  • Aydınlatma ve diğer tesis yükleri: yüzde 2-4

Soğutma yükü en büyük değişkendir. Ilıman bir iklimde bulunan ve serbest soğutma için dış havayı kullanan bir tesis, BT dışı gücünün yalnızca yüzde 15'ini soğutmaya harcayabilir. Tropikal iklimde bulunan ve yıl boyunca mekanik soğutmalı aynı tesis yüzde 40 harcayabilir.

Ortak yerleşim sağlayıcılarının PUE'yi tesis düzeyinde tanıtmasının ancak PUE'yi müşteri sayacında sunmasının nedeni budur; farklı sayılar, farklı sonuçlar. Müşteri bunların tamamını ödüyor.

Gelenekselden Bulut Ölçekli Altyapıya Geçiş

Geleneksel veri merkezi yönetimi nispeten statik bir ortam varsayıyordu. Raflar aylar veya yıllar boyunca dolduruldu. Soğutma yavaş yavaş ayarlanabilir. Güç dağıtımı ilk günden itibaren aşırı büyüktü.

Bulut çağı varsayımları değiştirdi. Raflar artık günlerce doluyor. İş yükleri sunucular arasında otomatik olarak değişir. Yüksek yoğunluklu yapay zeka kümeleri, bitişikteki genel amaçlı bilgi işlem raflarından üç kat daha fazla güç çekebilir.

Bu değişiklikler altyapı yönetiminin yeniden düşünülmesini zorunlu kıldı. Üç trend öne çıkıyor.

Birincisi, yoğunluk dengesiz bir şekilde artıyor.On yıl önce standart bir sunucu rafı 5-8 kilowatt çekiyordu. Günümüzde genel amaçlı raflar 10-15 kilowatt çekiyor. Yüksek performanslı bilgi işlem ve yapay zeka eğitim rafları rutin olarak raf başına 30 kilowatt'ı aşıyor. Bazıları 50 kilowatt'ı aşıyor.

Bu, hava soğutmanın çözmeye çalıştığı termal yönetim zorlukları yaratır. Raf başına 20 kilovatlık hava soğutması, uygun muhafazayla etkili olmaya devam ediyor. 30 kilovatta marjinal hale gelir. 40 kilovat ve üzeri güçlerde sıvı soğutma isteğe bağlı olmaktan çıkıp zorunlu hale geliyor.

İkincisi, kapasite planlaması öngörücü hale geldi.Gerekenden daha fazla kapasite satın almak ve boşta kalmasına izin vermek olan eski yöntem artık geniş ölçekte işe yaramıyor. Atıl kapasitenin hem sermaye maliyeti hem de devam eden bakım maliyeti vardır.

Modern altyapı yönetim sistemleri, gücün, soğutmanın veya raf alanının ne zaman tükeneceğini tahmin etmek için geçmiş verileri ve iş yükü tahminlerini kullanır. En iyi sistemler, bir kısıtlama kritik hale gelmeden günler veya haftalar önce mevcut kapasitenin yeniden yapılandırılıp yapılandırılmayacağı veya yeni donanım sipariş edilip edilmeyeceği konusunda öneride bulunabilir.

Üçüncüsü, görünürlük gereksinimlerinin eskipaniğe kapıldım.Geleneksel bir veri merkezi, gücü PDU düzeyinde izleyebilir. Modern bir tesisin raf seviyesinde, bazen sunucu seviyesinde ve giderek artan bir şekilde iş yükü seviyesinde görünürlüğe ihtiyacı vardır; hangi sanal makinenin veya konteynerin hangi gücü çektiğini bilmek.

DCIM Katmanı: Gerçekte Ne Yapar?

Veri Merkezi AltyapısıYönetim (DCIM) yazılımı on yılı aşkın bir süredir mevcuttur, ancak benimsenme hala dengesizdir. Kurumsal veri merkezlerinin yarısından azı tam bir DCIM sistemi kurmuştur. Birçoğu yeteneklerinin yalnızca bir kısmını kullandı.

Düzgün uygulanan bir DCIM sistemi dört şey yapar:

Varlık yönetimi.Her sunucu, anahtar, PDU ve soğutma ünitesi bir konfigürasyon yönetimi veritabanında (CMDB) izlenir. Konum, güç derecesi, ağ bağlantıları, bakım geçmişi — hepsi. Bu çok basit gibi görünse de birçok kuruluş, güncellemeler arasında aylar süren e-tablolardaki varlıkları hâlâ takip ediyor.

Gerçek zamanlı izleme.PDU veya raf seviyesindeki güç tüketimi, besleme ve dönüş noktalarındaki sıcaklık ve nem, soğutma sistemi durumu, UPS akü sağlığı. Parametreler ayar noktalarından saptığında alarmlar tetiklenir. Amaç, sorunları kesintiye neden olmadan önce tespit etmektir.

Kapasite planlaması.Sistem ne kadar güç ve soğutma kapasitesinin mevcut olduğunu, ne kadarının kullanımda olduğunu ve ne kadarının gelecekteki kurulum için ayrıldığını bilir. Yeni bir yüksek yoğunluklu raf eklemenin veya bir dizi eski sunucuyu kullanımdan kaldırmanın etkisini modelleyebilir.

Görselleştirme.Veri merkezinin dijital ikizi - raf raf, blok blok - mevcut koşulları gösterir ve operatörlerin değişiklikleri simüle etmesine olanak tanır. Üçüncü sıranın dördüncü sütununa 10 kilovatlık yük eklemek: bu soğutma kapasitesini aşıyor mu? Sistem, herhangi biri ekipmanı hareket ettirmeden önce yanıt verir.

Gerçekten İşe Yarayan Verimlilik Matematiği

Veri merkezi enerji tüketimini azaltmak gizemli bir şey değil. Yöntemler iyi anlaşılmıştır. Zorluk uygulama disiplinidir.

Besleme havası sıcaklığını yükseltin.Çoğu veri merkezi soğuk çalışır (soğutma ünitesi dönüşünde 18 ila 20 santigrat derece) çünkü operatörlerin her zaman yaptığı şey budur. ASHRAE yönergeleri artık 24 ila 27 dereceyi önermektedir. Her derecelik artış, soğutma enerjisini yaklaşık yüzde 4 oranında azaltır. 20 derece yerine 26 derecede çalıştırmak, soğutma gücünden yüzde 20-25 oranında tasarruf sağlar.

Sıcak ve soğuk hava karışımını ortadan kaldırın.Sıcak koridor muhafazası, soğuk koridor muhafazası veya dikey egzoz kanalları, soğutma havasını rafların önünde kısa döngü yapmak yerine ihtiyaç duyulan yere gitmeye zorlar. Tek başına muhafaza, soğutma enerjisini genellikle yüzde 15-25 oranında azaltır.

Değişken hızlı sürücüleri kullanın.Sabit hızlı fanlar ve pompalar kısmi yükte enerji israfına neden olur. Değişken hızlı sürücüler, hava akışını ve su akışını gerçek talebe göre ayarlar. Güçlendirmenin geri ödeme süreleri genellikle 1-3 yıldır.

UPS çalışmasını optimize edin.Çoğu UPS sistemi sürekli olarak çift dönüştürme modunda çalışır; şebeke elektriği temiz olsa bile AC'yi DC'ye ve tekrar AC'ye dönüştürür. Modern UPS sistemleri, güç kalitesi izin verdiğinde Eco moduna geçerek yüzde 94-96 yerine yüzde 99 verimlilik elde edebiliyor. Takas, şebeke elektriğinin kesilmesi durumunda aküye kısa bir aktarım süresidir. Bu tür aktarımlar için tasarlanmış güç kaynaklarına sahip BT yükleri için risk minimum düzeydedir.

Daha yüksek voltaj dağıtımını benimseyin.Gücün 208V yerine 415V ile dağıtılması, dağıtım kayıplarını yaklaşık yüzde 25 oranında azaltır. Bunun için uyumlu PDU'lar ve sunucu güç kaynakları gerekir, ancak birçok modern cihaz bunu destekler.

Gerçek Dünyada Verimlilik Nasıl Görünüyor?

Shangyu CPSY ŞirketiVeri merkezi altyapısına odaklanan yüksek teknolojili bir kuruluş olan , modüler veri merkezi çözümleri için PUE'yi 1,3 olarak rapor ediyor. Bu, şirketi Altın seviyesine yerleştirir ve Platin seviyesine doğru ilerler.

Geleneksel tasarımlarla karşılaştırıldığında iddia edilen yüzde 25'lik enerji tasarrufu birçok faktörden kaynaklanmaktadır. Sistem düzeyinde yüzde 97,4 verimliliğe sahip modüler UPS sistemleri, normalde yüzde 15-20 oranında çalışan dağıtım kayıplarını azaltır. Değişken hızlı kompresörlere ve EC fanlara sahip hassas klimalar, soğutma çıkışını sabit kapasitede çalışmak yerine gerçek ısı yüküne uyacak şekilde ayarlar. Ve fiziksel düzen (sıcak koridor muhafazası, optimum raf aralığı, uygun boyutta delikli döşemelere sahip yükseltilmiş zemin), normalde verimli olan birçok tesisi baltalayan hava akışı yönetimini ele alıyor.

Şirketin sertifikasyon portföyü ISO 9001 (kalite yönetimi) ve ISO 27001 (bilgi güvenliği yönetimi) içermektedir. Müşteri dağıtımları arasında Amerika Birleşik Devletleri, Birleşik Krallık, Almanya, Fransa ve Avustralya'daki ihracat kurulumları ile Huawei, ZTE ve Inspur ile ortaklıklar bulunmaktadır.

Sıvı Soğutmanın Resme Girdiği Yer

Yıllardır sıvı soğutma, süper bilgi işlem merkezleri için niş bir teknolojiydi. Bu hızla değişiyor.

NVIDIA H100 veya yakında çıkacak B200 GPU'ları kullanan yapay zeka eğitim kümeleri, tamamen hava soğutmalı yapılandırmalarda raf başına 30-50 kilowatt üretir. Bu yoğunluklarda, hava soğutması yüksek hava akış hızları gerektirir; gürültülü fanlar, derin raflar ve hala marjinal termal kontrol.

Doğrudan çipe sıvı soğutma, kaynaktaki ısının yüzde 60-80'ini ortadan kaldırır. Cipsler daha soğuk çalışır. Fanlar daha yavaş çalışır. Oda kliması yalnızca güç kaynaklarından, bellekten ve diğer bileşenlerden kalan ısıyı yönetir.

Verimlilik kazanımı önemli düzeydedir. Doğrudan çipe soğutmalı tesisler PUE değerlerinin 1,1 ile 1,2 arasında olduğunu bildirmektedir. Bunun getirdiği ödünler, daha yüksek sermaye maliyeti, daha karmaşık sızıntı yönetimi ve tesis düzeyinde su arıtma ihtiyacıdır.

Sunucuların tamamını dielektrik sıvıya batıran tam daldırmalı soğutma, PUE'yi 1,1'in altına iter ancak uzman kalır. Çoğu ticari veri merkezi, belirli yüksek yoğunluklu bölgeler için önce doğrudan çipe soğutmayı, daha sonra daldırmayı benimseyecektir.

SHANGYU veri merkezi platformu, gelecekteki yüksek yoğunluklu dağıtımların tesis tasarımından bağımsız olarak akışkan bazlı termal yönetim gerektireceğinin bilincinde olarak hem hava hem de sıvı soğutma mimarilerine yönelik hükümler içerir.

Yönetim Boşluğu: Reaktiften Tahmine Dayalıya

Veri merkezi operasyon ekiplerinin çoğu hâlâ reaktif olarak çalışıyor. Bir alarm çalar. Birisi araştırıyor. Bir düzeltme uygulandı. Döngü tekrarlanır.

Tahmine dayalı yönetime geçiş, birçok kuruluşun sahip olmadığı üç yeteneği gerektirir.

Yapılandırma verilerini tamamlayın.Veri merkezinde ne olduğunu bilmek (her sunucu, her anahtar, her PDU, her soğutma ünitesi) temeldir. Doğru CMDB verileri olmadan kapasite planlaması tahmine dayalıdır.

Granüler telemetri.Raf düzeyinde güç ölçümü minimumdur. Sunucu başına güç ölçümü daha iyidir. İş yükü düzeyinde güç ilişkilendirmesi en iyisidir ancak elde edilmesi en zordur.

Sinyali gürültüden ayıran analizler.Bir raftaki sıcaklık artışı fanın arızalandığı anlamına gelebilir. Veri merkezinin yarısındaki sıcaklık artışı soğutma grubunun arızası anlamına gelebilir. Sistemin yanıtları buna göre farklılaştırması ve önermesi gerekir.

SHANGYU'nun DCIM platformu, SNMP ve Modbus cihaz desteği, web tabanlı ve Windows uygulama arayüzleri ve olayla tetiklenen görüntüleme için ağ kameralarıyla entegrasyon sağlar. Belirtilen hedefler oldukça basittir: maliyetli arıza sürelerini azaltmak, tam çevre kontrolü yoluyla günlük işletme maliyetlerini azaltmak ve yönetimin görünürlüğünü ve izlenebilirliğini geliştirmek.

Bu Neden Veri Merkezi Zemininin Ötesinde Önemlidir?

Veri merkezi enerji tüketimi, küresel elektrik talebinin yaklaşık yüzde 1'ini oluşturuyor. Bu sayı, bağlama oturtuluncaya kadar küçük geliyor. Bu kabaca Birleşik Krallık'ın toplam elektrik tüketimine eşdeğerdir.

Daha da önemlisi büyüme hızı artıyor. Sektör tahminleri, yapay zeka, bulutun benimsenmesi ve bağlı cihazların sürekli genişlemesinin etkisiyle veri merkezi güç talebinin 2030 yılına kadar yıllık yüzde 10-15 oranında artacağını gösteriyor. Bu hızla giderse, veri merkezleri on yılın sonunda küresel elektriğin yüzde 3-4'ünü tüketecek.

Önceki on yılda güç tüketimini sabit tutan verimlilik kazanımları, sunucu sanallaştırmasından (fiziksel sunucu sayısının azaltılması), iyileştirilmiş sürücü verimliliğinden (dönen disklerden SSD'lere geçiş) ve ücretsiz soğutmanın geniş çapta dağıtımından (mekanik soğutma yerine dış havanın kullanılması) geldi. Bu alçakta asılı meyveler büyük ölçüde toplanmıştır.

Bir sonraki verimlilik dalgası, sıvı soğutma, daha yüksek voltaj dağıtımı, yapay zekayla optimize edilmiş soğutma kontrolleri ve belki de en önemlisi, altyapı kapasitesi ile gerçek BT ​​yükü arasında daha iyi uyum sağlanmasından gelecektir. Bu son parça, DCIM sistemlerinin sağladığı ancak çok az tesisin tam olarak kullandığı türden gerçek zamanlı görünürlük ve tahmine dayalı analitiği gerektirir.

Kendi Altyapınız Hakkında Sorulmaya Değer Bazı Sorular

Teknik özellikler sayfasındaki numarayı değil, gerçek PUE'nizi biliyor musunuz?UPS çıkışında ve IT ekipmanı girişinde ölçüm yapmadıysanız bilemezsiniz. Aradaki fark gerçek genel giderinizdir.

Soğutma sistemleriniz birbiriyle savaşıyor mu?Birçok veri merkezinde CRAC üniteleri örtüşen sıcaklık ve nem bantlarına göre ayarlanır. Bir ünite nem alırken diğeri nemlendirir. Biri soğuyor, diğeri tekrar ısıtıyor. Bu alışılmadık bir durum değil. Aynı zamanda verimli de değil.

Sunucularınızın boşta kalan güç tüketimi nedir?Sektör verileri, tipik kurumsal sunucuların hiçbir şey yapmadığında en yüksek güçlerinin yüzde 30-40'ını çektiğini gösteriyor. Kullanılmayan sunucuların kapatılması veya uyku moduna alınması, mevcut en yüksek yatırım getirisi verimliliği önlemidir. Aynı zamanda en çok gözden kaçırılanıdır.

Ekipman özelliklerini ihlal etmeden besleme havası sıcaklığınızı iki derece artırabilir misiniz?Muhtemelen evet. Çoğu ekipman 25-27 derece giriş sıcaklıklarına göre derecelendirilmiştir. Çoğu veri merkezi 20-22 derecede çalışır. Bu altı derecelik boşluk, yıllar süren gereksiz soğutma enerjisini temsil ediyor.

UPS verimliliğinizi en son ne zaman doğruladınız?Etiket verimliliği tam yükte mükemmel güç faktörüyle ölçülür. Gerçek dünya güç faktörü ile kısmi yükte gerçek dünya verimliliği 5-10 puan daha düşük olabilir.





Öncesi:Haber yok
Sonraki:Haber yok

Talep Gönder

X
Size daha iyi bir gezinme deneyimi sunmak, site trafiğini analiz etmek ve içeriği kişiselleştirmek için çerezleri kullanıyoruz. Bu siteyi kullanarak çerez kullanımımızı kabul etmiş olursunuz. Gizlilik Politikası