Pusat Data Mangan Kekuwatan Luwih Luwih Saka Sing Dikarepake. Industri Iku Racing kanggo Nyekel Up.

2026-04-29 - Ninggalake kula pesen

Kanggo taun, crita sakapusat datakonsumsi energi ngiring busur katebak. Digitalisasi saya akeh, mesthi, nanging asil efisiensi saka server, virtualisasi, lan konsolidasi awan sing luwih apik ndadekake panggunaan listrik total ora rata. Panjaluk daya pusat data global udakara udakara udakara 1 persen saka total konsumsi listrik - kira-kira 200 terawatt-jam saben taun - sajrone luwih saka sepuluh taun.

Jaman iku wis rampung.

Konvergensi AI generatif, pertambangan cryptocurrency, komputasi pinggiran, lan wutah eksponensial piranti sing disambungake wis ngilangi kurva efisiensi lawas. Perkiraan industri saiki nuduhake panjaluk daya pusat data tuwuh ing tingkat taunan sing ora katon wiwit awal 2000-an. Ing sawetara wilayah - Irlandia, Virginia Lor, Singapura - pusat data wis nyatakake 15 nganti 25 persen saka total konsumsi listrik, meksa regulator kanggo nemtokke moratorium ing konstruksi anyar.

Ing latar mburi iki, pilihan infrastruktur sing nate katon kaya rincian teknis - arsitektur pendinginan, topologi distribusi daya, perencanaan kepadatan rak - wis dadi keputusan ing ruang rapat. Biaya energi ora ana maneh item baris. Iku kendala ing wutah.


Metrik Sederhana Sing Ngganti Kabeh

Efektivitas Panggunaan Daya, utawa PUE, wis dadi metrik efisiensi standar industri pusat data meh rong puluh taun. Iku rasio prasaja: total daya fasilitas dibagi dening daya peralatan IT.

A PUE saka 2.0 tegese kanggo saben watt daya server lan panyimpenan, watt liyane menyang cooling, cahya, mundhut konversi daya, lan overhead liyane. PUE 1,2 tegese overhead mung nganggo 0,2 watt saben watt IT.

Industri kasebut wis nampa tingkatan adhedhasar PUE:

tingkat PUE DCiE Apa tegese
Platinum <1.25 > 0,80 Efisiensi kelas donya, biasane mbutuhake pendinginan gratis utawa pendinginan cair
emas 1.25 – 1.43 0.70 – 0.80 Banget efisien, bisa digayuh kanthi desain modern ing iklim moderat
salaka 1.43 – 1.67 0.60 – 0.70 Ditampa kanggo fasilitas lawas utawa iklim anget
gangsa 1.67 – 2.00 0.50 – 0.60 Khas kanggo pusat data warisan tanpa retrofits utama
Adil 2.00 – 2.50 0.40 – 0.50 Efisiensi kurang, biaya operasi dhuwur
mlarat > 2.50 <0.40 Inefisiensi kritis, bisa uga mbutuhake perhatian langsung

Masalahe akeh organisasi sing ora ngerti PUE. Padha ngira. Padha guess. Utawa mung ngukur ing meter sarana utama lan nganggep liyane.

Survei industri 2023 nemokake manawa meh 40 persen operator pusat data durung nate ngukur PUE ing tingkat rak. Ing antarane sing nindakake, panyebaran antarane PUE sing dilaporake lan nyata rata-rata 0,3 poin - cukup kanggo mindhah fasilitas saka Emas menyang Perak tanpa ana sing ngerti.

Endi Daya Sejatine

Ngerteni kenapa PUE beda-beda banget diwiwiti kanthi ndeleng ing ngendi daya ninggalake pusat data.

Ing fasilitas hawa-cooled khas kanthi PUE watara 1.8, risak katon kaya iki:

  • peralatan IT (server, panyimpenan, jaringan): 55-60 persen
  • Pendinginan (unit CRAC/CRAH, pendingin, pompa, pendingin kering): 30-35 persen
  • Distribusi daya (UPS, trafo, mundhut PDU): 5-8 persen
  • Cahya lan beban fasilitas liyane: 2-4 persen

Beban cooling minangka variabel paling gedhe. Sawijining fasilitas ing iklim sedheng nggunakake udhara njaba kanggo pendinginan gratis mung bisa nggunakake 15 persen daya non-IT kanggo pendinginan. Fasilitas sing padha ing iklim tropis kanthi pendinginan mekanis ing saindhenging taun bisa ngentekake 40 persen.

Pramila panyedhiya colocation ngiklanake PUE ing tingkat fasilitas nanging ngirim PUE ing meter pelanggan - nomer beda, implikasi beda. Pelanggan mbayar kabeh.

Pergeseran Saka Tradisional menyang Infrastruktur Skala Awan

Manajemen pusat data tradisional nganggep lingkungan sing relatif statis. Rak diisi liwat sasi utawa taun. Pendinginan bisa diatur alon-alon. Distribusi daya gedhe banget wiwit dina pisanan.

Jaman awan ngganti asumsi. Rak saiki ngisi dina. Beban kerja ngalih ing server kanthi otomatis. Kluster AI kanthi kapadhetan dhuwur bisa nggambar kaping telu daya saka rak komputasi tujuan umum sing cedhak.

Owah-owahan kasebut meksa mikir maneh babagan manajemen infrastruktur. Telung tren ngadeg metu.

Kaping pisanan, Kapadhetan mundhak ora rata.Rak server standar sepuluh taun kepungkur narik 5-8 kilowatt. Dina iki, rak serbaguna narik 10-15 kilowatt. Komputasi kinerja dhuwur lan rak latihan AI kanthi rutin ngluwihi 30 kilowatt saben rak. Sawetara ngluwihi 50 kilowatt.

Iki nggawe tantangan manajemen termal sing kudu diatasi dening pendinginan udara. Ing 20 kilowatts saben rak, cooling online tetep efektif karo containment tepat. Ing 30 kilowatt, dadi marginal. Ing 40 kilowatt lan ndhuwur, cooling cair pindhah saka opsional menyang perlu.

Kapindho, perencanaan kapasitas wis dadi prediktif.Cara lawas - tuku kapasitas luwih akeh tinimbang sing dibutuhake lan ayo nganggur - ora bisa digunakake kanthi skala. Kapasitas nganggur nduweni biaya modal lan biaya pangopènan sing terus-terusan.

Sistem manajemen infrastruktur modern nggunakake data historis lan prakiraan beban kerja kanggo prédhiksi kapan daya, pendinginan, utawa papan rak bakal entek. Sistem sing paling apik bisa menehi rekomendasi apa arep ngatur maneh kapasitas sing wis ana utawa pesen hardware anyar, dina utawa minggu sadurunge kendala dadi kritis.

Katelu, syarat visibilitas duwe expandhes.Pusat data tradisional bisa nglacak daya ing tingkat PDU. Sawijining fasilitas modern mbutuhake visibilitas ing tingkat rak, kadhangkala ing tingkat server, lan saya tambah akeh ing tingkat beban kerja - ngerti mesin virtual utawa wadhah sing drive sing narik daya.

Lapisan DCIM: Apa Sejatine

Infrastruktur Pusat DataPiranti lunak Manajemen (DCIM) wis ana luwih saka sepuluh taun, nanging adopsi tetep ora rata. Kurang saka setengah pusat data perusahaan wis masang sistem DCIM lengkap. Akeh sing nggunakake mung bagian sekedhik saka kemampuane.

Sistem DCIM sing ditindakake kanthi bener nindakake papat perkara:

Manajemen aset.Saben server, switch, PDU, lan unit pendinginan dilacak ing database manajemen konfigurasi (CMDB). Lokasi, rating daya, sambungan jaringan, riwayat pangopènan - kabeh. Iki muni dhasar, nanging akeh organisasi isih nglacak aset ing spreadsheet sing ana sawetara wulan antarane nganyari.

Ngawasi wektu nyata.Daya tarik ing tingkat PDU utawa rak, suhu lan asor ing sumber lan titik bali, status sistem cooling, kesehatan baterei UPS. Weker micu nalika paramèter nyimpang saka setpoints. Tujuane kanggo ndeteksi masalah sadurunge nyebabake downtime.

Perencanaan kapasitas.Sistem ngerti carane akeh daya lan cooling kapasitas kasedhiya, pinten digunakake, lan pinten wis dilindhungi undhang-undhang kanggo penyebaran prajurit mangsa. Bisa model impact nambah rak dhuwur-Kapadhetan anyar utawa pensiun pesawat saka server lawas.

Visualisasi.Kembar digital saka pusat data - rak dening rak, kothak dening kothak - nuduhake kahanan saiki lan ngidini operator kanggo simulasi owah-owahan. Nambahake 10 kilowatt beban menyang baris telu, kolom papat: apa sing ngluwihi kapasitas pendinginan? Sistem mangsuli sadurunge wong mindhah peralatan.

Matématika Efisiensi Sing Bener Kerja

Ngilangi konsumsi energi pusat data ora misterius. Cara-carane dimangerteni. Tantangan yaiku disiplin implementasine.

Ngunggahake suhu hawa pasokan.Umume pusat data kadhemen - 18 nganti 20 derajat Celsius nalika bali unit pendinginan - amarga iki sing ditindakake operator. Pedoman ASHRAE saiki nyaranake 24 nganti 27 derajat. Saben kenaikan derajat nyuda energi pendinginan kira-kira 4 persen. Mlaku ing 26 derajat tinimbang 20 derajat nyimpen 20-25 persen daya cooling.

Ngilangi campuran hawa panas lan adhem.Wadah lorong panas, wadhah lorong kadhemen, utawa saluran knalpot vertikal meksa hawa adhem menyang papan sing dibutuhake tinimbang muter cendhak liwat ngarep rak. Kontainer mung biasane nyuda energi pendinginan kanthi 15-25 persen.

Gunakake drive kacepetan variabel.Penggemar kanthi kacepetan konstan lan pompa energi sampah ing beban sebagean. Drive kacepetan variabel cocog karo aliran udara lan aliran banyu kanggo dikarepake nyata. Periode payback retrofit biasane 1-3 taun.

Ngoptimalake operasi UPS.Umume sistem UPS mlaku ing mode konversi kaping pindho terus-terusan - ngowahi AC dadi DC lan bali menyang AC sanajan daya sarana resik. Sistem UPS modern bisa ngalih menyang eco-mode nalika kualitas daya ngidini, entuk efisiensi 99 persen tinimbang 94-96 persen. Tradeoff minangka wektu transfer singkat menyang baterei yen daya sarana gagal. Kanggo beban IT kanthi pasokan listrik sing dirancang kanggo transfer kasebut, resiko minimal.

Nganggo distribusi voltase sing luwih dhuwur.Daya distribusi ing 415V tinimbang 208V nyuda mundhut distribusi kira-kira 25 persen. Iki mbutuhake PDU sing kompatibel lan pasokan daya server, nanging akeh piranti modern sing ndhukung.

Apa Efisiensi Nyata-Donya Katon

Perusahaan Shanghai CPSY, perusahaan teknologi dhuwur kanthi fokus ing infrastruktur pusat data, nglaporake PUE 1.3 kanggo solusi pusat data modular. Iki ndadekake perusahaan ing undakan Emas, pindhah menyang Platinum.

Penghematan energi 25 persen sing diklaim dibandhingake karo desain konvensional asale saka macem-macem faktor. Sistem UPS modular kanthi efisiensi 97,4 persen ing tingkat sistem nyuda kerugian distribusi sing digunakake 15-20 persen. Kondhisi hawa presisi kanthi kompresor kacepetan variabel lan penggemar EC nyetel output pendinginan supaya cocog karo beban panas sing nyata tinimbang mlaku kanthi kapasitas tetep. Lan tata letak fisik - ngemot lorong panas, jarak rak sing optimal, lantai sing diunggahake kanthi kothak perforasi ukuran sing tepat - ngatasi manajemen aliran udara sing ngrusak akeh fasilitas sing efisien.

Portofolio sertifikasi perusahaan kalebu ISO 9001 (manajemen kualitas) lan ISO 27001 (manajemen keamanan informasi). Penyebaran pelanggan kalebu kemitraan karo Huawei, ZTE, lan Inspur, kanthi instalasi ekspor ing Amerika Serikat, Inggris, Jerman, Prancis, lan Australia.

Ngendi Cairan Cooling Mlebet Gambar

Wis pirang-pirang taun, pendinginan cair minangka teknologi khusus kanggo pusat superkomputer. Sing ganti kanthi cepet.

Kluster latihan AI nggunakake NVIDIA H100 utawa GPU B200 sing bakal teka ngasilake 30-50 kilowatt saben rak ing konfigurasi sing digawe adhem kanthi hawa. Ing kapadhetan kasebut, pendinginan udara mbutuhake tingkat aliran udara sing dhuwur - penggemar banter, rak jero, lan kontrol termal sing isih cilik.

Pendinginan cairan langsung menyang chip mbusak 60-80 persen panas ing sumber kasebut. Kripik mbukak adhem. Penggemar mlaku luwih alon. AC kamar mung nangani sisa panas saka sumber daya, memori, lan komponen liyane.

Efisiensi gain punika substansial. Facilities karo cooling langsung-kanggo-chip laporan nilai PUE saka 1,1 kanggo 1,2. Imbangan kasebut yaiku biaya modal sing luwih dhuwur, manajemen bocor sing luwih rumit, lan kabutuhan perawatan banyu kelas fasilitas.

Pendinginan kecemplung lengkap - nyemplungake kabeh server ing cairan dielektrik - nyurung PUE ing ngisor 1.1 nanging tetep khusus. Umume pusat data komersial bakal nggunakake pendinginan langsung-ke-chip dhisik, banjur dicelupake kanggo zona kepadatan dhuwur tartamtu.

Platform pusat data SHANGYU kalebu pranata kanggo arsitektur pendinginan udara lan cairan, sing ngerteni manawa panyebaran kapadhetan dhuwur ing mangsa ngarep bakal mbutuhake manajemen termal adhedhasar cairan apa wae desain fasilitas.

Jurang Manajemen: Saka Reaktif nganti Prediktif

Umume tim operasi pusat data isih kerja kanthi reaktif. Weker muni. Ana sing nyelidiki. A fix ditrapake. Siklus kasebut bola-bali.

Transisi menyang manajemen prediktif mbutuhake telung kapabilitas sing ora akeh organisasi.

Data konfigurasi lengkap.Ngerti apa sing ana ing pusat data - saben server, saben switch, saben PDU, saben unit pendinginan - minangka dhasar. Tanpa data CMDB sing akurat, perencanaan kapasitas minangka guesswork.

Telemetri granular.Pangukuran daya tingkat rak paling minimal. Pangukuran daya saben server luwih apik. Atribusi daya tingkat beban kerja paling apik nanging paling angel digayuh.

Analytics sing mbedakake sinyal saka gangguan.Lonjakan suhu ing siji rak bisa uga ateges penggemar gagal. Lonjakan suhu ing setengah pusat data bisa uga ateges gagal chiller. Sistem kasebut kudu mbedakake lan menehi rekomendasi respon sing cocog.

Platform DCIM saka SHANGYU nyedhiyakake dhukungan piranti SNMP lan Modbus, antarmuka aplikasi berbasis web lan Windows, lan integrasi karo kamera jaringan kanggo pencitraan sing dipicu acara. Sasaran kasebut langsung: nyuda downtime sing larang, nyuda biaya operasi saben dina liwat kontrol lingkungan lengkap, lan nambah visibilitas lan traceability manajemen.

Napa Iki Penting Ngluwihi Lantai Pusat Data

Konsumsi energi pusat data kira-kira 1 persen panjaluk listrik global. Nomer kasebut muni cilik nganti dilebokake ing konteks. Iku kira-kira padha karo total konsumsi listrik ing Inggris.

Sing luwih penting, tingkat wutah saya cepet. Proyeksi industri nuduhake panjaluk daya pusat data mundhak 10-15 persen saben taun nganti 2030, didorong dening AI, adopsi awan, lan ekspansi piranti sing disambungake. Ing tingkat kasebut, pusat data bakal nggunakake 3-4 persen listrik global ing pungkasan dekade.

Keuntungan efisiensi sing tetep konsumsi daya rata kanggo dekade sadurunge teka saka virtualisasi server (ngurangi count server fisik), efisiensi drive sing luwih apik (pindhah saka disk spinning menyang SSD), lan penyebaran cooling gratis (nggunakake hawa njaba tinimbang kulkasan mekanik). Woh-wohan sing nggandhol sedheng wis akeh dipetik.

Gelombang efisiensi sabanjure bakal teka saka pendinginan cairan, distribusi voltase sing luwih dhuwur, kontrol pendinginan sing dioptimalake AI, lan - bisa uga sing paling penting - keselarasan sing luwih apik antarane kapasitas infrastruktur lan beban IT sing nyata. Potongan pungkasan kasebut mbutuhake visibilitas wektu nyata lan analitik prediktif sing diwenehake dening sistem DCIM nanging sawetara fasilitas sing digunakake kanthi lengkap.

Sawetara Pitakonan sing Patut Ditakoni Babagan Infrastruktur Panjenengan

Apa sampeyan ngerti PUE sampeyan, dudu nomer ing lembar spek?Yen sampeyan durung ngukur ing output UPS lan ing input peralatan IT, sampeyan ora ngerti. Bentenipun punika overhead nyata sampeyan.

Apa sistem pendinginan sampeyan saling nglawan?Ing akeh pusat data, unit CRAC disetel kanthi suhu lan kelembapan sing tumpang tindih. Siji unit dehumidify nalika liyane humidify. Siji kelangan nalika liyane reheats. Iki ora aneh. Iku uga ora efisien.

Apa daya idle daya tarik server sampeyan?Data industri nuduhake yen server perusahaan khas narik 30-40 persen saka daya puncak nalika ora nindakake apa-apa. Mateni utawa turu server sing ora digunakake minangka ukuran efisiensi ROI paling dhuwur sing kasedhiya. Iku uga sing paling diabaikan.

Apa sampeyan bisa ngunggahake suhu udara pasokan nganti rong derajat tanpa nglanggar spesifikasi peralatan?Mesthi ya. Umume peralatan dirating kanggo suhu asupan 25-27 derajat. Umume pusat data mbukak ing 20-22 derajat. Kesenjangan enem derajat kasebut nuduhake energi pendinginan sing ora perlu.

Nalika pungkasan sampeyan verifikasi efisiensi UPS?Efisiensi nameplate diukur ing beban lengkap kanthi faktor daya sing sampurna. Efisiensi nyata ing beban sebagean kanthi faktor daya nyata bisa 5-10 poin luwih murah.





Sadurunge:Ora ana Kabar
Sabanjure:Ora ana Kabar

Kirim Pitakonan

X
Kita nggunakake cookie kanggo menehi pengalaman browsing sing luwih apik, nganalisa lalu lintas situs lan nggawe konten pribadi. Kanthi nggunakake situs iki, sampeyan setuju kanggo nggunakake cookie. Kebijakan Privasi