ชไนเดอร์ อิเล็คทริค เจาะลึกระบบ Liquid cooling สำหรับดาต้าเซ็นเตอร์ AI กับ 3 ความเสี่ยงหลัก แนะมีพันธมิตรที่เชื่อถือได้คือกุญแจสู่ความสำเร็จ
ชไนเดอร์ อิเล็คทริค เจาะลึกระบบ Liquid cooling สำหรับดาต้าเซ็นเตอร์ AI กับ 3 ความเสี่ยงหลัก แนะมีพันธมิตรที่เชื่อถือได้คือกุญแจสู่ความสำเร็จ
ชไนเดอร์ อิเล็คทริค (Schneider Electric) ผู้นำระดับโลกด้านเทคโนโลยีพลังงาน เปิดมุมมอง ทำไมระบบ Air
cooling จึงไม่เพียงพออีกต่อไป พร้อมเจาะลึกระบบ Liquid
cooling สำหรับดาต้าเซ็นเตอร์ AI กับ 3
ความเสี่ยงหลักที่ท้าทาย แนะการมีพันธมิตรที่เชื่อถือได้คือกุญแจสู่ความสำเร็จ
การเปลี่ยนผ่านสู่ยุค AI ทำไมนิยามของการระบายความร้อนจึงเปลี่ยนไป
การเติบโตของการประมวลผลแบบเร่งความเร็วซึ่งมี
GPU เป็นขุมพลังหลักในการขับเคลื่อนเวิร์กโหลดด้าน AI
กำลังเข้ามาเปลี่ยนแปลงสถาปัตยกรรมของดาต้าเซ็นเตอร์ไปอย่างสิ้นเชิง
โดยเฉพาะอัตราการใช้พลังงานของชิปประมวลผลเหล่านี้ที่สูงกว่าหน่วยประมวลผลกลาง หรือ
CPU แบบดั้งเดิมอย่างมหาศาล ตลอดหลายปีที่ผ่านมาการออกแบบเซิร์ฟเวอร์ส่วนใหญ่อ้างอิงกับ
CPU ที่ใช้พลังงานประมาณ 150 วัตต์
แต่ในปัจจุบันชิปรุ่นใหม่อย่าง Nvidia Blackwell กลับมีความต้องการพลังงานพุ่งสูงขึ้นในช่วงระหว่าง
1,000-1,400 วัตต์
ทั้งนี้ระดับการใช้พลังงานที่สูงขึ้นดังกล่าวส่งผลโดยตรงต่อตัวชี้วัดสำคัญของอุตสาหกรรมที่เรียกว่า
อัตราการใช้พลังงานต่อตู้แร็ค (Power consumption per rack) โดยปกติแล้วดาต้าเซ็นเตอร์แบบดั้งเดิมจะใช้ไฟอยู่ที่ 10-20 กิโลวัตต์ต่อตู้แร็ค แต่สำหรับการออกแบบล่าสุดของ NVIDIA นั้น ตัวเลขดังกล่าวพุ่งสูงขึ้นถึง 142 กิโลวัตต์ต่อตู้แร็ค
ยิ่งไปกว่านั้น NVIDIA ยังได้ประกาศไว้อย่างชัดเจนว่า การใช้พลังงานระดับ
1 เมกะวัตต์ต่อตู้แร็ค คือสิ่งที่กำลังจะเกิดขึ้นในไม่ช้า
ทำไมระบบ Air cooling จึงไม่เพียงพออีกต่อไป
การจ่ายพลังงานมหาศาลให้กับดาต้าเซ็นเตอร์
AI นับเป็นโจทย์ที่ท้าทาย
แม้ว่าปัจจุบันมีเทคโนโลยีที่เข้ามารองรับความต้องการนี้ได้แล้ว
แต่ปัญหาสำคัญคือพลังงานทั้งหมดจะถูกเปลี่ยนสภาพเป็นความร้อน ซึ่งการระบายความร้อนในระดับนี้
เป็นสิ่งที่เกินขีดความสามารถของระบบระบายความร้อนด้วยอากาศ (Air Cooling) แบบดั้งเดิม โดยทางออกของปัญหานี้คือการหันมาใช้ระบบระบายความร้อนด้วยของเหลว
(Liquid Cooling) แม้จะมีอยู่หลายรูปแบบ
แต่วิธีที่ได้รับการยอมรับและนิยมใช้สูงสุดสำหรับชิปประมวลผลประสิทธิภาพสูงคือ ระบบ
DLC (Direct Liquid Cooling) เป็นการระบายความร้อนด้วยของเหลวที่ตัวชิปโดยตรง
อีกทั้งเทคโนโลยีดังกล่าวไม่ใช่เรื่องใหม่ เพราะมีการใช้งานในวงการซูเปอร์คอมพิวเตอร์มาอย่างยาวนาน โดย Motivair by Schneider Electric ถือเป็นผู้นำแถวหน้าในการติดตั้งระบบ DLC มานานกว่าทศวรรษ พร้อมนำความเชี่ยวชาญที่ผ่านการพิสูจน์แล้วจากสภาพแวดล้อมการประมวลผลแบบสมรรถนะสูง HPC (High Performance Computing) มาปรับใช้เพื่อยกระดับดาต้าเซ็นเตอร์ AI ที่มีความหนาแน่นสูงในปัจจุบัน
การติดตั้งระบบ Direct
Liquid Cooling ในระดับสเกลใหญ่
อย่างไรก็ตามการนำระบบ Direct
Liquid Cooling มาปรับใช้ในระดับสเกลใหญ่สำหรับดาต้าเซ็นเตอร์ AI
เป็นเรื่องใหม่ที่เพิ่มความซับซ้อนให้กับสภาพแวดล้อมการทำงานที่มีความละเอียดอ่อนอยู่แล้ว
หากใครเคยเข้าใจผิดว่า ระบบระบายความร้อนด้วยของเหลวเป็นเรื่องง่าย
ขอให้คิดทบทวนใหม่เพราะในความเป็นจริงนั้นตรงกันข้ามอย่างสิ้นเชิง การเปลี่ยนผ่านสู่เทคโนโลยีนี้จำเป็นต้องอาศัยวิศวกรรมระบบที่มีความละเอียดแม่นยำสูง
เพื่อผสานการทำงานระหว่างระบบไอทีและโครงสร้างพื้นฐานของอาคารให้สอดคล้องกัน
นอกจากนี้ ชไนเดอร์ อิเล็คทริค
ได้รวบรวมรายละเอียดความท้าทายต่างๆ ในเอกสารอ้างอิง White
Paper 210: Direct Liquid Cooling System Challenges in Data Centers เพื่อเป็นแนวทางและส่งต่อข้อมูลเชิงลึกที่สำคัญให้กับองค์กรที่กำลังวางแผนรับมือกับเวิร์กโหลด
AI ด้วยระบบ Liquid cooling
แล้วความผิดพลาดที่อาจเกิดขึ้นกับ
Liquid cooling สำหรับดาต้าเซ็นเตอร์ AI มีอะไรบ้าง?
1.ความเสี่ยงจากการกัดกร่อนและความเสียหายต่อเซิร์ฟเวอร์
ระบบระบายความร้อนด้วยของเหลวจำเป็นต้องใช้วัสดุหลายชนิดที่ต้องสัมผัสกับของเหลว
การคัดเลือกวัสดุเหล่านี้จึงมีความสำคัญเป็นพิเศษ
เนื่องจากทุกชิ้นส่วนต้องทำงานร่วมกันได้อย่างลงตัวโดยไม่ทำปฏิกิริยาต่อกัน โดยปกติผู้ผลิตจะระบุรายการวัสดุที่ใช้และข้อแนะนำเกี่ยวกับคุณภาพน้ำไว้ในคู่มือการติดตั้ง
อย่างไรก็ตามในส่วนของวัสดุอื่นๆ ที่อยู่ในวงจรระบบระบายความร้อน หรือ TCS (Technology Cooling System) จำเป็นต้องได้รับการตรวจสอบความเข้ากันได้
ทั้งหมดรวมถึงตัวของเหลวที่ใช้ เนื่องจากในขณะที่อุตสาหกรรมกำลังอยู่ในช่วงพัฒนามาตรฐานและข้อกำหนดกลางสำหรับเทคโนโลยีนี้
วัสดุอุปกรณ์จากผู้ผลิตรายหนึ่งอาจไม่สามารถใช้งานร่วมกับวัสดุจากผู้ผลิตอีกรายได้อย่างปลอดภัย
ยกตัวอย่างเช่น ประเภทของของเหลวที่นิยมใช้ในระบบระบายความร้อนส่วนใหญ่จะแบ่งออกเป็น
2 ประเภทหลัก ได้แก่ น้ำปราศจากไอออน หรือ DI (Deionized Water) และสารละลาย PG 25 ซึ่งเป็นของเหลวที่มีส่วนผสมพื้นฐานของโพรพิลีนไกลคอล (Propylene
Glycol) ซึ่งข้อควรระวังสำคัญคือ ห้ามนำของเหลวจากผู้ผลิตหลายรายมาผสมกันโดยเด็ดขาด
ทั้งนี้ของเหลวทั้งสองประเภทล้วนมีส่วนผสมของสารเติมแต่งอาจทำปฏิกิริยากับวัสดุจำพวกทองเหลืองหรือเหล็กกล้าบางชนิด
จนนำไปสู่ปัญหาการกัดกร่อนได้แม้ว่าในของเหลวจะมีสารยับยั้งการกัดกร่อนผสมอยู่แล้วก็ตาม
ถ้ามีวัสดุที่ไม่เหมาะสมสัมผัสกับของเหลว
หรือระดับความเข้มข้นของสารยับยั้งในระบบไม่ได้รับการควบคุมให้อยู่ในเกณฑ์มาตรฐานอาจก่อให้เกิดสนิมหรือคราบตะกรันชีวภาพ
(Biofilm) ขึ้นได้
สิ่งเหล่านี้จะกลายเป็นเศษตะกอนปะปนอยู่ในระบบหล่อเย็น
ซึ่งถือเป็นความเสี่ยงสำคัญที่อาจทำให้เซิร์ฟเวอร์ได้รับความเสียหาย
ปัจจุบันเริ่มเห็นหลายบริษัทนำเสนอของเหลวระดับนาโน (Nano fluids) หรือ ของเหลววิศวกรรม (Engineered fluids) ออกสู่ตลาดมากขึ้นแม้จะเป็นการเพิ่มทางเลือกให้หลากหลาย แต่ในขณะเดียวกันก็นำมาซึ่งความสับสนในการเลือกใช้งานที่มากยิ่งขึ้นตามไปด้วย
2. ความสับสนเรื่องการรับประกันและความท้าทายต่อข้อตกลงการให้บริการ
(SLA)
ก่อนที่ระบบ Liquid
cooling จะเข้ามามีบทบาท
ผู้ดูแลดาต้าเซ็นเตอร์สามารถบริหารจัดการความร้อนได้ไม่ยาก
แค่ติดตั้งเครื่องปรับอากาศไว้ใกล้กับจุดวางเซิร์ฟเวอร์เพื่อรับลมร้อนที่ถูกระบายออกมาแล้วนำไปทำความเย็น
แต่สำหรับการระบายความร้อนด้วยของเหลวในดาต้าเซ็นเตอร์ AI นั้น
ความซับซ้อนจะเพิ่มขึ้นอย่างเห็นได้ชัด เนื่องจากมีปัจจัยที่ต้องพิจารณามากขึ้น
เช่น เซิร์ฟเวอร์และอุปกรณ์ทำความเย็นจะถูกเชื่อมต่อเข้าหากันด้วยระบบท่อ
กลายเป็นอุปกรณ์ที่ต้องทำงานประสานกัน พร้อมด้วยระบบควบคุมที่เชื่อมโยงถึงกันเสมือนเป็นชิ้นเดียวกัน
สำหรับระบบ Air
cooling การจัดการค่อนข้างตรงไปตรงมา
เพียงตรวจสอบข้อมูลจำเพาะของเซิร์ฟเวอร์เพื่อให้ทราบอุณหภูมิที่ต้องการและโดยทั่วไปหากเกิดข้อผิดพลาดในการออกแบบสามารถแก้ไขได้ง่ายด้วยการปรับระบบหมุนเวียนอากาศในระดับโครงสร้างพื้นฐาน
ซึ่งตลอดหลายปีที่ผ่านมาผู้ดูแลดาต้าเซ็นเตอร์คุ้นเคยกับการแก้ปัญหาหน้างานด้วยวิธีต่างๆ
ไม่ว่าจะเป็นการติดตั้งระบบกักเก็บลม (Containment) การเปลี่ยนแผ่นพื้นยก
หรือการเสริมระบบทำความเย็นระยะใกล้ (Close-coupled cooling) เพื่อชดเชยข้อผิดพลาดเหล่านั้น
แต่สำหรับระบบระบายความร้อนด้วยของเหลว
ผู้ดูแลระบบไม่สามารถปรับแก้เพื่อชดเชยข้อผิดพลาดภายหลังการติดตั้งได้ง่ายดายเช่นนั้น
เนื่องจากระบบนี้ต้องการวิศวกรรมที่ละเอียดและมีความแม่นยำสูงกว่ามาก สิ่งที่ต้องคำนึงถึงไม่ใช่แค่
อุณหภูมิจ่ายเพียงอย่างเดียวอีกต่อไป
แต่ยังมีข้อกำหนดเรื่องแรงดันและอัตราการไหลของของเหลวเข้ามาเกี่ยวข้องด้วย
ผู้ดูแลระบบจำเป็นต้องทำความเข้าใจข้อมูลจำเพาะจากผู้ผลิตเซิร์ฟเวอร์หลากหลายแบรนด์
และตระหนักว่าแต่ละรุ่นอาจมีความต้องการอุณหภูมิ
แรงดันและอัตราการไหลที่แตกต่างกันออกไป ซึ่งการใช้งานที่อยู่นอกเหนือค่ามาตรฐานเหล่านี้
อาจส่งผลกระทบโดยตรงต่อประสิทธิภาพการทำงานของเซิร์ฟเวอร์
ดังนั้นหากไม่มีพันธมิตรที่เชื่อถือได้เพียงรายเดียวในการดูแลโซลูชันแบบครบวงจร
องค์กรอาจต้องเผชิญกับสถานการณ์การเกี่ยงความรับผิดชอบระหว่างผู้ขาย
หรือเจอปัญหาที่เลวร้ายยิ่งกว่านั้นเมื่อระบบขัดข้อง
3. พลาดโอกาสประหยัดพลังงานมหาศาล
ระบบระบายความร้อนด้วยอากาศและของเหลวนั้นทำงานที่ระดับอุณหภูมิจ่ายที่แตกต่างกัน
การตัดสินใจออกแบบระบบทำความเย็นจึงเป็นจุดเปลี่ยนสำคัญที่จะนำไปสู่การประหยัดพลังงาน
เมื่อเปรียบเทียบกับอากาศแล้วน้ำมีคุณสมบัตินำความร้อนได้ดีกว่าถึง 23 เท่า และสามารถกักเก็บความร้อนต่อปริมาตรได้มากกว่าถึง 3,000 เท่า แน่นอนว่าสามารถเลือกใช้เครื่องทำน้ำเย็นเพียงชุดเดียวเพื่อจ่ายน้ำเย็นให้อุปกรณ์ทั้งแบบลมและแบบน้ำพร้อมกันได้
แต่วิธีนี้ถือเป็นข้อแลกเปลี่ยนที่ต้องคิดให้ดีเพราะเป็นการจำกัดขีดความสามารถในการเพิ่มอุณหภูมิน้ำสำหรับระบบ
Liquid Cooling ทำให้คุณไม่สามารถใช้ประโยชน์จากช่วงเวลา Free-cooling
ได้อย่างเต็มที่
ในทางกลับกันหากลงทุนติดตั้งเครื่องทำน้ำเย็นชุดที่ 2 เพื่อแยกการทำงานกันอย่างชัดเจน โดยชุดหนึ่งสำหรับระบบลม
และอีกชุดสำหรับระบบน้ำจะสามารถเดินเครื่องระบบน้ำที่อุณหภูมิสูงกว่าเดิมได้
ซึ่งจะช่วยเรื่องประสิทธิภาพความคุ้มค่า (ตามกฎกติกาการเพิ่มอุณหภูมิเครื่องทำน้ำเย็นได้ทุกๆ
1°C จะช่วยประหยัดพลังงานไฟฟ้าประมาณ 2-2.5%) แต่หากยังยึดติดกับการใช้เครื่องทำน้ำเย็นเพียงชุดเดียวเท่ากับทิ้งโอกาสในการประหยัดพลังงานที่ระบบ
Liquid Cooling มอบให้ไปอย่างน่าเสียดาย
ทางออกสำคัญคือ
แนวทางการระบายความร้อนด้วยของเหลวแบบครบวงจรจากพันธมิตรที่เชื่อถือได้
ระบบระบายความร้อนด้วยของเหลวที่ดีที่สุดสำหรับดาต้าเซ็นเตอร์
AI นั้น
จำเป็นต้องอาศัยแนวทางบริหารจัดการแบบครบวงจรซึ่งต้องครอบคลุมตั้งแต่ขั้นตอนการจัดหาเทคโนโลยี
การติดตั้ง ไปจนถึงการบำรุงรักษาอย่างต่อเนื่อง
การนำระบบระบายความร้อนด้วยของเหลวเข้ามาเสริมในดาต้าเซ็นเตอร์เดิมอาจดูเป็นเรื่องซับซ้อน
แต่หากดำเนินการได้อย่างถูกต้องและประสบความสำเร็จ
ผลลัพธ์ที่ได้คือความสามารถในการจัดการกับความร้อนจากเวิร์กโหลดมหาศาลได้อย่างมีประสิทธิภาพ
พร้อมช่วยรักษาเสถียรภาพของโครงสร้างพื้นฐานสำคัญให้ทำงานได้อย่างต่อเนื่องและเต็มประสิทธิภาพสูงสุด
Motivair by Schneider Electric ออกแบบมาเพื่อ AI,
HPC และเวิร์กโหลด GPU ความหนาแน่นสูง
โซลูชันระบายความร้อนจาก
Motivair by Schneider Electric พร้อมให้บริการแล้วทั่วโลก ออกแบบมาเพื่อตอบโจทย์ความต้องการด้านพลังงานและการประมวลผลผ่าน
GPU ที่เข้มข้นของดาต้าเซ็นเตอร์ความหนาแน่นสูงได้อย่างน่าเชื่อถือและรองรับการขยายตัวในอนาคต
พอร์ตโฟลิโอระบบระบายความร้อนแบบครบวงจรมีทั้งแบบของเหลวและแบบอากาศ
ครอบคลุมโครงสร้างพื้นฐานทางกายภาพของดาต้าเซ็นเตอร์ ซึ่งประกอบด้วย
- หน่วยกระจายสารหล่อเย็น หรือ CDUs (Coolant Distribution Units)
- เครื่องแลกเปลี่ยนความร้อนแบบติดตั้งที่ประตูหลัง หรือ RDHx (Rear Door Heat Exchangers)
- หน่วยกระจายความร้อนแบบติดตั้งในตู้แร็ค หรือ HDUs (In-Rack Heat Distribution Units)
- แผ่นระบายความร้อนแบบไดนามิก
- เครื่องทำน้ำเย็น
- ซอฟต์แวร์และบริการ
โซลูชันทั้งหมดนี้ออกแบบมาเพื่อรองรับข้อกำหนดด้านการจัดการความร้อนสำหรับเวิร์กโหลดแห่งอนาคต
ทั้ง HPC, AI และการประมวลผลแบบเร่งความเร็ว
ชไนเดอร์ อิเล็คทริค และ Motivair
มุ่งมั่นนำเสนอพอร์ตโฟลิโอด้านดาต้าเซ็นเตอร์และระบบระบายความร้อนที่ครอบคลุมที่สุดในตลาดแก่ลูกค้า
รวมถึงโครงสร้างพื้นฐานด้านการทำความเย็นหลักทั้งหมดควบคู่ไปกับความแข็งแกร่งของห่วงโซ่อุปทานที่พร้อมรองรับความต้องการในระดับโลก
หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับโซลูชันระบายความร้อนด้วยของเหลวของเรา
สามารถเยี่ยมชมได้ที่ เว็บไซต์ของชไนเดอร์
อิเล็คทริค

ความคิดเห็น
แสดงความคิดเห็น