
ชไนเดอร์ อิเล็คทริค (Schneider Electric) ผู้นำระดับโลกด้านเทคโนโลยีพลังงาน เปิดมุมมอง ทำไมระบบ Air cooling จึงไม่เพียงพออีกต่อไป พร้อมเจาะลึกระบบ Liquid cooling สำหรับดาต้าเซ็นเตอร์ AI กับ 3 ความเสี่ยงหลักที่ท้าทาย แนะการมีพันธมิตรที่เชื่อถือได้คือกุญแจสู่ความสำเร็จการเปลี่ยนผ่านสู่ยุค AI ทำไมนิยามของการระบายความร้อนจึงเปลี่ยนไป
การเติบโตของการประมวลผลแบบเร่งความเร็วซึ่งมี GPU เป็นขุมพลังหลักในการขับเคลื่อนเวิร์กโหลดด้าน AI กำลังเข้ามาเปลี่ยนแปลงสถาปัตยกรรมของดาต้าเซ็นเตอร์ไปอย่างสิ้นเชิง โดยเฉพาะอัตราการใช้พลังงานของชิปประมวลผลเหล่านี้ที่สูงกว่าหน่วยประมวลผลกลาง หรือ CPU แบบดั้งเดิมอย่างมหาศาล ตลอดหลายปีที่ผ่านมาการออกแบบเซิร์ฟเวอร์ส่วนใหญ่อ้างอิงกับ CPU ที่ใช้พลังงานประมาณ 150 วัตต์ แต่ในปัจจุบันชิปรุ่นใหม่อย่าง Nvidia Blackwell กลับมีความต้องการพลังงานพุ่งสูงขึ้นในช่วงระหว่าง 1,000-1,400 วัตต์
ทั้งนี้ระดับการใช้พลังงานที่สูงขึ้นดังกล่าวส่งผลโดยตรงต่อตัวชี้วัดสำคัญของอุตสาหกรรมที่เรียกว่า อัตราการใช้พลังงานต่อตู้แร็ค (Power consumption per rack) โดยปกติแล้วดาต้าเซ็นเตอร์แบบดั้งเดิมจะใช้ไฟอยู่ที่ 10-20 กิโลวัตต์ต่อตู้แร็ค แต่สำหรับการออกแบบล่าสุดของ NVIDIA นั้น ตัวเลขดังกล่าวพุ่งสูงขึ้นถึง 142 กิโลวัตต์ต่อตู้แร็ค ยิ่งไปกว่านั้น NVIDIA ยังได้ประกาศไว้อย่างชัดเจนว่า การใช้พลังงานระดับ 1 เมกะวัตต์ต่อตู้แร็ค คือสิ่งที่กำลังจะเกิดขึ้นในไม่ช้า
ทำไมระบบ Air cooling จึงไม่เพียงพออีกต่อไป
การจ่ายพลังงานมหาศาลให้กับดาต้าเซ็นเตอร์ AI นับเป็นโจทย์ที่ท้าทาย แม้ว่าปัจจุบันมีเทคโนโลยีที่เข้ามารองรับความต้องการนี้ได้แล้ว แต่ปัญหาสำคัญคือพลังงานทั้งหมดจะถูกเปลี่ยนสภาพเป็นความร้อน ซึ่งการระบายความร้อนในระดับนี้ เป็นสิ่งที่เกินขีดความสามารถของระบบระบายความร้อนด้วยอากาศ (Air Cooling) แบบดั้งเดิม โดยทางออกของปัญหานี้คือการหันมาใช้ระบบระบายความร้อนด้วยของเหลว (Liquid Cooling) แม้จะมีอยู่หลายรูปแบบ แต่วิธีที่ได้รับการยอมรับและนิยมใช้สูงสุดสำหรับชิปประมวลผลประสิทธิภาพสูงคือ ระบบ DLC (Direct Liquid Cooling) เป็นการระบายความร้อนด้วยของเหลวที่ตัวชิปโดยตรง
อีกทั้งเทคโนโลยีดังกล่าวไม่ใช่เรื่องใหม่ เพราะมีการใช้งานในวงการซูเปอร์คอมพิวเตอร์มาอย่างยาวนาน โดย Motivair by Schneider Electric ถือเป็นผู้นำแถวหน้าในการติดตั้งระบบ DLC มานานกว่าทศวรรษ พร้อมนำความเชี่ยวชาญที่ผ่านการพิสูจน์แล้วจากสภาพแวดล้อมการประมวลผลแบบสมรรถนะสูง HPC (High Performance Computing) มาปรับใช้เพื่อยกระดับดาต้าเซ็นเตอร์ AI ที่มีความหนาแน่นสูงในปัจจุบัน
การติดตั้งระบบ Direct Liquid Cooling ในระดับสเกลใหญ่
อย่างไรก็ตามการนำระบบ Direct Liquid Cooling มาปรับใช้ในระดับสเกลใหญ่สำหรับดาต้าเซ็นเตอร์ AI เป็นเรื่องใหม่ที่เพิ่มความซับซ้อนให้กับสภาพแวดล้อมการทำงานที่มีความละเอียดอ่อนอยู่แล้ว หากใครเคยเข้าใจผิดว่า ระบบระบายความร้อนด้วยของเหลวเป็นเรื่องง่าย ขอให้คิดทบทวนใหม่เพราะในความเป็นจริงนั้นตรงกันข้ามอย่างสิ้นเชิง การเปลี่ยนผ่านสู่เทคโนโลยีนี้จำเป็นต้องอาศัยวิศวกรรมระบบที่มีความละเอียดแม่นยำสูง เพื่อผสานการทำงานระหว่างระบบไอทีและโครงสร้างพื้นฐานของอาคารให้สอดคล้องกัน
นอกจากนี้ ชไนเดอร์ อิเล็คทริค ได้รวบรวมรายละเอียดความท้าทายต่างๆ ในเอกสารอ้างอิง White Paper 210: Direct Liquid Cooling System Challenges in Data Centers เพื่อเป็นแนวทางและส่งต่อข้อมูลเชิงลึกที่สำคัญให้กับองค์กรที่กำลังวางแผนรับมือกับเวิร์กโหลด AI ด้วยระบบ Liquid cooling
แล้วความผิดพลาดที่อาจเกิดขึ้นกับ Liquid cooling สำหรับดาต้าเซ็นเตอร์ AI มีอะไรบ้าง?
1.ความเสี่ยงจากการกัดกร่อนและความเสียหายต่อเซิร์ฟเวอร์
ระบบระบายความร้อนด้วยของเหลวจำเป็นต้องใช้วัสดุหลายชนิดที่ต้องสัมผัสกับของเหลว การคัดเลือกวัสดุเหล่านี้จึงมีความสำคัญเป็นพิเศษ เนื่องจากทุกชิ้นส่วนต้องทำงานร่วมกันได้อย่างลงตัวโดยไม่ทำปฏิกิริยาต่อกัน โดยปกติผู้ผลิตจะระบุรายการวัสดุที่ใช้และข้อแนะนำเกี่ยวกับคุณภาพน้ำไว้ในคู่มือการติดตั้ง อย่างไรก็ตามในส่วนของวัสดุอื่นๆ ที่อยู่ในวงจรระบบระบายความร้อน หรือ TCS (Technology Cooling System) จำเป็นต้องได้รับการตรวจสอบความเข้ากันได้ ทั้งหมดรวมถึงตัวของเหลวที่ใช้ เนื่องจากในขณะที่อุตสาหกรรมกำลังอยู่ในช่วงพัฒนามาตรฐานและข้อกำหนดกลางสำหรับเทคโนโลยีนี้ วัสดุอุปกรณ์จากผู้ผลิตรายหนึ่งอาจไม่สามารถใช้งานร่วมกับวัสดุจากผู้ผลิตอีกรายได้อย่างปลอดภัย
ยกตัวอย่างเช่น ประเภทของของเหลวที่นิยมใช้ในระบบระบายความร้อนส่วนใหญ่จะแบ่งออกเป็น 2 ประเภทหลัก ได้แก่ น้ำปราศจากไอออน หรือ DI (Deionized Water) และสารละลาย PG 25 ซึ่งเป็นของเหลวที่มีส่วนผสมพื้นฐานของโพรพิลีนไกลคอล (Propylene Glycol) ซึ่งข้อควรระวังสำคัญคือ ห้ามนำของเหลวจากผู้ผลิตหลายรายมาผสมกันโดยเด็ดขาด
ทั้งนี้ของเหลวทั้งสองประเภทล้วนมีส่วนผสมของสารเติมแต่งอาจทำปฏิกิริยากับวัสดุจำพวกทองเหลืองหรือเหล็กกล้าบางชนิด จนนำไปสู่ปัญหาการกัดกร่อนได้แม้ว่าในของเหลวจะมีสารยับยั้งการกัดกร่อนผสมอยู่แล้วก็ตาม ถ้ามีวัสดุที่ไม่เหมาะสมสัมผัสกับของเหลว หรือระดับความเข้มข้นของสารยับยั้งในระบบไม่ได้รับการควบคุมให้อยู่ในเกณฑ์มาตรฐานอาจก่อให้เกิดสนิมหรือคราบตะกรันชีวภาพ (Biofilm) ขึ้นได้ สิ่งเหล่านี้จะกลายเป็นเศษตะกอนปะปนอยู่ในระบบหล่อเย็น ซึ่งถือเป็นความเสี่ยงสำคัญที่อาจทำให้เซิร์ฟเวอร์ได้รับความเสียหาย
ปัจจุบันเริ่มเห็นหลายบริษัทนำเสนอของเหลวระดับนาโน (Nano fluids) หรือ ของเหลววิศวกรรม (Engineered fluids) ออกสู่ตลาดมากขึ้นแม้จะเป็นการเพิ่มทางเลือกให้หลากหลาย แต่ในขณะเดียวกันก็นำมาซึ่งความสับสนในการเลือกใช้งานที่มากยิ่งขึ้นตามไปด้วย
2. ความสับสนเรื่องการรับประกันและความท้าทายต่อข้อตกลงการให้บริการ (SLA)
ก่อนที่ระบบ Liquid cooling จะเข้ามามีบทบาท ผู้ดูแลดาต้าเซ็นเตอร์สามารถบริหารจัดการความร้อนได้ไม่ยาก แค่ติดตั้งเครื่องปรับอากาศไว้ใกล้กับจุดวางเซิร์ฟเวอร์เพื่อรับลมร้อนที่ถูกระบายออกมาแล้วนำไปทำความเย็น แต่สำหรับการระบายความร้อนด้วยของเหลวในดาต้าเซ็นเตอร์ AI นั้น ความซับซ้อนจะเพิ่มขึ้นอย่างเห็นได้ชัด เนื่องจากมีปัจจัยที่ต้องพิจารณามากขึ้น เช่น เซิร์ฟเวอร์และอุปกรณ์ทำความเย็นจะถูกเชื่อมต่อเข้าหากันด้วยระบบท่อ กลายเป็นอุปกรณ์ที่ต้องทำงานประสานกัน พร้อมด้วยระบบควบคุมที่เชื่อมโยงถึงกันเสมือนเป็นชิ้นเดียวกัน
สำหรับระบบ Air cooling การจัดการค่อนข้างตรงไปตรงมา เพียงตรวจสอบข้อมูลจำเพาะของเซิร์ฟเวอร์เพื่อให้ทราบอุณหภูมิที่ต้องการและโดยทั่วไปหากเกิดข้อผิดพลาดในการออกแบบสามารถแก้ไขได้ง่ายด้วยการปรับระบบหมุนเวียนอากาศในระดับโครงสร้างพื้นฐาน ซึ่งตลอดหลายปีที่ผ่านมาผู้ดูแลดาต้าเซ็นเตอร์คุ้นเคยกับการแก้ปัญหาหน้างานด้วยวิธีต่างๆ ไม่ว่าจะเป็นการติดตั้งระบบกักเก็บลม (Containment) การเปลี่ยนแผ่นพื้นยก หรือการเสริมระบบทำความเย็นระยะใกล้ (Close-coupled cooling) เพื่อชดเชยข้อผิดพลาดเหล่านั้น
แต่สำหรับระบบระบายความร้อนด้วยของเหลว ผู้ดูแลระบบไม่สามารถปรับแก้เพื่อชดเชยข้อผิดพลาดภายหลังการติดตั้งได้ง่ายดายเช่นนั้น เนื่องจากระบบนี้ต้องการวิศวกรรมที่ละเอียดและมีความแม่นยำสูงกว่ามาก สิ่งที่ต้องคำนึงถึงไม่ใช่แค่ อุณหภูมิจ่ายเพียงอย่างเดียวอีกต่อไป แต่ยังมีข้อกำหนดเรื่องแรงดันและอัตราการไหลของของเหลวเข้ามาเกี่ยวข้องด้วย ผู้ดูแลระบบจำเป็นต้องทำความเข้าใจข้อมูลจำเพาะจากผู้ผลิตเซิร์ฟเวอร์หลากหลายแบรนด์ และตระหนักว่าแต่ละรุ่นอาจมีความต้องการอุณหภูมิ แรงดันและอัตราการไหลที่แตกต่างกันออกไป ซึ่งการใช้งานที่อยู่นอกเหนือค่ามาตรฐานเหล่านี้ อาจส่งผลกระทบโดยตรงต่อประสิทธิภาพการทำงานของเซิร์ฟเวอร์
ดังนั้นหากไม่มีพันธมิตรที่เชื่อถือได้เพียงรายเดียวในการดูแลโซลูชันแบบครบวงจร องค์กรอาจต้องเผชิญกับสถานการณ์การเกี่ยงความรับผิดชอบระหว่างผู้ขาย หรือเจอปัญหาที่เลวร้ายยิ่งกว่านั้นเมื่อระบบขัดข้อง
3. พลาดโอกาสประหยัดพลังงานมหาศาล
ระบบระบายความร้อนด้วยอากาศและของเหลวนั้นทำงานที่ระดับอุณหภูมิจ่ายที่แตกต่างกัน การตัดสินใจออกแบบระบบทำความเย็นจึงเป็นจุดเปลี่ยนสำคัญที่จะนำไปสู่การประหยัดพลังงาน เมื่อเปรียบเทียบกับอากาศแล้วน้ำมีคุณสมบัตินำความร้อนได้ดีกว่าถึง 23 เท่า และสามารถกักเก็บความร้อนต่อปริมาตรได้มากกว่าถึง 3,000 เท่า แน่นอนว่าสามารถเลือกใช้เครื่องทำน้ำเย็นเพียงชุดเดียวเพื่อจ่ายน้ำเย็นให้อุปกรณ์ทั้งแบบลมและแบบน้ำพร้อมกันได้ แต่วิธีนี้ถือเป็นข้อแลกเปลี่ยนที่ต้องคิดให้ดีเพราะเป็นการจำกัดขีดความสามารถในการเพิ่มอุณหภูมิน้ำสำหรับระบบ Liquid Cooling ทำให้คุณไม่สามารถใช้ประโยชน์จากช่วงเวลา Free-cooling ได้อย่างเต็มที่
ในทางกลับกันหากลงทุนติดตั้งเครื่องทำน้ำเย็นชุดที่ 2 เพื่อแยกการทำงานกันอย่างชัดเจน โดยชุดหนึ่งสำหรับระบบลม และอีกชุดสำหรับระบบน้ำจะสามารถเดินเครื่องระบบน้ำที่อุณหภูมิสูงกว่าเดิมได้ ซึ่งจะช่วยเรื่องประสิทธิภาพความคุ้มค่า (ตามกฎกติกาการเพิ่มอุณหภูมิเครื่องทำน้ำเย็นได้ทุกๆ 1°C จะช่วยประหยัดพลังงานไฟฟ้าประมาณ 2-2.5%) แต่หากยังยึดติดกับการใช้เครื่องทำน้ำเย็นเพียงชุดเดียวเท่ากับทิ้งโอกาสในการประหยัดพลังงานที่ระบบ Liquid Cooling มอบให้ไปอย่างน่าเสียดาย
ทางออกสำคัญคือ แนวทางการระบายความร้อนด้วยของเหลวแบบครบวงจรจากพันธมิตรที่เชื่อถือได้
ระบบระบายความร้อนด้วยของเหลวที่ดีที่สุดสำหรับดาต้าเซ็นเตอร์ AI นั้น จำเป็นต้องอาศัยแนวทางบริหารจัดการแบบครบวงจรซึ่งต้องครอบคลุมตั้งแต่ขั้นตอนการจัดหาเทคโนโลยี การติดตั้ง ไปจนถึงการบำรุงรักษาอย่างต่อเนื่อง
การนำระบบระบายความร้อนด้วยของเหลวเข้ามาเสริมในดาต้าเซ็นเตอร์เดิมอาจดูเป็นเรื่องซับซ้อน แต่หากดำเนินการได้อย่างถูกต้องและประสบความสำเร็จ ผลลัพธ์ที่ได้คือความสามารถในการจัดการกับความร้อนจากเวิร์กโหลดมหาศาลได้อย่างมีประสิทธิภาพ พร้อมช่วยรักษาเสถียรภาพของโครงสร้างพื้นฐานสำคัญให้ทำงานได้อย่างต่อเนื่องและเต็มประสิทธิภาพสูงสุด
Motivair by Schneider Electric ออกแบบมาเพื่อ AI, HPC และเวิร์กโหลด GPU ความหนาแน่นสูง
โซลูชันระบายความร้อนจาก Motivair by Schneider Electric พร้อมให้บริการแล้วทั่วโลก ออกแบบมาเพื่อตอบโจทย์ความต้องการด้านพลังงานและการประมวลผลผ่าน GPU ที่เข้มข้นของดาต้าเซ็นเตอร์ความหนาแน่นสูงได้อย่างน่าเชื่อถือและรองรับการขยายตัวในอนาคต พอร์ตโฟลิโอระบบระบายความร้อนแบบครบวงจรมีทั้งแบบของเหลวและแบบอากาศ ครอบคลุมโครงสร้างพื้นฐานทางกายภาพของดาต้าเซ็นเตอร์ ซึ่งประกอบด้วย
- หน่วยกระจายสารหล่อเย็น หรือ CDUs (Coolant Distribution Units)
- เครื่องแลกเปลี่ยนความร้อนแบบติดตั้งที่ประตูหลัง หรือ RDHx (Rear Door Heat Exchangers)
- หน่วยกระจายความร้อนแบบติดตั้งในตู้แร็ค หรือ HDUs (In-Rack Heat Distribution Units)
- แผ่นระบายความร้อนแบบไดนามิก
- เครื่องทำน้ำเย็น
- ซอฟต์แวร์และบริการ
โซลูชันทั้งหมดนี้ออกแบบมาเพื่อรองรับข้อกำหนดด้านการจัดการความร้อนสำหรับเวิร์กโหลดแห่งอนาคต ทั้ง HPC, AI และการประมวลผลแบบเร่งความเร็ว
ชไนเดอร์ อิเล็คทริค และ Motivair มุ่งมั่นนำเสนอพอร์ตโฟลิโอด้านดาต้าเซ็นเตอร์และระบบระบายความร้อนที่ครอบคลุมที่สุดในตลาดแก่ลูกค้า รวมถึงโครงสร้างพื้นฐานด้านการทำความเย็นหลักทั้งหมดควบคู่ไปกับความแข็งแกร่งของห่วงโซ่อุปทานที่พร้อมรองรับความต้องการในระดับโลก หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับโซลูชันระบายความร้อนด้วยของเหลวของเรา สามารถเยี่ยมชมได้ที่ เว็บไซต์ของชไนเดอร์ อิเล็คทริค










