HPE (NYSE: HPE) ประกาศเปิดตัว HPE AI Grid โซลูชันแบบครบวงจรที่พัฒนาบน NVIDIA Reference Architecture เพื่อเชื่อมต่อ AI Factories และคลัสเตอร์ Inference ที่กระจายอยู่ทั้งในระดับภูมิภาคและพื้นที่ Edge ที่ห่างไกลได้อย่างปลอดภัย โดย HPE AI Grid ช่วยให้ผู้ให้บริการสามารถติดตั้งและบริหารจัดการระบบ Inference แบบกระจายได้ในระดับหลายพันจุด พร้อมยกระดับการใช้งาน AI ให้ทำงานเชื่อมต่อกันเป็นระบบอัจฉริยะหนึ่งเดียว
แอปพลิเคชันที่มี AI เป็นแกนหลัก (AI-Native Applications) จำเป็นต้องอาศัยโครงสร้างพื้นฐานแบบกระจายศูนย์ที่มีเสถียรภาพ คาดการณ์ได้ และมีความหน่วงต่ำอย่างสม่ำเสมอ โดย HPE AI Grid ซึ่งเป็นส่วนหนึ่งของพอร์ตโฟลิโอ NVIDIA AI Computing by HPE ได้รับการออกแบบมาเพื่อตอบโจทย์ดังกล่าว ด้วยประสิทธิภาพความหน่วงต่ำระดับ ultra-low latency ที่คงที่แม้ในระดับสเกลขนาดใหญ่ รองรับบริการ AI แบบเรียลไทม์ พร้อมความสามารถในการติดตั้งระบบแบบอัตโนมัติ (Zero-touch Provisioning) และระบบรักษาความปลอดภัยอัตโนมัติผ่านการ orchestration แบบครบวงจร
รามิ ราฮิม รองประธานบริหาร ประธานและผู้จัดการทั่วไปฝ่าย Networking ของ HPE กล่าวว่า "เรากำลังสร้างนิยามใหม่ของการส่งมอบบริการ AI ด้วยการเคลื่อนย้ายระบบอัจฉริยะไปยังจุดที่มีข้อมูลและผู้ใช้งานอยู่จริง พร้อมเปลี่ยนเครือข่ายให้เป็นโครงสร้างพื้นฐานที่วางใจได้สำหรับประสบการณ์แบบเรียลไทม์ โดย HPE AI Grid ที่พัฒนาร่วมกับ NVIDIA มอบแนวทางที่ปลอดภัยและยืดหยุ่นให้ผู้ให้บริการสามารถบริหารจัดการระบบประมวลผลแบบกระจายศูนย์ได้เสมือนเป็นระบบเดียว ซึ่งช่วยให้ได้รับประสิทธิภาพที่แม่นยำและมีความหน่วงต่ำเป็นพิเศษ เพื่อให้ลูกค้าสามารถสร้างสรรค์นวัตกรรมได้รวดเร็ว ลดความเสี่ยง และสามารถสร้างบริการใหม่ ๆ ได้"
คริส เพนโรส รองประธานระดับโลกฝ่าย Telco ของ NVIDIA กล่าวว่า "AI Grid คือการรวมกลุ่มคลัสเตอร์ AI ที่กระจายตัวอยู่ตามพื้นที่ต่าง ๆ เข้าด้วยกัน เพื่อจัดวางเวิร์กโหลด AI ไปอยู่ในจุดที่ทำงานได้ดีที่สุด โดยสร้างความสมดุลระหว่างประสิทธิภาพ ค่าใช้จ่าย และความหน่วงทั้งในโรงงานผลิต AI ศูนย์ข้อมูลระดับภูมิภาค และพื้นที่ปลายทาง ด้วยความร่วมมือกับ HPE เรากำลังทำให้วิสัยทัศน์นี้เกิดขึ้นจริง โดยการผสานรวมการประมวลผลและการเชื่อมต่อเครือข่ายแบบความเร็วสูงของ NVIDIA เข้ากับระบบ Routing มัลติคลาวด์มาตรฐานโทรคมนาคม และโครงสร้างพื้นฐาน Edge ของ HPE เพื่อสร้างโครงสร้างพื้นฐานอัจฉริยะโครงสร้างเดียวสำหรับการอนุมานแบบกระจาย"
HPE มอบโซลูชัน AI Grid แบบครบวงจรที่ช่วยเร่งระยะคุ้มทุนในการนำไปใช้งาน
HPE AI Grid ได้รับการออกแบบให้สอดคล้องกับ NVIDIA Reference Architecture เพื่อจัดสรรชุดฮาร์ดแวร์และซอฟต์แวร์แบบครบวงจรสำหรับผู้ให้บริการ โดยจุดเด่นของ HPE คือความสามารถในการนำเสนอเซิร์ฟเวอร์ AI และเครือข่าย AI แบบครบวงจร โดย HPE AI Grid ประกอบด้วย:
ระบบเราเตอร์มัลติคลาวด์ระดับโทรคมนาคม และ Coherent Optics จาก HPE Juniper เพื่อการเชื่อมต่อที่เสถียรในหัวเมืองใหญ่สู่พื้นที่ห่างไกล มาพร้อมระบบรักษาความปลอดภัยแบบ cloud-native และแบบ Multi-tenant Firewalls ระบบ WAN อัตโนมัติ และการจัดการระบบเพื่อรับรองการติดตั้งและตั้งค่าอุปกรณ์เครือข่ายอัตโนมัติ รวมถึงการดำเนินงาน Lifecycle Operations
เซิร์ฟเวอร์ HPE ProLiant Compute Edge และเซิร์ฟเวอร์แบบแร็ค ที่มาพร้อมเทคโนโลยีประมวลผลความเร็วสูงจาก NVIDIA ไม่ว่าจะเป็น GPU NVIDIA RTX PRO 6000 Blackwell และ DPU NVIDIA BlueField, สวิตช์ Ethernet Spectrum-X, SuperNIC Connect-X รวมถึง พิมพ์เขียวระบบ AI (AI Blueprints) เพื่อเร่งประสิทธิภาพการประมวลผล AI Inference ให้ถึงขีดสุด
HPE AI Grid กับการสร้างโอกาสใหม่ที่ไม่สิ้นสุด ให้กับผู้ให้บริการ
กรณีการใช้งานของผู้ให้บริการ ตั้งแต่การทำ personalization ในภาคค้าปลีก และ predictive maintenance ไปจนถึง edge healthcare และบริการ AI ระดับผู้ให้บริการโทรคมนาคม (carrier-grade) ล้วนต้องอาศัยการเชื่อมต่อที่มีความเสถียร คาดการณ์ได้ และมีความหน่วงต่ำมาก โดย HPE AI Grid ช่วยให้ผู้ให้บริการสามารถต่อยอดจากไซต์เดิมที่มีทั้งพลังงานและการเชื่อมต่ออยู่แล้ว ให้กลายเป็นโครงข่าย AI แบบ RAN-ready รองรับ distributed inference และเปิดโอกาสในการสร้างบริการใหม่ในระดับสเกล
เพื่อขับเคลื่อนกลยุทธ์ AI Grid อย่างต่อเนื่อง Comcast ได้ประกาศเริ่มการทดลองใช้งาน AI ภาคสนามบนเครือข่ายที่มีการกระจายตัวสูง เพื่อทดสอบการทำ Real-time Edge AI Inferencing ที่ช่วยยกระดับประสบการณ์ให้รวดเร็วและตอบสนองได้ดียิ่งขึ้น รองรับแอปพลิเคชัน AI ระลอกใหม่ โดยการทดลองในระยะแรกครอบคลุมหลาย Use Cases รวมถึงการใช้เซิร์ฟเวอร์ HPE ProLiant ร่วมกับ Small Language Models จาก Personal AI บน NVIDIA GPUs เพื่อให้บริการ "front desk" ที่ขับเคลื่อนด้วย AI สำหรับธุรกิจขนาดเล็ก
เสียงตอบรับจากภาคอุตสาหกรรมที่มีต่อ HPE AI Grid ที่ใช้ NVIDIA
นาซิม เบนฮาดิด รองประธานบริหารและประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ TELUS กล่าวว่า "HPE และ NVIDIA เป็นพาร์ทเนอร์เชิงกลยุทธ์ในการสร้าง Sovereign AI Factory ของ TELUS ซึ่งถือเป็นซูเปอร์คอมพิวเตอร์ที่เร็วและทรงพลังที่สุดในแคนาดา ช่วยให้นักวิจัย ภาคธุรกิจ และสถาบันต่าง ๆ สามารถขับเคลื่อนนวัตกรรมได้ในระดับใหญ่ ขณะเดียวกัน TELUS ยังมุ่งนำ AI เข้าใกล้ผู้ใช้งานมากยิ่งขึ้น พร้อมยกระดับการเพิ่มประสิทธิภาพเครือข่ายด้วย AI และส่งมอบบริการที่รวดเร็วขึ้นอย่างต่อเนื่อง โดย HPE AI Grid ที่ขับเคลื่อนโดย NVIDIA เป็นหนึ่งในโซลูชันที่เราสนใจศึกษาเพิ่มเติม เพื่อเร่งการเปลี่ยนผ่านสู่ยุค AI ขององค์กร"
นีล แมคเรย์ Chief Technology Information Officer ของ CityFibre กล่าว "ลูกค้าของเรามีความคาดหวังมากขึ้นอย่างต่อเนื่อง ทั้งในด้านการตอบสนองระดับมิลลิวินาที การเชื่อมต่อที่มีความหน่วงต่ำ และความปลอดภัยแบบครบวงจร เพื่อรองรับแอปพลิเคชันและบริการที่หลากหลาย เรากำลังสำรวจศักยภาพของ AI Grid จาก HPE ซึ่งพัฒนาบน NVIDIA Reference Architecture ว่าจะสามารถรองรับ AI Inferencing แบบกระจายศูนย์ และนำ intelligence เข้าใกล้ผู้ใช้งานและแหล่งข้อมูลได้หรือไม่ ด้วยการต่อยอดจากโครงข่ายใยแก้วนำแสงที่เรามีอยู่ เรามองเห็นโอกาสในการผสานการเชื่อมต่อประสิทธิภาพสูงเข้ากับบริการอัจฉริยะ เพื่อยกระดับประสบการณ์ให้กับลูกค้า"
HPE Financial Services เร่งการขับเคลื่อนระบบเครือข่ายแบบ AI-ready และโครงสร้างพื้นฐาน AI แบบกระจายศูนย์
เพื่อช่วยส่งเสริมการใช้งานเครือข่ายแบบ AI?ready และโครงสร้างพื้นฐาน AI แบบกระจายให้รวดเร็วยิ่งขึ้น HPE Financial Services ได้ขยายข้อเสนอพิเศษด้วยอัตราดอกเบี้ย 0% สำหรับซอฟต์แวร์ AIOps สำหรับเครือข่าย ซึ่งรวมถึง HPE Juniper Networking Mist พร้อมมอบสิทธิประโยชน์ทางการเงินที่ช่วยประหยัดค่าใช้จ่ายได้เทียบเท่ากับการรับส่วนลดเงินสด 10% สำหรับการเช่าใช้งาน (Leasing) อุปกรณ์เครือข่ายที่รองรับ AI