23 ธ.ค. 2568 29 0

Red Hat ยกระดับประสิทธิภาพ AI Inference บน AWS

Red Hat ยกระดับประสิทธิภาพ  AI Inference บน AWS


Red Hat AI ทำงานร่วมกับ Trainium และ Inferentia ซึ่งเป็น AI chips ของ AWS มอบทางเลือก ความยืดหยุ่น และประสิทธิภาพที่เหนือกว่า ให้กับเวิร์กโหลด AI ที่นำไปใช้งานจริง


เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศขยายความร่วมมือกับ Amazon Web Services (AWS) เพื่อขับเคลื่อน Generative AI (Gen AI) ระดับองค์กรบน AWS ด้วย Red Hat AI และชิป AWS AI ความร่วมมือนี้มุ่งเน้นการเพิ่มศักยภาพให้ผู้บริหารด้านไอทีสามารถทำงานแบบ AI inference ที่มีประสิทธิภาพสูงและคุ้มค่าบนสเกลใหญ่ได้อย่างยืดหยุ่น โดยไม่ต้องพึ่งพาฮาร์ดแวร์ 

การเติบโตของ gen AI และความต้องการเรื่องของการอนุมานที่ปรับขนาดได้ตามการใช้งานจริง (scalable inference) กำลังผลักดันให้องค์กรต่างๆ ต้องประเมินโครงสร้างพื้นฐานไอทีของตนใหม่อีกครั้ง ทั้งนี้ IDC ได้คาดการณ์ว่า "ภายในปี พ.ศ. 2570 องค์กร 40% จะหันมาใช้ชิปที่ออกแบบมาเฉพาะทาง รวมถึงโปรเซสเซอร์ ARM หรือชิปที่สร้างขึ้นเฉพาะสำหรับ AI/ML เพื่อตอบสนองต่อความต้องการด้านการเพิ่มประสิทธิภาพ ความคุ้มค่า และการประมวลผลเฉพาะทาง ที่มีความต้องการเพิ่มมากขึ้น[1]  นับเป็นการชี้ให้เห็นถึงความจำเป็นของโซลูชันที่ได้รับการปรับแต่งอย่างเหมาะสม ซึ่งสามารถเพิ่มพลังการประมวลผล ลดต้นทุน และช่วยให้ไลฟ์ไซเคิลของการสร้างนวัตกรรมสำหรับแอปพลิเคชัน AI ประสิทธิภาพสูงทำได้รวดเร็วขึ้น 

ความร่วมมือของ Red Hat กับ AWS ช่วยเสริมศักยภาพให้องค์กรสามารถวางกลยุทธ์ gen AI ได้แบบ full-stack โดยการผสานรวมความสามารถด้านแพลตฟอร์มที่ครอบคลุมของ Red Hat เข้ากับโครงสร้างพื้นฐานคลาวด์และ AI chipsets ของ AWS ได้แก่ AWS Inferentia2 และ AWS Trainium3 ประเด็นสำคัญของความร่วมมือนี้ประกอบด้วย:

  • Red Hat AI Inference Server on AWS AI chips: Red Hat AI Inference Server ที่ขับเคลื่อนด้วย vLLM จะรองรับการทำงานร่วมกับ AI chips ของ AWS ได้แก่ AWS Inferentia2 และ AWS Trainium3 เพื่อมอบเลเยอร์การอนุมานมาตรฐานที่สามารถรองรับโมเดล gen AI ได้ทุกรูปแบบ ช่วยให้ลูกค้าได้รับประสิทธิภาพที่สูงขึ้น ลดระยะเวลาในการตอบสนอง และเพิ่มความคุ้มค่าในการขยายการนำ AI ไปใช้งานจริง โดยให้ประสิทธิภาพต่อราคา (price performance) ดีกว่า Amazon EC2 instances รูปแบบปัจจุบันที่ใช้ GPU ซึ่งมีคุณสมบัติใกล้เคียงกัน สูงถึง 30-40%
  • ใช้งาน AI on Red Hat OpenShift: Red Hat ได้ทำงานร่วมกับ AWS เพื่อพัฒนา AWS Neuron operator สำหรับ Red Hat OpenShift, Red Hat OpenShift AI และ Red Hat OpenShift Service on AWS ซึ่งเป็นแพลตฟอร์มแอปพลิเคชันแบบครบวงจรและมีการจัดการเต็มรูปแบบบน AWS มอบเส้นทางที่ราบรื่นและได้รับการสนับสนุนอย่างเป็นทางการในการรันเวิร์กโหลดด้าน AI ด้วย AWS accelerators
  • เข้าถึงและปรับใช้ได้ง่ายขึ้น: การรองรับ AI chips ของ AWS ช่วยให้ลูกค้า Red Hat on AWS สามารเข้าถึงอุปกรณ์เร่งความเร็ว (accelerators) ประสิทธิภาพสูง และรองรับปริมาณงานมากได้สะดวกยิ่งขึ้น นอกจากนี้ Red Hat ได้เปิดตัว amazon.ai Certified Ansible Collection สำหรับ Red Hat Ansible Automation Platform เพื่อช่วยประสานการทำงานของบริการ AI บน AWS 
  • การมีส่วนร่วมสนับสนุนชุมชนต้นน้ำ (upstream community): Red Hat และ AWS กำลังร่วมกันเพิ่มประสิทธิภาพให้กับปลั้กอิน AI chip ของ AWS ซึ่งได้ถูกส่งกลับไปยัง vLLM และในฐานะที่ Red Hat เป็นผู้มีส่วนร่วมสนับสนุนในเชิงพาณิชย์รายสำคัญให้กับ vLLM เร้ดแฮทจึงมุ่งมั่นที่จะทำให้ vLLM ทำงานบน AWS เพื่อช่วยเร่งศักยภาพด้านการอนุมานและการเทรน AI นอกจากนี้ vLLM ยังเป็นรากฐานของ llm-d ซึ่งเป็นโปรเจกต์โอเพ่นซอร์สที่เน้นการให้บริการด้านการอนุมานในระดับสเกลใหญ่ ที่ปัจจุบันเปิดให้ใช้งานเป็นฟีเจอร์เชิงพาณิชย์บน Red Hat OpenShift AI 3 แล้ว


Red Hat มีประวัติความร่วมมืออันยาวนานกับ AWS เพื่อช่วยเสริมศักยภาพลูกค้า ตั้งแต่ดาต้าเซ็นเตอร์ไปจนถึงเอดจ์ ความร่วมมือล่าสุดนี้มีเป้าหมายเพื่อตอบสนองความต้องการที่เปลี่ยนแปลงไปขององค์กรที่กำลังผสาน AI เข้ากับกลยุทธ์ไฮบริดคลาวด์ เพื่อให้ได้ผลลัพธ์ด้าน gen AI ที่เหมาะสมและมีประสิทธิภาพสูงสุด

ความพร้อมใช้งาน

AWS Neuron community operator พร้อมให้ใช้งานแล้วบน Red Hat OpenShift OperatorHub สำหรับลูกค้าที่ใช้งาน Red Hat OpenShift หรือ Red Hat OpenShift Service on AWS ส่วน Red Hat AI Inference Server ที่รองรับ AI chips ของ AWS ดาดว่าจะเปิดใช้งานในเวอร์ชัน developer preview ในเดือนมกราคม พ.ศ. 2569

คำกล่าวสนับสนุน

Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat
เรากำลังเสริมศักยภาพองค์กรให้สามารถปรับใช้และขยายเวิร์กโหลดด้าน AI ได้อย่างมีประสิทธิภาพและยืดหยุ่นมากยิ่งขึ้น ด้วยการทำให้ Red Hat AI Inference Server ระดับองค์กรของเรา ซึ่งพัฒนาบนเฟรมเวิร์ก vLLM ที่ล้ำสมัย สามารถทำงานร่วมกับ AI chips ของ AWS ได้ ความร่วมมือนี้ต่อยอดจากรากฐานด้านโอเพ่นซอร์สของ Red Hat โดยมีเป้าหมายเพื่อทำให้สามารถเข้าถึง generative AI ได้ง่ายและคุ้มค่ามากขึ้นในสภาพแวดล้อมไฮบริดคลาวด์

Colin Brace, vice president, Annapurna Labs, AWS

องค์กรต่างต้องการโซลูชันที่มีประสิทธิภาพที่เหนือชั้น คุ้มค่าการลงทุน และมีตัวเลือกที่เหมาะสมในการดำเนินงานเพื่อใช้กับเวิร์กโหลด AI ที่มีความสำคัญต่อภารกิจหลัก AWS ได้ออกแบบชิป Trainium และ Inferentia เพื่อทำให้การอนุมานและการเทรน AI มีประสิทธิภาพสูง เข้าถึงได้ง่ายขึ้น และคุ้มค่ามากขึ้น ความร่วมมือของเรากับ Red Hat ช่วยให้ลูกค้ามีแนวทางที่ได้รับการสนับสนุนในการปรับใช้ generative AI ในระดับองค์กร โดยผสานความยืดหยุ่นของโอเพนซอร์สเข้ากับโครงสร้างพื้นฐานของ AWS และตัวเร่งความเร็ว AI ที่ออกแบบมาโดยเฉพาะ เพื่อเร่งเวลาในการสร้างมูลค่าจากระยะทดลองไปสู่การใช้งานจริง

Jean-François Gamache, chief information officer and vice president, Digital Services, CAE

การปรับปรุงแอปพลิเคชันสำคัญให้ทันสมัยด้วย Red Hat OpenShift Service on AWS ถือเป็นก้าวสำคัญในการทรานส์ฟอร์มด้านดิจิทัลขององค์กร แพลตฟอร์มนี้ช่วยให้นักพัฒนาสามารถมุ่งเน้นไปที่โครงการที่มีมูลค่าสูง ทั้งการขับเคลื่อนนวัตกรรมผลิตภัณฑ์และเร่งการบูรณาการ AI เข้ากับโซลูชัน  ต่างๆ ของเรา Red Hat OpenShift มอบความยืดหยุ่นและความสามารถในการปรับขนาดที่ช่วยให้สร้างผลลัพธ์ที่จับต้องได้จริง ตั้งแต่การมอบข้อมูลเชิงลึกที่นำไปใช้งานได้จริงผ่านระบบการโค้ชเสมือนจริงแบบเรียลไทม์ (live virtual coaching) ไปจนถึงการลดระยะเวลาในการแก้ไขปัญหาที่ผู้ใช้รายงานเข้ามาได้อย่างมีนัยสำคัญ

Anurag Agrawal, founder and chief global analyst, Techaisle

ในขณะที่ต้นทุนการทำ AI inference เพิ่มสูงขึ้น องค์กรต่างให้ความสำคัญกับประสิทธิภาพควบคู่ไปกับสมรรถนะ ความร่วมมือนี้สะท้อนกลยุทธ์ ‘any model, any hardware’ ของ Red Hat โดยการบูรณาการแพลตฟอร์มโอเพ่นไฮบริดคลาวด์เข้ากับข้อได้เปรียบด้านความคุ้มค่าที่โดดเด่นของ AWS Trainium และ Inferentia ซึ่งช่วยให้ CIO สามารถนำ generative AI ไปใช้งานจริงในระดับองค์กร เปลี่ยนจากการทดลองที่มีต้นทุนสูงไปสู่การใช้งานจริงที่ยั่งยืนและมีการกำกับดูแล

แหล่งข้อมูลเพิ่มเติม

ช่องทางการติดต่อกับเร้ดแฮท

 

เกี่ยวกับเร้ดแฮท

เร้ดแฮท คือผู้นำด้านเทคโนโลยีโอเพ่นไฮบริดคลาวด์ นำเสนอโครงสร้างพื้นฐานที่เชื่อถือได้ สอดคล้อง  และครอบคลุม เพื่อรองรับการเปลี่ยนแปลงทางนวัตกรรมด้านไอที และแอปพลิเคชัน AI กลุ่มผลิตภัณฑ์ด้านคลาวด์, ผลิตภัณฑ์สำหรับนักพัฒนาซอฟต์แวร์, AI, Linux, ระบบอัตโนมัติ และแอปพลิเคชันแพลตฟอร์มของบริษัทฯ ช่วยให้สามารถใช้งานแอปพลิเคชันใด ๆ ก็ได้ในทุกที่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ ไปจนถึง edge ในฐานะผู้ให้บริการชั้นนำระดับโลกด้านโซลูชันซอฟต์แวร์โอเพ่นซอร์สสำหรับองค์กร เร้ดแฮทลงทุนด้านระบบนิเวศและชุมชนแบบเปิด เพื่อแก้ไขความท้าทายด้านไอทีที่จะเกิดขึ้นในอนาคต เร้ดแฮทร่วมมือกับพันธมิตรและลูกค้า เพื่อสร้าง เชื่อมต่อ ทำให้เป็นอัตโนมัติ รักษาความปลอดภัย และจัดการสภาพแวดล้อมไอทีให้กับลูกค้าและพันธมิตร โดยได้รับการสนับสนุนจากบริการให้คำปรึกษา รวมถึงบริการการฝึกอบรมและการรับรองที่ได้รับรางวัล

FORWARD-LOOKING STATEMENTS

Except for the historical information and discussions contained herein, statements contained in this press release may constitute forward-looking statements within the meaning of the Private Securities Litigation Reform Act of 1995. Forward-looking statements are based on the company’s current assumptions regarding future business and financial performance. These statements involve a number of risks, uncertainties and other factors that could cause actual results to differ materially. Any forward-looking statement in this press release speaks only as of the date on which it is made. Except as required by law, the company assumes no obligation to update or revise any forward-looking statements.

Red Hat, the Red Hat logo and OpenShift are trademarks or registered trademarks of Red Hat, Inc. or its subsidiaries in the U.S. and other countries.



[1] IDC FutureScape: Worldwide Cloud 2025 Predictions, October 28, 2024, Doc #US52640724