Red Hat AI ทำงานร่วมกับ Trainium และ Inferentia ซึ่งเป็น AI chips ของ AWS มอบทางเลือก ความยืดหยุ่น และประสิทธิภาพที่เหนือกว่า ให้กับเวิร์กโหลด AI ที่นำไปใช้งานจริง
เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศขยายความร่วมมือกับ Amazon Web Services (AWS) เพื่อขับเคลื่อน Generative AI (Gen AI) ระดับองค์กรบน AWS ด้วย Red Hat AI และชิป AWS AI ความร่วมมือนี้มุ่งเน้นการเพิ่มศักยภาพให้ผู้บริหารด้านไอทีสามารถทำงานแบบ AI inference ที่มีประสิทธิภาพสูงและคุ้มค่าบนสเกลใหญ่ได้อย่างยืดหยุ่น โดยไม่ต้องพึ่งพาฮาร์ดแวร์
การเติบโตของ gen AI และความต้องการเรื่องของการอนุมานที่ปรับขนาดได้ตามการใช้งานจริง (scalable inference) กำลังผลักดันให้องค์กรต่างๆ ต้องประเมินโครงสร้างพื้นฐานไอทีของตนใหม่อีกครั้ง ทั้งนี้ IDC ได้คาดการณ์ว่า "ภายในปี พ.ศ. 2570 องค์กร 40% จะหันมาใช้ชิปที่ออกแบบมาเฉพาะทาง รวมถึงโปรเซสเซอร์ ARM หรือชิปที่สร้างขึ้นเฉพาะสำหรับ AI/ML เพื่อตอบสนองต่อความต้องการด้านการเพิ่มประสิทธิภาพ ความคุ้มค่า และการประมวลผลเฉพาะทาง ที่มีความต้องการเพิ่มมากขึ้น”[1] นับเป็นการชี้ให้เห็นถึงความจำเป็นของโซลูชันที่ได้รับการปรับแต่งอย่างเหมาะสม ซึ่งสามารถเพิ่มพลังการประมวลผล ลดต้นทุน และช่วยให้ไลฟ์ไซเคิลของการสร้างนวัตกรรมสำหรับแอปพลิเคชัน AI ประสิทธิภาพสูงทำได้รวดเร็วขึ้น
ความร่วมมือของ Red Hat กับ
AWS ช่วยเสริมศักยภาพให้องค์กรสามารถวางกลยุทธ์ gen
AI ได้แบบ full-stack โดยการผสานรวมความสามารถด้านแพลตฟอร์มที่ครอบคลุมของ
Red Hat เข้ากับโครงสร้างพื้นฐานคลาวด์และ AI
chipsets ของ AWS ได้แก่ AWS
Inferentia2 และ AWS Trainium3 ประเด็นสำคัญของความร่วมมือนี้ประกอบด้วย:
Red Hat มีประวัติความร่วมมืออันยาวนานกับ AWS เพื่อช่วยเสริมศักยภาพลูกค้า ตั้งแต่ดาต้าเซ็นเตอร์ไปจนถึงเอดจ์
ความร่วมมือล่าสุดนี้มีเป้าหมายเพื่อตอบสนองความต้องการที่เปลี่ยนแปลงไปขององค์กรที่กำลังผสาน
AI เข้ากับกลยุทธ์ไฮบริดคลาวด์ เพื่อให้ได้ผลลัพธ์ด้าน gen
AI ที่เหมาะสมและมีประสิทธิภาพสูงสุด
ความพร้อมใช้งาน
AWS Neuron community operator พร้อมให้ใช้งานแล้วบน Red Hat OpenShift OperatorHub สำหรับลูกค้าที่ใช้งาน Red Hat OpenShift หรือ Red Hat OpenShift Service on AWS ส่วน Red Hat AI Inference Server ที่รองรับ AI chips ของ AWS ดาดว่าจะเปิดใช้งานในเวอร์ชัน developer preview ในเดือนมกราคม พ.ศ. 2569
คำกล่าวสนับสนุน
Joe Fernandes, vice
president and general manager, AI Business Unit, Red Hat
“เรากำลังเสริมศักยภาพองค์กรให้สามารถปรับใช้และขยายเวิร์กโหลดด้าน
AI ได้อย่างมีประสิทธิภาพและยืดหยุ่นมากยิ่งขึ้น ด้วยการทำให้ Red Hat
AI Inference Server ระดับองค์กรของเรา ซึ่งพัฒนาบนเฟรมเวิร์ก vLLM
ที่ล้ำสมัย สามารถทำงานร่วมกับ AI chips ของ AWS
ได้ ความร่วมมือนี้ต่อยอดจากรากฐานด้านโอเพ่นซอร์สของ Red
Hat โดยมีเป้าหมายเพื่อทำให้สามารถเข้าถึง generative AI ได้ง่ายและคุ้มค่ามากขึ้นในสภาพแวดล้อมไฮบริดคลาวด์”
Colin Brace, vice
president, Annapurna Labs, AWS
“องค์กรต่างต้องการโซลูชันที่มีประสิทธิภาพที่เหนือชั้น คุ้มค่าการลงทุน และมีตัวเลือกที่เหมาะสมในการดำเนินงานเพื่อใช้กับเวิร์กโหลด AI ที่มีความสำคัญต่อภารกิจหลัก AWS ได้ออกแบบชิป Trainium และ Inferentia เพื่อทำให้การอนุมานและการเทรน AI มีประสิทธิภาพสูง เข้าถึงได้ง่ายขึ้น และคุ้มค่ามากขึ้น ความร่วมมือของเรากับ Red Hat ช่วยให้ลูกค้ามีแนวทางที่ได้รับการสนับสนุนในการปรับใช้ generative AI ในระดับองค์กร โดยผสานความยืดหยุ่นของโอเพนซอร์สเข้ากับโครงสร้างพื้นฐานของ AWS และตัวเร่งความเร็ว AI ที่ออกแบบมาโดยเฉพาะ เพื่อเร่งเวลาในการสร้างมูลค่าจากระยะทดลองไปสู่การใช้งานจริง”
Jean-François Gamache,
chief information officer and vice president, Digital Services, CAE
“การปรับปรุงแอปพลิเคชันสำคัญให้ทันสมัยด้วย Red Hat OpenShift Service on AWS ถือเป็นก้าวสำคัญในการทรานส์ฟอร์มด้านดิจิทัลขององค์กร แพลตฟอร์มนี้ช่วยให้นักพัฒนาสามารถมุ่งเน้นไปที่โครงการที่มีมูลค่าสูง ทั้งการขับเคลื่อนนวัตกรรมผลิตภัณฑ์และเร่งการบูรณาการ AI เข้ากับโซลูชัน ต่างๆ ของเรา Red Hat OpenShift มอบความยืดหยุ่นและความสามารถในการปรับขนาดที่ช่วยให้สร้างผลลัพธ์ที่จับต้องได้จริง ตั้งแต่การมอบข้อมูลเชิงลึกที่นำไปใช้งานได้จริงผ่านระบบการโค้ชเสมือนจริงแบบเรียลไทม์ (live virtual coaching) ไปจนถึงการลดระยะเวลาในการแก้ไขปัญหาที่ผู้ใช้รายงานเข้ามาได้อย่างมีนัยสำคัญ”
Anurag Agrawal,
founder and chief global analyst, Techaisle
“ในขณะที่ต้นทุนการทำ AI inference เพิ่มสูงขึ้น องค์กรต่างให้ความสำคัญกับประสิทธิภาพควบคู่ไปกับสมรรถนะ ความร่วมมือนี้สะท้อนกลยุทธ์ ‘any model, any hardware’ ของ Red Hat โดยการบูรณาการแพลตฟอร์มโอเพ่นไฮบริดคลาวด์เข้ากับข้อได้เปรียบด้านความคุ้มค่าที่โดดเด่นของ AWS Trainium และ Inferentia ซึ่งช่วยให้ CIO สามารถนำ generative AI ไปใช้งานจริงในระดับองค์กร เปลี่ยนจากการทดลองที่มีต้นทุนสูงไปสู่การใช้งานจริงที่ยั่งยืนและมีการกำกับดูแล”
แหล่งข้อมูลเพิ่มเติม
ช่องทางการติดต่อกับเร้ดแฮท
เกี่ยวกับเร้ดแฮท
เร้ดแฮท คือผู้นำด้านเทคโนโลยีโอเพ่นไฮบริดคลาวด์ นำเสนอโครงสร้างพื้นฐานที่เชื่อถือได้ สอดคล้อง และครอบคลุม เพื่อรองรับการเปลี่ยนแปลงทางนวัตกรรมด้านไอที และแอปพลิเคชัน AI กลุ่มผลิตภัณฑ์ด้านคลาวด์, ผลิตภัณฑ์สำหรับนักพัฒนาซอฟต์แวร์, AI, Linux, ระบบอัตโนมัติ และแอปพลิเคชันแพลตฟอร์มของบริษัทฯ ช่วยให้สามารถใช้งานแอปพลิเคชันใด ๆ ก็ได้ในทุกที่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ ไปจนถึง edge ในฐานะผู้ให้บริการชั้นนำระดับโลกด้านโซลูชันซอฟต์แวร์โอเพ่นซอร์สสำหรับองค์กร เร้ดแฮทลงทุนด้านระบบนิเวศและชุมชนแบบเปิด เพื่อแก้ไขความท้าทายด้านไอทีที่จะเกิดขึ้นในอนาคต เร้ดแฮทร่วมมือกับพันธมิตรและลูกค้า เพื่อสร้าง เชื่อมต่อ ทำให้เป็นอัตโนมัติ รักษาความปลอดภัย และจัดการสภาพแวดล้อมไอทีให้กับลูกค้าและพันธมิตร โดยได้รับการสนับสนุนจากบริการให้คำปรึกษา รวมถึงบริการการฝึกอบรมและการรับรองที่ได้รับรางวัล
FORWARD-LOOKING STATEMENTS
Except for the
historical information and discussions contained herein, statements contained
in this press release may constitute forward-looking statements within the
meaning of the Private Securities Litigation Reform Act of 1995.
Forward-looking statements are based on the company’s current assumptions
regarding future business and financial performance. These statements involve a
number of risks, uncertainties and other factors that could cause actual
results to differ materially. Any forward-looking statement in this press
release speaks only as of the date on which it is made. Except as required by
law, the company assumes no obligation to update or revise any forward-looking
statements.
Red Hat, the Red Hat logo and OpenShift are trademarks or registered trademarks
of Red Hat, Inc. or its subsidiaries in the U.S. and other countries.