Red Hat AI 3 มอบศักยภาพ Distributed AI Inference เสริมแกร่งการนำ AI Workloads ไปใช้งานจริง

ข่าวประชาสัมพันธ์ »

แพลตฟอร์ม AI แบบไฮบริดคลาวด์เนทีฟของ Red Hat ช่วยเพิ่มประสิทธิภาพเวิร์กโฟลว์ AI มอบความสามารถในการอนุมานแบบใหม่ที่ทรงพลัง สร้างรากฐานให้กับ agentic AI ในวงกว้าง เสริมศักยภาพให้ทีมไอทีและวิศวกร AI สร้างสรรค์นวัตกรรมได้รวดเร็วและมีประสิทธิภาพมากขึ้น

Red Hat AI 3 มอบศักยภาพ Distributed AI Inference เสริมแกร่งการนำ AI Workloads ไปใช้งานจริง

เร้ดแฮท (Red Hat) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก ประกาศเปิดตัว Red Hat AI 3 ซึ่งเป็นก้าวสำคัญของแพลตฟอร์ม AI ระดับองค์กร ที่ผสานรวมนวัตกรรมล่าสุดของ Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) และ Red Hat OpenShift AI เข้าด้วยกัน เพื่อลดความซับซ้อนของการอนุมาน AI ประสิทธิภาพสูงในการปรับใช้ในระบบขนาดใหญ่(high-performance AI inference) ช่วยให้องค์กรต่าง ๆ สามารถนำเวิร์กโหลดที่อยู่ในขั้นตอนการทดลอง (proofs-of-concept) ไปสู่การใช้งานจริง (production) ได้ง่ายขึ้น และช่วยให้สามารถพัฒนาแอปพลิเคชันที่ใช้ AI ร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น

ในขณะที่องค์กรธุรกิจต่าง ๆ ก้าวผ่านขั้นตอนการทดลองใช้ AI องค์กรเหล่านั้นต้องเผชิญกับอุปสรรคสำคัญหลายประการ ไม่ว่าจะเป็น ความเป็นส่วนตัวของข้อมูล การควบคุมต้นทุน และการจัดการโมเดลที่หลากหลาย รายงาน "The GenAI Divide: State of AI in Business" จากโครงการ NANDA ของสถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) ย้ำให้เห็นความเป็นจริงของการนำ AI มาใช้งานจริง โดยองค์กรประมาณ 95% ไม่เห็นผลตอบแทนทางการเงินที่วัดผลได้จากการใช้จ่ายขององค์กรประมาณ 40,000 ล้านเหรียญสหรัฐฯ

Red Hat AI 3 มุ่งแก้ไขความท้าทายเหล่านี้ ด้วยการมอบประสบการณ์ที่สอดคล้องและเป็นเอกภาพมากขึ้นให้แก่ผู้บริหารฝ่ายสารสนเทศ (CIO) และผู้นำด้านไอที เพื่อให้ได้ประโยชน์สูงสุดจากการลงทุนในเทคโนโลยีการประมวลผลแบบเร่งความเร็ว (accelerated computing) แพลตฟอร์มนี้ช่วยให้ปรับขนาดและกระจาย AI workloads ไปยังสภาพแวดล้อมไฮบริดที่มีผู้ให้บริการหลายรายได้อย่างรวดเร็ว ในขณะเดียวกันก็ช่วยเพิ่มประสิทธิภาพการทำงานร่วมกันข้ามสายงานที่เกี่ยวกับ AI workloads รุ่นใหม่ ๆ เช่น agent ต่าง ๆ และทั้งหมดนี้ทำงานอยู่บนแพลตฟอร์มหลักเดียวกัน การที่ Red Hat AI 3 มีรากฐานที่สร้างขึ้นบนมาตรฐานแบบ open standards จึงสามารถตอบโจทย์ทุกขั้นตอนของเส้นทางการนำ AI มาใช้ขององค์กร สามารถรองรับโมเดลทุกประเภทที่ทำงานอยู่บน hardware accelerator ใดก็ได้ ตั้งแต่ดาต้าเซ็นเตอร์ ไปจนถึงพับลิคคลาวด์ และสภาพแวดล้อม sovereign AI หรือแม้แต่ edge ที่อยู่ห่างไกล

จาก "การเทรน" สู่ "การนำไปใช้จริง" : การเปลี่ยนผ่านสู่การอนุมาน AI ในระดับองค์กร

เมื่อองค์กรต่าง ๆ เริ่มนำโครงการ AI ต่าง ๆ ไปใช้งานจริง ความสำคัญจึงเปลี่ยนจากการเทรนและปรับแต่งโมเดลไปสู่การอนุมาน (inference) ซึ่งเป็นขั้นตอนของ "การนำไปใช้จริง" AI ในระดับองค์กร Red Hat AI 3 ให้ความสำคัญกับการอนุมานที่สามารถปรับขนาดได้และคุ้มค่าการลงทุน โดยพัฒนาต่อยอดจาก vLLM และ llm-d ซึ่งเป็น community โปรเจกต์ที่ประสบความสำเร็จสูง ควบคู่ไปกับศักยภาพในการเพิ่มประสิทธิภาพโมเดลของ Red Hat เพื่อให้บริการโมเดลภาษาขนาดใหญ่ (LLMs) ในระดับที่พร้อมใช้งานจริง

Red Hat OpenShift AI 3.0 เปิดให้ใช้ llm-d ซึ่งเป็นเวอร์ชันพร้อมใช้งานทั่วไปที่พลิกโฉมวิธีการทำงานของ LLM บน Kubernetes โดยเฉพาะ เพื่อช่วยให้ผู้บริหารฝ่ายสารสนเทศใช้งานการเร่งความเร็วด้วยฮาร์ดแวร์ที่มีมูลค่าสูงได้อย่างเต็มประสิทธิภาพ llm-d ช่วยให้เกิดการอนุมานแบบกระจายอัจฉริยะ (intelligent distributed inference) โดยใช้คุณประโยชน์จากระบบการผสานการทำงานของ Kubernetes และประสิทธิภาพของ vLLM ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ผสมผสานกับเทคโนโลยีโอเพ่นซอร์สสำคัญอื่น ๆ เช่น Kubernetes Gateway API Inference Extension, NVIDIA Dynamo (NIXL) KV Transfer Library, และ DeepEP Mixture of Experts (MoE) communication library, ซึ่งช่วยให้องค์กรสามารถ

  • ลดต้นทุนและปรับปรุงเวลาในการตอบสนอง ด้วยระบบจัดตารางรันโมเดลแบบ Inference-aware ที่ชาญฉลาด พร้อมระบบให้บริการแบบแยกส่วน (disaggregated serving)
  • มอบความเรียบง่ายในการดำเนินงานและความน่าเชื่อถือสูงสุด ด้วยแนวทางที่ชัดเจนและมีมาตรฐาน (Well-lit Paths) ที่ช่วยปรับปรุงขั้นตอนการนำโมเดลไปใช้งานบน Kubernetes ได้อย่างเต็มรูปแบบ
  • เพิ่มความยืดหยุ่นสูงสุด ด้วยการรองรับการทำงานข้ามแพลตฟอร์ม (cross-platform support) เพื่อปรับใช้การอนุมาน LLM (LLM inference) กับ hardware accelerators ที่หลากหลาย รวมถึง NVIDIA และ AMD

llm-d สร้างบนพื้นฐานของ vLLM โดยพัฒนาจากเอ็นจิ้นการอนุมานที่มีประสิทธิภาพสูงเริ่มตั้งแต่แบบโหนดเดียว (single-node) ไปจนถึงระบบการให้บริการแบบกระจายศูนย์ (distributed) มีความเสถียร และปรับขนาดได้ ระบบนี้ได้รับการผสานการทำงานกับ Kubernetes อย่างมั่นคง เพื่อมอบประสิทธิภาพที่คาดการณ์ได้ วัดผลตอบแทนจากการลงทุนได้ และการวางแผนโครงสร้างพื้นฐานที่มีประสิทธิภาพ การเพิ่มประสิทธิภาพทั้งหมดนี้ตอบโจทย์การจัดการ LLM workloads ที่มีความผันผวนสูง และการให้บริการโมเดลขนาดใหญ่ เช่น โมเดล Mixture-of-Experts (MoE)

แพลตฟอร์มแบบรวมศูนย์เพื่อการทำงานด้าน AI ร่วมกัน

Red Hat AI 3 มอบประสบการณ์ที่ครบวงจรและยืดหยุ่น ตอบโจทย์ความต้องการด้านการทำงานร่วมกันในการพัฒนาโซลูชัน Generative AI ที่พร้อมใช้งานจริง แพลตฟอร์มนี้ถูกออกแบบมาให้ช่วยส่งเสริมการร่วมมือและการเชื่อมโยงเวิร์กโฟลว์ของทุกทีมไว้ด้วยกันบนแพลตฟอร์มเดียว เพื่อให้วิศวกรแพลตฟอร์ม และวิศวกร AI ขับเคลื่อนกลยุทธ์ด้าน AI อย่างมีประสิทธิภาพ ความสามารถใหม่ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความคล่องตัวในการขยายจากขั้นตอนทดลองแนวคิด (Proof-of-Concept) ไปสู่การใช้งานจริงในระดับองค์กร (Production) ประกอบด้วยความสามารถต่าง ๆ ดังนี้

  • Model as a Service (MaaS) ต่อยอดจากเทคโนโลยี distributed inference เพื่อให้องค์กรสามารถเป็นผู้ให้บริการโมเดลของตนเองได้ (self-managed MaaS) โดยให้ทีม IT สามารถให้บริการ โมเดลกลาง (shared models) แก่ทีมพัฒนา AI และแอปพลิเคชันต่าง ๆ ได้แบบ on-demand ผ่านโครงสร้างพื้นฐานภายในองค์กร แนวทางนี้ช่วย บริหารต้นทุนได้ดียิ่งขึ้น และรองรับกรณีการใช้งานที่ ไม่สามารถใช้บริการ AI สาธารณะได้ เนื่องจากข้อจำกัดด้าน ความเป็นส่วนตัวและความปลอดภัยของข้อมูล
  • AI hub ช่วยให้วิศวกรแพลตฟอร์มสามารถสำรวจ ติดตั้งใช้งาน และจัดการสินทรัพย์ AI พื้นฐานได้ โดยมีศูนย์กลางที่รวบรวมแคตตาล็อกโมเดลต่าง ๆ ที่คัดสรรให้เลือกใช้ภายในองค์กรซึ่งรวมถึงโมเดล Gen AI ที่ผ่านการปรับแต่งอย่างเหมาะสม, ระบบ Registry เพื่อจัดการไลฟ์ไซเคิลของโมเดล และสภาพแวดล้อมสำหรับการติดตั้งและติดตาม เพื่อกำหนดค่าและตรวจสอบสินทรัพย์ AI ทั้งหมดที่ทำงานอยู่บน OpenShift AI
  • Gen AI studio มอบสภาพแวดล้อมที่ให้วิศวกร AI ได้ลงมือปฏิบัติจริงในการโต้ตอบกับโมเดลและสร้างต้นแบบแอปพลิเคชัน Gen AI ใหม่ได้อย่างรวดเร็ว วิศวกรสามารถค้นพบและเรียกใช้งานโมเดลและเซิฟเวอร์ MCP ที่มีอยู่ได้ง่ายขึ้นด้วยคุณสมบัติ AI assets endpoint ซึ่งช่วยให้การเชื่อมต่อระหว่างโมเดลกับเครื่องมือภายนอกระบบเป็นไปอย่างราบรื่น อีกทั้งยังมี playground ในตัวที่เป็นสภาพแวดล้อมเชิงโต้ตอบแบบไร้สถานะ (stateless) เพื่อทดลองโมเดล ทดสอบคำสั่ง (prompts) และปรับแต่งพารามิเตอร์ให้เหมาะสมกับกรณีใช้งาน เช่น chat และการสร้างคำตอบจากข้อมูลที่ดึงมา (Retrieval-Augmented Generation: RAG)
  • การพัฒนาทำได้ง่ายขึ้นด้วยโมเดลใหม่ที่ได้รับการตรวจสอบและปรับแต่งจาก Red Hat โดยมีการคัดสรรโมเดลโอเพ่นซอร์สยอดนิยม เช่น gpt-oss ของ OpenAI, DeepSeek-R1 และโมเดลเฉพาะทาง เช่น Whisper สำหรับการแปลงเสียงเป็นข้อความ (speech-to-text) และ Voxtral Mini สำหรับ agents ที่สั่งงานด้วยเสียง (voice-enabled agents)

สร้างรากฐานให้กับ AI agents รุ่นต่อไป

AI agents กำลังจะพลิกโฉมวิธีการสร้างแอปพลิเคชัน และเวิร์กโฟลว์ที่อิสระและซับซ้อนจะสร้างความต้องการสูงต่อความสามารถในการอนุมาน Red Hat OpenShift AI 3.0 วางรากฐานสำหรับระบบ agentic AI ที่สามารถขยายขนาดได้อย่างต่อเนื่อง ซึ่งไม่เพียงแต่ยกระดับความสามารถการอนุมานเท่านั้น แต่ยังมาพร้อมคุณสมบัติและการปรับปรุงใหม่ ๆ ที่เน้นไปที่การจัดการ agent

Red Hat นำเสนอ Unified API layer (เลเยอร์ API แบบรวมศูนย์ ) ที่พัฒนาบน Llama Stack เพื่อเร่งกระบวนการสร้างและปรับใช้ agent ซึ่งช่วยให้การพัฒนาสอดคล้องกับมาตรฐานอุตสาหกรรมต่าง ๆ เช่น โปรโตคอลอินเทอร์เฟซ LLM ที่รองรับกับ OpenAI นอกจากนี้เพื่อส่งเสริมระบบนิเวศที่เปิดกว้างและทำงานร่วมกันได้อย่างยืดหยุ่น Red Hat ยังเป็นหนึ่งในผู้บุกเบิกการใช้งาน Model Context Protocal (MCP) ซึ่งเป็นมาตรฐานใหม่ที่ทรงพลังและกำลังเป็นที่ยอมรับ ช่วยให้การให้การสื่อสารระหว่างโมเดล AI และเครื่องมือภายนอกเป็นไปอย่างมีประสิทธิภาพ ซึ่งเป็นคุณสมบัติพื้นฐานสำหรับ AI agents ที่ทันสมัย

Red Hat AI 3 ยังแนะนำชุดเครื่องมือใหม่สำหรับการปรับแต่งโมเดล ที่ออกแบบให้มีลักษณะเป็นโมดูลาร์และสามารถขยายต่อได้ (modular and extensible toolkit) พัฒนาต่อยอดจากความสามารถของ InstructLab ที่มีอยู่เดิม มาพร้อมไลบราลี Python เฉพาะทางที่ช่วยให้นักพัฒนาสามารถควบคุมและปรับแต่งการทำงานของโมเดลได้อย่างยืดหยุ่นมากขึ้น ชุดเครื่องมือนี้ขับเคลื่อนด้วยโปรเจกต์โอเพ่นซอร์ส เช่น Docling สำหรับการประมวลผลข้อมูล ซึ่งช่วยแปลงและจัดการเอกสารแบบไม่มีโครงสร้าง (unstructured documents) ให้อยู่ในรูปแบบที่ AI สามารถอ่านและประมวลผลได้อย่างคล่องตัว นอกจากนี้ยังมีเฟรมเวิร์กที่ยืดหยุ่นสำหรับการสร้างช้อมูลสังเคราะห์ และ training hub สำหรับการปรับแต่ง LLM (fine-tuning) นอกจากนี้ยังมีการรวม evaluation hub เข้ามาในระบบ เพื่อช่วยให้วิศวกร AI สามารถติดตามและตรวจสอบความถูกต้องของผลลัพธ์ได้อย่างมีประสิทธิภาพ ทำให้สามารถใช้ข้อมูลกรรมสิทธิ์ (proprietary data) ของตนเองได้อย่างมั่นใจ เพื่อให้ได้ผลลัพธ์ AI ที่แม่นยำและตรงความต้องการมากขึ้น


ข่าวRed Hat Enterprise Linux+ไฮบริดคลาวด์วันนี้

Red Hat เปิดตัว Red Hat Enterprise Linux 10 อัดแน่นไปด้วยระบบอัจฉริยะและความปลอดภัยที่เหนือชั้น รองรับทุกสภาพแวดล้อมไฮบริด

เป็นรากฐานที่แข็งแกร่งให้กับนวัตกรรมด้านไอที ช่วยเสริมการดำเนินงานบนไฮบริดคลาวด์ให้ชาญฉลาดมากขึ้นด้วยการใช้ AI เป็นพลังขับเคลื่อนการบริหารจัดการ Linux เพิ่มฟีเจอร์ด้านความปลอดภัยเพื่อช่วยบรรเทาภัยคุกคามจากควอนตัมคอมพิวติ้ง บริหารจัดการระบบปฏิบัติการในรูปแบบเดียวกับคอนเทนเนอร์ มาพร้อมความสามารถใหม่ของ Red Hat Insights ที่ช่วยให้มีข้อมูลประกอบการตัดสินใจมากขึ้นตั้งแต่เริ่มสร้างแอปพลิเคชันหรือโซลูชัน เสริมศักยภาพให้นักพัฒนาซอฟต์แวร์รุ่นต่อไป ด้วยการสนับสนุนและรองรับสถาปัตยกรรมเกิดใหม่

พอร์ตโฟลิโอ AI ช่วยเพิ่มประสิทธิภาพให้กับ... เร้ดแฮท ชู Red Hat AI เสริมศักยภาพการใช้ AI ขององค์กรบนไฮบริดคลาวด์ — พอร์ตโฟลิโอ AI ช่วยเพิ่มประสิทธิภาพให้กับ Red Hat OpenShift AI และ Red Hat Enterpris...

RHEL AI ผสานโมเดลแบบโอเพ่นที่ทรงประสิทธิภ... วางตลาด Red Hat Enterprise Linux AI นวัตกรรม AI พร้อมใช้งานในองค์กร — RHEL AI ผสานโมเดลแบบโอเพ่นที่ทรงประสิทธิภาพกับเครื่องมือการจัดตำแหน่งโมเดล เพื่อนำนว...

SAP เสริมศักยภาพแลนด์สเคปด้านไอทีภายในองค... SAP และ Red Hat กระชับความร่วมมือ เสริมประสิทธิภาพ SAP(R) Software Workloads ด้วย Red Hat Enterprise Linux — SAP เสริมศักยภาพแลนด์สเคปด้านไอทีภายในองค์กร ...

เรดแฮทเปิดตัว Red Hat Enterprise Linux 7 นิยามใหม่ของระบบปฏิบัติการสำหรับองค์กร

เรดแฮท อิงค์ (NYSE: RHT) ผู้ให้บริการโซลูชันโอเพ่นซอร์สชั้นนำของโลก เปิดตัว Red Hat Enterprise Linux 7 ทั้งนี้ Red Hat Enterprise Linux 7 นับเป็นแพลตฟอร์มสำคัญล่าสุดของบริษัทฯ ที่ไม่เพียงช่วยวางรากฐานสำหรับระบบ...

เรดแฮท เปิดตัวผลิตภัณฑ์ที่ขับเคลื่อนโดย OpenStack สู่วิสัยทัศน์ไฮบริดคลาวด์ระบบเปิด

โซลูชั่นใหม่ในตระกูล Red Hat Enterprise Linux นี้เปิดตัวพร้อมข้อเสนอใหม่ที่ให้ลูกค้าสามารถดำเนินการเคลื่อนย้ายการทำงานจากศูนย์ข้อมูลแบบเวอร์ช่วลไลเซชั่น (Datacenter Virtualization) ไปยังบริการด้าน...

AI portfolio adds enhancements to Red Hat... Red Hat Boosts Enterprise AI Across the Hybrid Cloud with Red Hat AI — AI portfolio adds enhancements to Red Hat OpenShift AI and Red Hat Enterprise Linux...

RHEL AI combines open, more efficient mod... Red Hat Enterprise Linux AI Now Generally Available for Enterprise AI Innovation in Production — RHEL AI combines open, more efficient models with accessi...