Tento článok je tlačová správa a je publikovaný bez redakčných úprav.

  • Platforma Red Hat Enterprise Linux AI kombinuje otevřené, efektivnější modely s dostupným přizpůsobením modelů, čímž rozšiřuje možnosti inovací AI v hybridním cloudu
  • RHEL AI se stává preferovanou platformou pro nasazení AI na serverech Dell PowerEdge, ty budou jako první ověřeny pro Red Hat Enterprise Linux AI a pomohou zákazníkům plynuleji vyvíjet, testovat a provozovat velké jazykové modely (LLM) pro podnikové aplikace

Red Hat, Inc., přední světový poskytovatel řešení založených na open source technologiích, oznámil všeobecnou dostupnost systému Red Hat Enterprise Linux (RHEL) AI v hybridním cloudu. RHEL AI je základní platforma společnosti Red Hat, která umožňuje uživatelům snadno vyvíjet, testovat a provozovat modely generativní AI pro podnikové aplikace. Platforma spojuje rodinu velkých jazykových modelů (LLM) Granite s open source licencí s nástroji na přizpůsobení v modelu InstructLab, založeném na metodice Large-scale Alignment for chatBots (LAB). To vše je vloženo do optimalizovaného bootovacího obrazu RHEL pro snadné nasazení jednotlivých serverů v hybridním cloudu.

Přestože je generativní AI obrovským příslibem, náklady spojené s pořízením, tréninkem a vyladěním LLM mohou být astronomické. Trénování některých špičkových modelů před jejich uvedením do provozu může stát až 200 milionů dolarů. To nezahrnuje náklady na přizpůsobení specifickým požadavkům nebo datům dané organizace, což obvykle vyžaduje datové vědce nebo vysoce specializované vývojáře. Bez ohledu na model vybraný pro danou aplikaci je stále nutné jeho přizpůsobení specifickým firemním datům a procesům. Proto je pro AI ve skutečných produkčních prostředích zcela klíčová efektivita a agilita.

Red Hat věří, že v příštím desetiletí budou menší, efektivnější a pro daný účel vytvořené modely umělé inteligence tvořit spolu s nativně cloudovými aplikacemi podstatnou část architektury podnikového IT. Aby toho však bylo možné dosáhnout, musí být generativní AI dostupnější a přístupnější, a to od jejích nákladů, přes přispěvatele až po to, kde může běžet v rámci hybridního cloudu. Open source komunity již po desetiletí pomáhají řešit podobné výzvy u složitých softwarových problémů prostřednictvím příspěvků od různých skupin uživatelů. Podobný přístup může nyní snížit překážky také pro efektivní zavádění generativní AI.

Open source přístup ke generativní AI

Právě tyto výzvy RHEL AI řeší – zpřístupňuje generativní umělou inteligenci ředitelům IT a podnikovým IT organizacím v rámci hybridního cloudu, a zvyšuje její efektivitu a flexibilitu. RHEL AI pomáhá:

  • posilovat inovace v oblasti generativní AI pomocí podnikových open source modelů Granite a v souladu s širokou škálou možností použití generativní AI,
  • zjednodušit přizpůsobení modelů generativní AI požadavkům podniků pomocí nástrojů InstructLab, které umožňují odborníkům na danou oblast a vývojářům v rámci organizace přispívat do svých modelů jedinečnými dovednostmi a znalostmi i bez rozsáhlých schopností v oblasti datové vědy,
  • trénovat a nasazovat generativní AI kdekoli v hybridním cloudu poskytnutím všech nástrojů potřebných k vyladění a nasazení modelů pro produkční servery bez ohledu na to, kde se nacházejí související data. RHEL AI také poskytuje připravenou návaznost na Red Hat OpenShift AI pro trénování, ladění a obsluhu těchto modelů ve velkém měřítku při použití stejných nástrojů a konceptů.

RHEL AI využívá i výhody předplatného od společnosti Red Hat, které zahrnuje důvěryhodnou distribuci podnikových produktů, nepřetržitou podporu pro produkci, prodlouženou podporu životního cyklu modelu a právní ochranu Open Source Assurance.

RHEL AI se rozšiřuje do hybridního cloudu

Přiblížení konzistentnější platformy základního modelu k místu, kde se nacházejí data organizace, je pro podporu strategií AI v produkci klíčové. Jako rozšíření portfolia společnosti Red Hat pro hybridní cloud bude RHEL AI pokrývat téměř všechna myslitelná podniková prostředí, od lokálních datových center přes okraje sítí až po veřejný cloud. To znamená, že RHEL AI bude k dispozici přímo od společnosti Red Hat i od jejích partnerů mezi OEM výrobci a bude možné jej provozovat u největších světových poskytovatelů cloudových služeb, včetně Amazon Web Services (AWS), Google Cloud, IBM Cloud a Microsoft Azure. Vývojáři a IT organizace tak mohou využívat výkon výpočetních zdrojů poskytovatelů hyperškálovatelných cloudových služeb k vytváření inovativních konceptů umělé inteligence pomocí RHEL AI.

Dostupnost

RHEL AI je všeobecně k dispozici prostřednictvím zákaznického portálu Red Hat pro on-premise provoz nebo pro nahrání do AWS a IBM Cloud formou „bring your own subscription“ (BYOS). Dostupnost nabídky BYOS pro Azure a Google Cloud je plánována na 4. čtvrtletí roku 2024 a očekává se, že RHEL AI bude v roce 2025 dostupný také jako služba v rámci IBM Cloud.
Red Hat plánuje v nadcházejících měsících dále rozšířit portfolio RHEL AI pro cloud a OEM partnery, čímž poskytne ještě větší výběr v prostředích hybridního cloudu.

„Aby byly aplikace gen AI v podnicích skutečně úspěšné, je třeba je zpřístupnit širšímu okruhu organizací a uživatelů a lépe je aplikovat na konkrétní možnosti použití. RHEL AI poskytuje odborníkům z jednotlivých domén, tedy nejen datovým vědcům, možnost přispívat k účelově vytvořenému modelu gen AI v hybridním cloudu a zároveň umožňuje IT organizacím škálovat tyto modely pro produkci prostřednictvím Red Hat OpenShift AI,“ řekl Joe Fernandes, viceprezident a generální ředitel pro Foundation Model Platforms ve společnosti Red Hat.

„Společnost IBM se zavázala pomáhat podnikům vytvářet a nasazovat efektivní modely umělé inteligence a rychle je škálovat. RHEL AI na IBM Cloud přináší open source inovace do popředí nasazování gen AI, a umožní tak více organizacím a jednotlivcům získat přístup k AI, škálovat ji a využívat její sílu. S RHEL AI spojujeme sílu InstructLab a rodiny modelů Granite od IBM a vytváříme modely umělé inteligence, které klientům pomohou dosáhnout skutečného obchodního dopadu napříč všemi oblastmi podniku,“ řekla Hillery Hunter, technická ředitelka a generální ředitelka pro inovace IBM Infrastructure.

„Výhody podnikové AI jsou spojeny s obrovským rozsahem modelů umělé inteligence a s neodmyslitelnou složitostí výběru, ladění a údržby vlastních modelů. Díky menším, k danému účelu sestaveným a šířeji přístupným modelům mohou být strategie AI dosažitelnější pro mnohem širší okruh uživatelů a organizací, což je oblast, na kterou se Red Hat zaměřuje s RHEL AI jako základní platformou,“ řekl Jim Mercer, programový viceprezident pro vývoj softwaru, DevOps a DevSecOps, IDC.

RHEL AI na serverech Dell PowerEdge

Společnosti Dell Technologies a Red Hat zavádí RHEL AI jako preferovanou platformu na servery Dell PowerEdge R760xa. Tato spolupráce pomůže organizacím snadněji zavádět úspěšné strategie umělé inteligence a strojového učení (AI/ML) pro škálování jejich systémů IT a provoz podnikových aplikací. Dell a Red Hat poskytují konzistentnější zkušenosti s AI na optimalizovaných hardwarových řešeních s podporou AI, a to vše na důvěryhodné platformě RHEL AI a Dell PowerEdge. Cílem této iniciativy je zjednodušit uživatelům práci s AI prostřednictvím průběžného testování a ověřování hardwarových řešení, včetně výpočtů akcelerovaných procesory NVIDIA, s RHEL AI.

„Umělá inteligence ze své podstaty vyžaduje rozsáhlé zdroje, zahrnující servery, výpočetní výkon a grafické procesory. Jak organizace vyhodnocují a implementují možnosti použití gen AI, je nezbytné, aby stavěly na platformě, která je schopna škálování a zároveň poskytuje agilitu pro experimentování a vývoj inovací založených na AI. Díky spolupráci s Dell Technologies na ověření a provozu RHEL AI na serverech Dell PowerEdge umožňujeme zákazníkům s větší jistotou a flexibilitou využívat výkon úloh gen AI v prostředích hybridního cloudu a posouvat jejich podnikání do budoucnosti,“ řekl Joe Fernandes, viceprezident a generální ředitel pro Foundation Model Platforms ve společnosti Red Hat.

„Ověření RHEL AI pro úlohy umělé inteligence na serverech Dell PowerEdge poskytuje zákazníkům větší jistotu, že jsou servery, GPU a základní platformy průběžně testovány a ověřovány. To zjednodušuje nasazení gen AI a urychluje proces vytváření a nasazování kriticky důležitých úloh AI na důvěryhodné softwarové architektuře,“ dodal Arun Narayanan, senior viceprezident společnosti Dell Technologies.

„Na dnešním rychle se rozvíjejícím trhu je pro organizace velmi důležité, aby byly vybaveny ověřenými a důvěryhodnými řešeními pro AI, která jim umožní nastartovat využívání gen AI. Red Hat a Dell rozšíří možnosti gen AI pro zákazníky, s optimalizovaným prostředím pro výpočty akcelerované procesory NVIDIA, včetně NVIDIA H100 Tensor Core GPU, se servery Dell PowerEdge a RHEL AI,“ uzavřel Bob Pette, viceprezident pro podnikové platformy, NVIDIA.

Značky: