新着情報

ニュース
Liqid

Liqid社、次世代コンポーザブル・インフラ製品発表 – PCIe Gen5 & CXL

新着記事内容:
Liqid、オンプレミスのデータセンターおよびエッジ環境におけるエンタープライズAIの拡張に向けた次世代コンポーザブル・インフラソリューションを発表
(以下はLiqid社のプレスリリースの当社抄訳です。発表製品は当社ホームページにも順次掲載予定です。)
https://www.businesswire.com/news/home/20250715123138/en/Liqid-Unveils-Next-Generation-Composable-Infrastructure-Solutions-to-Scale-Enterprise-AI-for-On-Premises-Datacenter-and-Edge-Environments?utm_campaign=shareaholic&utm_medium=copy_link&utm_source=bookmark

革新的なソリューションにより、AI推論やその他の高電力・高計算負荷なワークロードを支えるために、高性能で柔軟かつ効率的なGPU、メモリ、ストレージのスケールアップおよびスケールアウトを実現

(2025年7月15日 コロラド州ウェストミンスター発)Liqid(www.liqid.com)は、オンプレミスのデータセンターおよびエッジ環境向けのソフトウェア定義型コンポーザブル・インフラストラクチャ分野で世界をリードする企業として、エンタープライズAIワークロードに必要なスケールアップ/スケールアウト要件に対し、他に類を見ない性能と柔軟性を実現しつつ、インフラの未使用リソースに起因する無駄なコストや電力・冷却要件を最小化するために設計された新たなポートフォリオの追加を発表しました。

<1ワットあたり2倍のトークン処理量、1ドルあたり50%の処理性能向上>
AIが戦略的ビジネスツールとなる中、Liqidのソフトウェア定義型コンポーザブル・インフラは、企業に明確な優位性をもたらします。Liqidは、スケールアップとスケールアウトをきめ細かく、かつシームレスに実現する独自の技術により、AIにおける新たな評価指標「ワットあたりのトークン処理量」と「ドルあたりのトークン処理量」の最適化を可能にします。システムの非効率を排除し、必要に応じて動的にリソースを割り当てることで、スループットを向上させつつ消費電力を最大2倍削減し、AIインフラへの投資収益率を最大化します。

<エンタープライズAIと高負荷アプリケーションに対応する製品群>
以下の新製品が、VDI、HPC、レンダリングなどの高負荷なアプリケーションを含むAIイニシアティブの最大化を支援します:

Liqid Matrix® 3.6:GPU、メモリ、ストレージのコンポーザブルリソースをリアルタイムで一元管理する強力なソフトウェア。多様かつ動的なワークロードに対応し、100%かつバランスの取れたリソース利用を実現。

新PCIe Gen5対応 10スロットGPU拡張シャーシ 「Liqid EX-5410P」:600WクラスのGPUやFPGA、NVMeドライブなどをサポート。超低遅延・高帯域なPCIe Gen5ファブリックで、Liqid Matrix、専用スイッチ、HBAと統合。コスト効率を最大化する柔軟なGPUコンポーザビリティを提供。

次世代コンポーザブル・CXLメモリソリューション「Liqid EX-5410C」:CXL 2.0規格に基づき、LLMやインメモリデータベースなどのメモリ要求の高いアプリケーションをサポート。CXLスイッチ、HBA、Liqid Matrixと統合されたCXL 2.0ファブリックにより、メモリの動的割り当てを実現。

PCIe Gen5対応 AIC型NVMe SSD 「Liqid LQD-5500」:最大128TBの容量、50GB/sの帯域、600万IOPS超を誇るGen5 IOA対応のNVMeキャッシュストレージ。リアルタイム分析、AI、HPCに最適。

 

<CEOコメント>
「生成AIがオンプレミスに移行し、推論・思考・エージェント的ユースケースが増加する中、データセンターやエッジインフラは限界に直面しています。新たなGPUやLLM、予測不能なワークロードに対応しつつ、電力予算を超えないためには、企業は新たなアプローチが必要です」と、LiqidのCEO エドガー・マスリ氏は述べています。「今回の発表により、Liqidは、パフォーマンス・柔軟性・効率性において業界をリードするソフトウェア定義型コンポーザブル・インフラをさらに前進させ、企業がこれまでにない需要に応えるためのスケールアップ・スケールアウトを可能にします。」

<GPU・メモリ・ストレージの統合管理>

Liqid Matrix 3.6は、GPU・メモリ・ストレージをリアルタイムで管理・オーケストレーション可能な業界初かつ唯一の統合ソフトウェア・インターフェースです。ITチームはAIワークロードの変化に迅速に対応し、運用を簡素化しながら、データセンターやエッジ環境全体でバランスの取れた100%のリソース利用を実現できます。
Kubernetes、VMware、OpenShiftなどのオーケストレーションツール、Slurmのようなジョブスケジューラ、Ansibleなどの自動化ツールとシームレスに連携可能なAPIを内蔵し、最適サイズのAIファクトリーをインフラ全体で構築可能です。

<PCIe Gen5対応 GPUソリューションで次世代スケールアップ>
新製品EX-5410P(10スロットGPUシャーシ)は、NVIDIA H200、RTX Pro 6000、Intel Gaudi 3など最新の600W GPUをサポート。Liqid Matrixとの統合で、ラック単位あたりの密度と性能を最大化しながら、電力と冷却コストを削減します。
2種類の構成:

UltraStack:最大30基のGPUを1台のサーバに割り当て、最高性能を提供。
SmartStack:最大30基のGPUを最大20台のサーバ間で柔軟に共有。

<CXL 2.0対応のメモリソリューション>
Liqidの新たなCXL 2.0メモリソリューションは、サーバ間でDRAMを分離・プール化し、ワークロードに応じて動的に割り当てることができます。Liqid Matrixを通じて効率的な利用とオーバープロビジョニングの抑制を実現し、メモリ依存のAIワークロードやインメモリDBを加速します。
業界初の完全なソフトウェア定義型・分離型のコンポーザブルメモリとして、最大100TBまでのメモリをサポート。
2種類の構成:

UltraStack:最大100TBのメモリを1台のサーバに専用割当。
SmartStack:最大32台のサーバで動的に共有。

<超高性能NVMeストレージ「LQD-5500」>
最大128TB容量、50GB/s帯域、600万IOPS超の性能を持つLQD-5500は、標準NVMeフォームファクターでAI、HPC、リアルタイム分析に最適。エンタープライズレベルの速度・拡張性・信頼性を兼ね備えています。

<まとめ:AI時代に対応した真の柔軟性と効率性を提供>
Liqidのソリューションは、GPU、メモリ、ストレージのリソースをサーバ本体から分離、集約してプール化することで、あらゆるワークロードに最適なリソース配分をオンデマンドで提供します。従来のGPU搭載サーバと比較してスケールアップ性能と操作性に優れ、オープンで標準ベースの基盤によりスケールアウトにも高い柔軟性と俊敏性を提供。さらに、大規模なAIファクトリーにありがちな電力・スペース・複雑さの課題も軽減します。

この抄訳に関するお問い合わせ先:
サーヴァンツインターナショナル株式会社
sales-contact@servants.co.jp