ワサビ・テクノロジーズ・ジャパンは、米国本社のマーティ・ファラーロ取締役副社長兼COOを招き、事業戦略説明会を開催。2017年創業のクラウド型ストレージサービスを提供するワサビネットワークスは、2019年に日本市場に参入。現在、北米6リージョン、欧州6リージョン、アジア4リージョンの計16リージョンを展開。アジア4リージョンのうち、2リージョンが日本(東京と大阪)であることからも、同社が日本市場を重視していることがわかります。Falaro氏は、同社のサービスの3つの主な特徴として、低価格、高性能、セキュリティを挙げました。同社は、Amazon Web Services (AWS)のようなハイパースケーラ・ストレージ・サービスよりも最大80%低い価格設定であるとしています。.
さらに、同社の料金体系はシンプルで、ハイパースケーラが課すエグレスコスト(ダウンストリーム転送料/データ検索料)を排除し、APIリクエストの追加コストも発生しません。性能面では、AIワークロード専用に設計された新しいストレージクラスとしてNVMe SSDを発表するなど、速度向上に取り組んでいます。さらに、データの安全性を確保するため、イミュータブル(書き換え不可能)なストレージも提供しています。ワークロードについて中村氏は、「バックアップやリカバリからAIまで、幅広いユースケースで採用が進んでいます」と述べました。続いて、特に注力しているAI支援における最新の取り組みを紹介。まず、米国で開始した取り組みとして、IBM Cloudと提携してカリフォルニア州サンノゼに構築した「AI-First Storage Region」が2025年第4四半期に稼働を開始します。このリージョンでは、NVMe SSDを使用したAI向けの新しいストレージクラス「Wasabi Fire」を提供します。.
性能的には「Amazon S3 Express」や「Azure Premium」と同等とされ、米国での価格は1TBあたり月額$19.99円と発表されています。想定されるユースケースは、“AIと機械学習のワークロード:データモデルへの高速アクセス”、“高頻度のデータロギングとインジェスト:モニタリングと観測可能性のため”、“メディア処理パイプライン:高速な読み取りと書き込みによるエンドツーエンドの処理時間の短縮 ”など。AIのトレーニングにGPUを使用する場合、高価なリソースであるGPUをアイドル状態なく稼働させ続けるためには、中断のないデータ供給が不可欠です。そのためには、GPUとストレージの密接な連携が必要です。ストレージ専業サービスのワサビ・テクノロジーズは、自社だけではユーザーのニーズに応えられないと懸念していました。しかし、IBMとのパートナーシップにより、IBM Cloudが提供するコンピューティング・リソースを活用できるようになりました。ファラロ氏は、自社の顧客に加え、IBMの顧客にもサービスを提供することで、ユーザー基盤が拡大したことを挙げています。わさびファイアは2026年前半に東京リージョンでのサービス開始を予定しており、東京リージョンもIBM Cloudのコンピューティングリソースに近い立地となります。.
こちらもお読みください: カーブジェン社、CarbConnect AIプラットフォームにラベリングを追加
Wasabiはまた、デル・テクノロジーズとグローバルに提携し、“Wasabi with Dell ObjectScale ”と呼ばれるハイブリッドストレージサービスを立ち上げました。このサービスは、デルテクノロジーズのオブジェクトストレージ製品「ObjectScale」と ワサビ・テクノロジーズ‘オンプレミスのストレージをクラウドに拡張し、長期保存、アーカイブ、シームレスなハイブリッドワークフローを実現します。このサービスは現在、米国と英国で提供されていますが、2026年前半には東京地域でも開始される予定です。.
ソース ヤフー

