メディア&エンターテイメント、お客様導入事例
Wasabi Hot Cloud Storage導入事例:医療法人 錦秀会様
パートナーのAIT様に大阪の医療法人錦秀会様の事例を作成いただきました。
転載の許可をいただきましたのでこちらのブログでもご紹介させていただきます。
概要
錦秀会様は、錦秀会グループの中核として大阪市南部と堺市を中心に5 病院2 施設を運営する医療法人。同法人では、AITによる支援のもと、2023 年5 月に発布された厚生労働省のガイドライン「医療情報システムの安全管理に関するガイドライン第 6.0 版」への対応策としてホットクラウドストレージ「 Wasabi 」を導入。
電子カルテシステムや医事システムのデータバックアップに有効活用している。
Wasabi導入前の課題
遠隔地へのデータ保管に関する対策が不十分で、大規模災害により業務の継続に必要なデータがすべて失われるリスクがあった。
Wasabi導入の経緯
Wasabiの圧倒的なコストパフォーマンスを評価。Wasabi の料金体系はシンプル(固定的)でダウンロードやAPI リクエストによる追加費用も発生しない。ゆえに予算が立てやすい点も高く評価した。
Wasabi はデータを削除や上書きから確実に保護するオブジェクトロック機能を搭載しているため、オフラインバックアップとしても活用でき、容易にランサムウェア対策できる。さらには「ホットストレージ」であるがゆえのパフォーマンスの高さもWasabiを選ぶ要因となった。
パートナー事例を見る
おかげさまで日本国内でも大学・機関におけるWasabiのご利用が増えてきました。そこで、各大学様においてどのようにWasabiが利用されているかをまとめてみましたのでご参照の上、採用の検討材料にしていただければ幸いです。大学でのWasabi活用例バックアップストレージとして活用一括購入したストレージのマルチテナント管理長期的なログの保存に活用GakuNin RDMの機関ストレージ・拡張ストレージとして活用監視カメラ録画のストレージとして活用まとめ:Wasabiの大学・機関での活用バックアップストレージとして活用オンプレにある仮想マシンやファイルサーバに対し、バックアップソフトウェアを介してバックアップデータをWasabi Hot Cloud Storageに保存いただいています。上記のように一次バックアップをオンプレストレージ、二次バックアップをWasabi、という形で保存いただく際のメリットは以下の通りです。1次バックアップからのリカバリ1次バックアップをオンプレに配置することで、誤って消去してしまったデータや急ぎで復旧させなければならないデータなどをLAN経由で高速にリカバリが可能です。 Wasabiへの2次バックアップ11x9sのデータ耐久性とオブジェクトロックを兼ね備えたWasabi Hot Cloud Storageに書き換え不可能なバックアップデータを保存することで、万が一本番環境と一次バックアップが災害で復旧不可能になった、ランサムウェアに暗号化されてしまった、といった場合でも、クラウド環境や他のキャンパスの環境にWasabiからデータを復旧することが可能です。また、Wasabi Hot...
ChatGPTをはじめとする生成AIの進化が、ビジネスに大きな変革をもたらしています。このAI革命の裏側で、モデルの学習に不可欠な「データ」の重要性がかつてないほど高まっています。AIに「食わせる」データが膨大になるにつれて、それを保管し、処理するためのデータセンター、とりわけデータストレージへの需要が世界的に急増しているのです。 本記事では、なぜ今データセンターとストレージが注目されるのか、その背景を深り下げ、生成AI時代を生き抜くためのデータ管理の重要性について解説します。生成AIが牽引する世界のデータセンター需要ChatGPTやGemini、Claude 4といった生成AIサービスが、企業のあらゆる業務で活用されるようになりました。これらのサービスの中核となる大規模言語モデル(LLM)や画像生成モデルは、学習と推論の両段階で膨大な計算能力を必要とします。たとえば、GPT-4の学習には数万台のGPUサーバーが数ヶ月間稼働し続ける必要があり、1回の学習コストは数十億円に達するとされています。この計算処理を担うGPUサーバーを大量に設置・稼働させるため、世界中でハイパースケールデータセンターの新設・増設が相次いできました。「情報通信白書令和6年版」によると、2020年に19.1兆円だったデータセンターシステムの市場規模は、2024年には36.7兆円まで拡大すると予測されています。 AIの性能は「データ」が命!その理由とは?「Garbage In, Garbage Out(ゴミからはゴミしか出てこない)」という慣用句が示す通り、AIの精度や信頼性は学習データの質と量に大きく依存します。どれほど優れたアルゴリズムを用いても、学習データが適切でなければ、期待通りの性能は得られません。なぜ「大量のデータ」が必要なのか?モデルの精度を高め、より複雑な文脈やニュアンスを理解させるためには、多様かつ大量のデータが不可欠です。人間の言語の微細な違いや、業界特有の表現を正確に理解するには、膨大なサンプルが求められます。特に、テキスト、画像、音声、動画といった、ビジネス活動で日々生成される多様な「非構造化データ」は、AIにとって貴重な学習資源となります。これらのデータを適切に処理・活用することで、より実用的で精度の高いAIシステムの構築が可能になるのです。企業独自のデータ活用が競争力になる汎用的なモデルに対し、自社が保有する独自のデータを追加学習させる「ファインチューニング」や、外部の最新データソースを参照する「RAG(Retrieval-Augmented Generation)」といった技術の重要性が高まっています。これにより、業界特有の専門用語を理解させたり、自社の製品情報に基づいた顧客対応を自動化したりと、企業独自の競争力に直結する成果が期待できます。汎用AIでは対応できない、自社固有のビジネス課題を解決する鍵となるのです。生成AIの「データを食わせる」段階で直面する3つの壁学習データを準備し、AIに供給するプロセスにおいて、多くの企業が共通して直面するインフラ上の課題があります。AI活用を成功させるには、まずこれらの壁を乗り越えることが必要です。壁1:爆発的に増え続ける「データ保管コスト」AIの学習データは、一度使って終わりではありません。モデルの再学習や精度検証、法規制への対応のためには、データの長期的な保管が必要です。ペタバイト級に達することも珍しくないこれらのデータを、従来のオンプレミスストレージや一般的なクラウドストレージで保管し続けると、月額数千万円から数億円のコストが発生して、経営を圧迫する大きな要因となります。特に、データ量の増加に比例して保管コストが急増する従来のストレージモデルでは、長期的な事業計画の策定は困難です。壁2:学習効率を落とす「データアクセス速度」大量のGPUが一斉に学習データを読み込む際、ストレージの読み出し速度(スループット)がボトルネックとなり、高価なGPUリソースを遊ばせてしまう「I/Oバウンド」と呼ばれる問題が発生しやすくなります。データの読み込み待ちにより、1台数百万円するGPUの稼働率が低下すると、学習時間の延長だけでなく大幅なコスト増加につながります。学習サイクルを高速化し、開発スピードを向上させるためには、大容量データを低遅延でGPUに供給できる高性能なストレージが不可欠です。壁3:データの散在が招く「管理の複雑化とセキュリティリスク」データが複数の部署のサーバーや、異なるクラウドサービスに点在している「データのサイロ化」も、AI活用における大きな障壁です。一元的なデータ管理ができないと、必要なデータを探すのに時間がかかったり、アクセス権の管理が煩雑になりセキュリティホールを生んだりするリスクがあります。また、データの重複や不整合が発生し、AI学習の品質低下や、予期せぬ学習結果を招く原因にもなります。生成AI時代に必須となるストレージ基盤の3つの条件上記の課題を乗り越え、AI活用を成功に導くために、これからのデータストレージに求められる要件を整理します。これらの条件を満たすストレージ基盤を選ぶことが、AI戦略の成否を左右します。条件1:ペタバイト級にも即応する「無限のスケーラビリティ」将来のデータ増加量を予測することなく、ビジネスの成長に応じてシームレスに容量を拡張できる能力が重要です。AI学習用のデータは、モデルの高度化とともに指数関数的に増加する傾向があります。この点で、物理的な制約が少なく柔軟にスケールアウトできるクラウドのオブジェクトストレージが、AIデータレイクの基盤として最適です。容量の上限を気にすることなく、必要に応じて即座に拡張できる環境が、継続的なAI開発を支える土台となります。条件2:コストと性能を両立する「経済合理性」従来の「高速だが高価なストレージ」と「安価だが低速なアーカイブストレージ」という階層化の考え方では、AI学習の「大容量データに頻繁かつ高速にアクセスしたい」というニーズに応えきれません。特に、データを読み出す際の転送料金(エグレス料金)が、AI学習のように繰り返しデータを読み出す用途では想定外の高コストにつながるケースがあります。月額数千万円の転送料金が発生し、プロジェクトの採算性を大きく損なう事例も報告されています。これからのストレージには、予測可能な低コストで、かつ高速なアクセス性能を提供する「費用対効果」の高さが強く求められます。条件3:データサイロを解消する「統合的データ管理機能」データの散在によるセキュリティリスクと管理の複雑化を解決するため、全社のデータを一元的に管理できる統合プラットフォームが必要です。部署ごとに異なるシステムでデータを管理している状況を解消し、データへのアクセス権限をきめ細かく制御できる機能が重要となります。また、データの来歴を追跡できるデータリネージュ機能や、自動的なデータ分類・タグ付け機能により、必要なデータを迅速に発見できる環境の構築が求められます。暗号化やアクセスログの管理といったセキュリティ機能も統合され、企業のガバナンス要件を満たしながら、AI開発チームがデータに安全かつ効率的にアクセスできる環境が理想的です。まとめ生成AIのビジネス活用が本格化する中で、その競争力の源泉は、AIモデルそのものだけでなく、その燃料となる「データ」をいかに効果的に管理・活用できるかにシフトしています。データセンター需要の高まりは、単なる計算リソースの需要増だけではなく、「データを保管し、供給する」ストレージの重要性が増していることの表れです。増え続けるデータを、低コストかつ高速に、そして安全に扱えるストレージ戦略こそが、企業のAI戦略、さらには事業成長の成否を分ける鍵となります。こうした要件を満たす最適なソリューションが、従来のクラウドストレージと比較して最大80%のコスト削減を実現したWasabi Hot Cloud Storageです。データ転送料やAPIリクエスト料金が一切かからない完全定額制により、AI学習で頻繁にデータアクセスが発生しても、予期しないコスト増加の心配はありません。Wasabiは多くの企業にとって、AI時代のデータ管理基盤として理想的な選択肢となるはずです。...
クラウドレプリケーションとは、同一または異なるストレージ領域にデータセットのコピーを複数作成して、維持することです。このプロセスを通して、多くのIT担当者がアプリケーションのパフォーマンスおよび稼働率の向上、災害復旧に役立てています。しかし、クラウドレプリケーションサービスには予期せぬ様々な料金が発生します。ストレージ容量の追加コストよりもはるかに高額なレプリケーションコストがかかることで、ビジネス開発の妨げや総所有コスト(TCO)の大幅な増加につながる恐れもあります。レプリケーションの種類かつてのレプリケーションは、フロッピーディスクをPCに挿入し、そこにファイルをドラッグするだけのシンプルなものでした。現在では、専用のソフトウェアを使用して、あるデバイスから別のデバイスにデータをコピーすることでレプリケーションが行われます。多くの場合、セキュリティと冗長性対策として、これら2つのデバイスは異なる場所に配置されます。また、異なる地域にあるクラウドデータセンター間でデータをコピーする、クラウド間レプリケーションも増化しています。なぜレプリケーションを行うのか? データレプリケーションは、なぜ必要なのでしょうか?クラウドデータレプリケーション戦略の背景には、以下のような要因が考えられます。事業継続性、セキュリティ、災害復旧(DR)-あるリージョンから別のリージョンにデータをレプリケーションすることで、自然災害やランサムウェアなどのサイバー攻撃が発生した場合のデータ損失リスクを軽減します。コスト削減、階層間の移行-レプリケーションにより、高コストのストレージから「コールド」ストレージなどをより低コストのストレージ層にデータを移行できるようになります。(ただし、このオプションは、必ずしも経済的メリットがあるとは限りません。)パフォーマンスに関する考慮-エンタープライズリソースプランニング(ERP)などのソリューションでは、特定のデータセットに関して、高いパフォーマンスを実現するための近接性を考慮する必要があります。例えば、クラウドベースの編集などのワークロードでは、クラウドでホストされているデータへの即時アクセスが不可欠であり、ユーザーとデータ間の距離が大きな違いを生みます。データ分析とAIワークロード-分析と人工知能は、運用データベースとは切り離し、分析・AIワークロード専用に設定されたデータリポジトリ(Snowflakeレプリケーションなど)にデータを複製するのが最適です。クラウドレプリケーションのコストを理解するレプリケーションにはどれくらいの費用がかかるのでしょうか。ヒントとして言えるのは、複製したデータのインスタンスを保存するためのコスト以外にも料金が発生するということです。Amazon Web Services(AWS)、Microsoft Azure、Google Cloud Platform(GCP)などのハイパースケーラーでは、2つめのコピーをネットワーク経由で転送する際に、1ギガバイトあたり約2セント(または1テラバイトあたり20ドル)の料金が請求されます。また、コピーするデータの量やコピー先のリージョンによっては、転送料金が複製データ自体のストレージ料金を上回る可能性があります。それだけではありません。レプリカを作成し、そのコピーを別のリージョンの別バケットに配置するたび、1,000オブジェクトごとにAPI PUTリクエスト料金が発生します。さらに、オブジェクトとファイルサイズは同じではないことも把握する必要があります。1ギガバイトのファイルを複製したとしても、クラウドプラットフォームがそれを2メガバイトのチャンク500個に分割し、それぞれに個別のPUT料金が必要になる場合もあり、あっという間に料金がかさんでしまいます。それに加えて、ハイパースケーラーの場合、別のリージョンへのレプリケーションを有効にするためにバージョン管理をオンにする必要があります。そのため、他の費用に加えて、たとえビジネスケースや保存要件がなくてもデータの古いバージョンをすべて保存し、料金を支払うことになります。Wasabiのシンプルかつコスト効率の高いレプリケーションWasabiのレプリケーションサービスは、ハイパースケーラーよりもシンプルなうえ、コスト効率に優れています。Wasabiを使用すると、レプリケーションを簡単に行うことができます。また、料金はストレージに対してのみ発生するため、データ転送料やAPIリクエスト料が不要で、レプリケーションのためにバージョン管理をオンにする必要もありません。Wasabiのストレージリージョンを活用することで、追加費用なしで世界中にデータを保存することができます。結論クラウドレプリケーションは、ビジネスの継続性、セキュリティ、パフォーマンス、可用性に欠かせない要素です。ただし、ハイパースケーラーの場合、データ転送、APIリクエスト、バージョン管理の料金が発生するため、レプリケーションのコストが予想よりも高くなる可能性があります。Wasabiはこれに対して、データ転送料やAPIリクエスト料、バージョン管理が不要で、費用対効果が高く、一貫した価格のソリューションを提供します。...