DATA PROTECTION
Backup as a service (BaaS) を利用すべき7つの理由
データのバックアップをこれまでと同じやり方で行うのは、もはや現実的な対策とは言えません。バックアップは電子メールと並んでコンピューターシステムに不可欠な機能です。また、企業のデータは意思決定と新たな成長を促す生命線となるため、災害が発生した場合に備えてデータの安全性を高めることが重要です。データを保管する場合、かつてはストレージサーバーのバックアップラックや専門家を頼る必要がありました。しかし、「As-a-Service」革命が起きたことで、特にクラウドベースのバックアップを重視するマネージドクラウドコンピューティング企業に大きな変化がありました。バックアップは今や、オンプレミスストレージの年間メンテナンスよりもコストを抑えながら、オフサイトで実行することができます。本稿では、信頼性の高いBackup-as-a-Serviceプロバイダーでクラウドをバックアップすべき7つの理由をご説明します。
あらゆるAs-a-Service
「As-a-Service」を使用する主なメリットは、使用量に応じた料金システムで多額の初期費用を削減し、サービスを導入しやすくなることです。企業でデータをバックアップする場合、ハードウェアではストレージ容量に悩まされることがありますが、Backup-as-a-Serviceの場合、アップグレードすることなく、チームの成長に合わせてストレージを簡単に拡張できます。データの増加は2年ごとに倍増すると予想されています。そのため、データ中心のビジネスを構築する上でこのような柔軟性は不可欠です。
企業データバックアップの付加価値にフォーカス
IT組織にとって、バックアップは不可欠ではあるものの専念すべき業務ではありません。クラウドにおけるBackup-as-a-Serviceは通常、一度設定すればその後は手間がかからないプロセスが自動で適応されます。しかし、従来のオンプレミスバックアップでクラウドと同じレベルの冗長性を実現しようとすると、継続的な維持と調整が必要になります。オンプレミスのバックアップに頭を悩ませる時間があれば、マーケティングや販売システム、モバイルワーカー、AI、機械学習、デジタルトランスフォーメーションなど、ビジネスの価値を実質的に向上させるプロジェクトを展開できます。
CAPEXからOPEXへのシフト
「As-a-Service」が広まったことで、資本支出(CAPEX)モデルから運用支出(OPEX)モデルへ移行しました。Software-as-a-Service(SaaS)が従来のソフトウェア購入の初期コストを削減したのと同様に、OPEXはIT予算の初期コストを削減します。多くの企業が好む購入モデルを使用することで、問題の発生時にチームで対処できるようになります。
無限のストレージ容量
企業でデータのバックアップをどうするか決める際、容量を元に考えるのは避けるべきです。つまり、データを保持するか削除するかの決断は、サーバーのバックアップ能力に左右されるべきではありません。しかし、従来のオンプレミスソリューションではコストがかかるうえ、容量が不足した際のアップグレードも困難でした。一方、クラウドベースのBaaSオプションはエクサバイトレベルまで拡張できるように設計されており、保存できるデータ量に実質上の制限がありません。
低コストで高品質な専門知識を提供するサーバーバックアップ
BaaSの料金は、クラウドに保存するデータ量(場合によっては、クラウドから取り出すデータ量)に基づいて課金されます。しかし、BaaSには無料のメンテナンス機能も組み込まれています。そのため、通常であればサーバー管理に高額なコストと人材を投入する必要がありますが、BaaSでは追加コストなしで処理することができます。
簡単に企業データをバックアップできるベストプラクティス
Wasabiでは、バックアップの3-2-1のルールを採用しており、3つのコピーデータのうち2つをメディアで、1つをオフサイトで保管します。従来のオンプレミスバックアップではこの標準を達成するのは困難でしたが、クラウドはストレージのベストプラクティスをすべて満たしています。さらに、プロセス全体を自動化できるため、データの冗長化がさらにシンプルになります。不変性を備えたS3オブジェクトロックなどの機能を追加すれば、ランサムウェアにも対応する無敵のセキュリティソリューションが手に入ります。
災害復旧への小さな一歩
データのバックアップをオフサイトに保存しておくことは、災害が発生した場合に主要なインフラを保護するうえで非常に有効な手段です。従来、データをオフサイトに移動するには、業者の手配や繊細な物理メディアの取り扱い、そして多くの時間とコストが必要でした。しかし、クラウドを利用すれば、バックアップとリカバリを数秒で自動的に実行できます。オフサイトのデータセンターから復元することで、サービスの中断を最小限に抑えながら迅速にデータを回復することができます。
As-A-Serviceスイートの保護
ほぼ半数(48%)の組織が過去12ヶ月間にランサムウェア攻撃を経験しており、そのうちの半数以上(51%)がSaaSデータを標的としています。それでも、ほとんどの組織は200を超えるSaaSプログラムを使用し続けています。WasabiとHYCUによるウェビナー「Averting the SaaS Data Apocalypse(WasabiとHYCUでSaaSデータの崩壊を回避)」では、リスクを見極めてランサムウェアからSaaS環境を効果的に保護する方法をご紹介します。
マネージドサービスプロバイダー(MSP)にとって、クラウドバックアップの設計は、サイバー攻撃から顧客を守るだけでなく、自社のイノベーション、差別化、利益率の向上にも影響します。市場における脅威が激化し、収益が圧迫されるなかで、選んだベンダーに隠れたコストや制約があった場合、業界をリードできるか否かが大きく左右されます。イノベーションや競争力について考えるとき、データの保存方法は最優先事項ではないかもしれません。しかし実際には、それこそが将来を見据えた戦略の基本的な要素なのです。データの保存とバックアップは、ランサムウェア攻撃、システム障害、データ破損、ITエラーによるビジネスへの影響を最小限に抑える上で重要な役割を果たします。必要なときにいつでも適切なデータをすぐに利用できるかどうかは、予算の柔軟性や、新しい機能やサービスを提供して他社と差別化を図れるかどうかにも大きく影響します。Data Protection Mattersが発行した2025年のホワイトペーパーでは、今後数年にわたってサイバーレジリエンス、コスト管理、イノベーションを継続的に両立させるには、オープンかつハイブリッドなクラウドバックアップ戦略が必要とされています。ハイブリッド戦略とは、データバックアップの冗長性と保護、およびクラウドプロバイダー間の相互運用性を実現する分散クラウド基盤の構築を意味します。これにより、複数のプロバイダーのサービスと機能を柔軟に組み合わせ、ビジネスの将来性をさらに高めることができます。技術面・コスト面での懸念事項成功するデータストレージやクラウドバックアップ戦略に組み込むテクノロジーの選択は、経済的な判断と密接に結びつきます。技術面では、「プロバイダー中立」のオープンエコシステムを採用することで、さまざまな場所にバックアップを保存する際のデータ損失やアクセス不能のリスクが軽減されます。これにより、どこか一箇所で障害が起きても影響を最小限に抑えられ、特定のプロバイダーや単一障害点に依存しない構成が可能になります。オープンクラウドのエコシステムでは、個々の顧客のニーズを満たす最善のサービスを厳選できます。そのため、Amazon Web Services(AWS)、Microsoft Azure、Google Cloudなど、従来のハイパースケールプロバイダーによるベンダーロックインを回避することが可能です。また、これらのクラウドネイティブプラットフォームでは、下り転送料が長年にわたるマイナスポイントとなっています。さらに、新たな懸念として挙げられるのが、ソフトウェア、ストレージ、セカンダリボールトを単一のクローズド環境にまとめた「シングルスタック」バックアッププラットフォームの台頭です。このモデルは一見便利に見えますが、データを独自のエコシステム内に閉じ込めるため、別のストレージプロバイダーやクラウド、インフラへ移行しようとすると、高額な再設計が必要になります。かつてのITサイクルでも起こったように、このような制約はいずれ、イノベーションを阻害する要因となります。単一のプロバイダーによる結合サービスのみに依存すると、顧客に提供できるオプションや機能が制限されることになります。コスト面では、ハイパースケールプロバイダーの場合、隠れた手数料でMSPの利益を圧迫する傾向にあります。イミュータビリティ(不変性)、レプリケーション、オブジェクトのサイズ設定といった機能には追加料金がかかり、すぐに費用がかさみます。こういったコストが原因で、完全なデータ保護や定期的な復旧テストを行いにくくなり、結果としてセキュリティとコンプライアンスにギャップが生じることになります。しかし、こうしたサービスや価格モデルに縛られ続ける必要はありません。ハイパースケールストレージからの転換 おそらく、あなたの組織や顧客は、AWS、Microsoft、Googleなどの主要なクラウドストレージサービスに大量のデータを保存していると思われます。なぜなら、拡張性の高いクラウドストレージを最初に市場に投入したのがこれらのサービスであるためです。これらのプロバイダーは、急増するデータ量を処理するために、独自のルール、料金、制限を持つ複雑なストレージ階層(ホット、クール、コールド)を構築しました。その結果、隠れたコスト、運用の複雑さ、ベンダーロックインという懸念点が生まれ、今ではMSPの足かせとなっています。たとえば、データ複製、イミュータブルバックアップ、復旧時間と復旧ポイントのテストなどを行えば行うほど、ハイパースケーラーでは追加料金が増えていきます。これらの企業は、データの上り・下り転送、APIコール、ストレージに対して「従量課金」制で料金を請求します。これでは予測が難しく、予算化がほぼ不可能です。サイバーセキュリティの観点では、災害復旧計画のテストに高額な下り転送料がかかることで、本来であれば事業継続のために行うべき定期的な復旧テストの実施をコスト面で諦めなければならない状態に陥ります。クラウドのコストと管理の削減を検討していても、自社と顧客のデータを適切に保護しようとするとますますコストがかかり、管理が複雑になるのです。一方、オープンエコシステムを採用すると、業界標準の相互運用パートナーシップによって、ハイパースケーラーのサービスからWasabi Hot Cloud Storage(詳細は後述)などの他のクラウドにデータストレージを拡張できるようになります。その結果、シンプルかつ最適な価格モデルを選択が可能になります。また、復旧時にはデータへ即時にアクセスでき、重要なバックアップを複数のクラウド基盤に分散させることで、冗長性と保護が高まります。先述のとおり、ハイブリッドクラウドストレージとバックアップは、特定のクラウドで発生したインシデントによるデータ損失やアクセス不能のリスクを低減します。ストレージが重要な理由とWasabiの役割 将来を見据えたクラウドバックアップ戦略を実現するには、ハイブリッドクラウドストレージとバックアップサービスを統合する必要があります。クラウド、オンプレミス、あるいはMSP拠点に導入された主要バックアッププラットフォームとストレージを統合することで、データを包括的に保護し、サイバー攻撃、システム停止、偶発的なデータ損失といったインシデントから迅速に復旧することが可能になります。Wasabiは、高速アクセスと回復性を備えた業界をリードするパフォーマンスをお手頃な価格で提供し、Veeam、Commvault、Cohesity、Rubrik、HYCUなどの主要パートナーの多様なバックアップサービスと連携しています。すべてのデータはプライマリデータとしてアクセス可能であり、クローズドなシステムでありがちな、「コールド」ストレージ(安価だが総所有コストは低くならない)からの取得遅延を回避できます。WasabiのホットストレージはAWS...
AIや自動化ワークフローがビジネスにもたらすメリットを求めて競い合う「AIのゴールドラッシュ」の時代が到来しています。テクノロジーからできるだけ多くの価値を得るべく、企業はGPU、高価なモデルライセンス、派手なツールに多額の資金を投じています。しかし、コンピューティングに重点を置くあまり、多くの企業がAI競争に潜む隠れたコストを見落としています。AIモデルは、学習や推論を実行する段階で大量の非構造化データを必要とします。クラウドはこうしたデータの保存に適していますが、データの移動や管理によって想定外に高額なクラウド料金が発生する場合があります。AIは未来そのものであり、企業はデータにアクセスして処理し、重要な洞察と価値を引き出せるようになる必要があります。組織内でAIの目標を達成するには、AI向けクラウドコストの最適化が必須です。データ量の多いAIワークロードでは、ストレージに費用を支払いすぎている可能性が高いAIはデータを大量消費することで知られています。現在広く使われているLLMは、公開されているインターネットから情報を収集し、それを抽出・凝縮する学習を通して、質問に答えたり推論を行ったりするAIモデルです。組織がAIパイプラインを開発する際、生成AI、マルチモーダルなワークフロー、RAGアーキテクチャは、真の価値を提供するために膨大な量のデータにアクセスする必要があります。さらに悪いことに、このデータの大半を非構造化データが占めています。外部データと組織内の知見や知的財産が組み合わさることで、競争優位を生み出されます。このデータへのアクセスは、AIライフサイクルのあらゆる段階で欠かせない要素です。AIモデルは大量のデータを取り込み、それを学習してモデルの重みに圧縮します。AIシステムの日常的な使用中にモデルのバージョン管理や推論を実行するためにも、モデルの重みやデータソースへのアクセスを必ず行う必要があります。多くの場合、企業のAI予算はコンピューティングを重視し、学習や推論を高速かつ十分な容量で実行できることを条件としています。しかし、大規模なデータセットへ一貫した高性能なアクセスが求められることで、AIのコストが劇的に増加し、予算が枯渇する可能性があります。見落とされがちな隠れたコストAIワークロードのなかでも分かりやすいコストとしては、GPUへの投資、モデルのライセンス、ツール、AIデータセットの基本ストレージコストなどが挙げられます。しかし、AIソリューションのデータ保存と管理に関連する隠れた料金については、多くの企業が気づいていません。ここでは、その主な要因を詳しく掘り下げます。頻繁なデータ移動マルチクラウド環境では、用途ごとに最適なソリューションを選択するため、ストレージとコンピューティングが同じ場所に配置されないことがよくあります。その結果、データレイク、アーカイブ、GPUクラスター間でデータが移動するたびに高額な下り転送料が発生する場合があります。下り転送料とAPI料金AIシステムは、特に学習や推論を実行する際にデータを必要とします。下り転送やAPIリクエストに課金するストレージプロバイダーを利用していた場合、これらの料金は急速に積み重なり、予期せぬ大きな負担となります。過剰なストレージ使用AIデータは非構造化されていることが多く、組織が保有するデータの内容と保存場所を把握しづらい状態にあります。その結果、データの重複コピーが生まれ、不要なストレージ使用と料金が発生します。非効率的なメタデータ構造化データと効率的なメタデータが不足していると、クラウドストレージ内で必要なデータを探しにくくなります。その結果、AIシステムは全量スキャンや過剰なデータ取得を強いられ、追加のアクセス料金が発生するとともに、AIワークフロー全体の効率が低下します。こういった隠れコストの多くは、AI対応ワークフローのコア機能に直結しているものの、予測や管理が難しい傾向にあります。そのため、気づかないうちにAI予算が圧迫され、支出超過に陥ったり、AI戦略のなかで別の要素を削減をせざるを得なくなったりする可能性があります。AIストレージを再考する:シンプル、予測可能、パフォーマンス重視AIの隠れコストを管理するには、コンピューティングと同じレベルの戦略的な考え方をデータストレージ設計にも適用する必要があります。AIストレージのコストを管理するためのベストプラクティスには、以下のようなものがあります。シンプルかつホットなストレージ:AIシステムを利用する際、どのようなデータにどのくらいの頻度でアクセスする必要があるかを正確に予測するのは困難です。高性能で常に利用可能なホットストレージにAIデータを置くことで、予期しないアクセスパターンによる潜在的な取得遅延や、予想外のコスト増加を回避できます。定額課金:データへのアクセスやストレージ環境およびコンピューティング環境間のデータ移動に料金が発生し、API料や下り転送料がAIコスト超過の主な要因となる場合があります。定額課金モデルのクラウドストレージを利用すれば、予測可能性が高まり、知らないうちにクラウドコストが上がってしまう状態を防げます。不変のストレージ:AIモデルは、入力データ・重み・来歴情報・監査記録などの高価値データに依存していますが、これらはランサムウェアの格好の標的になります。イミュータブルストレージを利用することで、悪意ある変更のリスクを排除し、データを保護します。メタデータのインデックス作成と検索性:AIデータの大部分は非構造化データであるため、学習や推論に必要な情報を見つけるのが困難な場合があります。インテリジェントなメタデータインデックス化を行うことで、必要なデータを迅速に特定し、重複アクセスやデータ探索に伴うコストを削減します。多くの企業はクラウドコストが正確に予測できておらず、AIストレージのコストが超過しています。ストレージ設計を賢く実装すると、隠れた料金を回避できるだけでなく、より効率的なデータアクセスによってAIワークロードの運用効率を高めることもできます。よりスマートなAIストレージが収益にもたらす影響コスト効率の高いAIストレージを知的かつ意図的に設計することで、AI投資のビジネス効果を最大化することができます。AIストレージに重点を置く実務的なメリットとして、以下のような点が挙げられます。キャッシュフローの明確化API使用料やデータ下り転送料などの隠れた予測不可能な料金によってAIコストが圧迫されることは珍しくありません。AIシステムは、多数の小さなデータに対して頻繁にアクセスします。最適化されたAIデータストレージにより、企業はAIストレージへの支出をより正確に予測できるようになります。 運用効率構造化・インデックス化されていないデータは、データの検出を遅らせ、重複アクセスを引き起こします。データの保存場所が曖昧な場合、すべてのデータをダウンロードしてシステム内を検索する必要がありますが、この方法では時間もアクセス料金も発生します。メタデータをインデックス化することで、AIツールで必要なデータをより迅速に特定することができるようになり、反復処理が高速化し、エンジニアの生産性が向上します。戦略的なレジリエンスイミュータブルかつインデックス化されたストレージは、不正な変更からデータを守り、データアクセスを簡素化します。これがなければ、ランサムウェアへの脆弱性が高まり、規制遵守、監査、AIモデルの再トレーニングに必要なデータを見つけられない恐れがあります。まとめAI導入は競争となっており、明確な勝者と敗者が存在します。一部の企業は、GPUをアップグレードしてコンピューティングに投資することで「ゴールドラッシュ」の波に乗り、より高速なデータ処理を活用して優位性を獲得しています。一方、ストレージ戦略が原因で気づかないうちにアクセスやデータ取得料金が超過し、足を引っ張られる企業もあります。AI戦略を設計またはレビューする際には、データの移動、料金体系、メタデータ設計などのストレージワークフローを確認し、潜在的な非効率性や隠れたコストを見つけることが重要です。その際、ストレージ層がビジネスに価値をもたらしているか、AI戦略の他の要素からリソースを奪っていないかを確認する必要もあります。...
コンテンツ所持者にとって明白なことは、保有するデータに価値があるということです。スポーツチーム・映画スタジオ・制作会社は、自らのコンテンツ以外で商売をすることはほぼありません。しかし彼らは、コンテンツそのものと同じくらい保存場所が重要であるということに気づいていない可能性があります。現代のコンテンツは、消費者・作成者双方からの高いアクセス性が求められています。こういった需要に対して、ストレージコストとデータへのアクセス性のバランスに秀でているのがクラウドオブジェクトストレージです。クラウドオブジェクトストレージでは、コンテンツをコスト効率よく大規模に保存し、必要なときに必要な場所から迅速にアクセスできます。これによって、多様なユースケースとテクノロジーにアクセスしながらメディアワークフローを改善し、コンテンツから新たな収益機会を生み出すことが可能になります。クラウドストレージが大規模に成長を続けるメディアエコシステムへの架け橋になる一方で、LTOには限界があると言わざるを得ません。LTOは一般的に、保護が必要だがアクセスする可能性のないアーカイブコンテンツを低コストで保存する目的で使われています。LTOが発売された当初は、長期保存用としては最高級の品質を誇っていました。しかし、新たに発表されたLTO10は、2世代以上前のフォーマットをサポートしていません。さらに現段階では、LTO10ドライブの下位互換性については一切言及されていません。そのため、現代のニーズに見合わないLTOについて再考し、クラウドへのデータ移行という新たな方向性を定めるべき時が来ています。移行を開始するコンテンツ所有者は、テープストレージが安価で、信頼性が高く、標準的であるというメリットを認識しています。しかし、速度が遅く、扱いにくく、時代にそぐわないというデメリットもおそらく把握していることでしょう。テープストレージの優れた点は、二度と見ない可能性のある映像を長期間保管できることですが、問題はそこにあります。テープストレージに保管されているコンテンツは、プライマリストレージに戻すまでほとんど何もできない状態になります。視聴者が閲覧することも、ストリーミングプラットフォームで検索されることも、パッケージが編集されることもありません。テープストレージがコンテンツの保存に適しているのは確かですが、コンテンツの寿命とは単にフィルムを保存することではなく、メディアエコシステム内で継続的な関連性を保つことにあります。LTOの課題は、慣性、つまり静止している物体が静止したままでいようとする性質にあります。すでにテープストレージへの投資を行っている場合、それを変更するのは困難です。映像をテープに保存することにはそれほどコストがかかりませんが、テープからクラウドストレージに移行するには時間と予算の両方がかかります。しかし、ニュートンの第一法則はこう言った状況にも解決策を与えてくれます。何事もやり始めは労力が必要かもしれませんが、データをテープストレージから移行させることで、流通の維持がはるかに容易になります。データの移行によって、ディスク上でもクラウド上でも、コンテンツがアクティブな状態で移動しやすくなり、価値を生み出すアプリケーションやメカニズムと自由に連携できるようになります。時代に沿った変化かつて主流だったテープストレージは、他のテクノロジーやエコシステムに置き換えられつつあります。このエコシステムによって、私たちの働き方やコンテンツ所有権をめぐるビジネスが改善されました。アーカイブコンテンツを扱う作業(カタログ作成、再配布、資料の編集など)は、もはやLTO形式では最適な対応ができなくなっています。コンテンツの世界では、必要なときに必要な場所で必要なものにアクセスできる環境が求められており、クラウドはこういった需要に最も適しています。データの表示、共有、検索はすべてオンラインで行われるため、コンテンツがそこになければ、作業を実行することができません。データの検索性コンテンツの量が多い組織では、図書館システムにおけるデューイ十進分類法と同じくらい検索性が重要です。しかし残念ながら、LTOの検索機能は極めて限られています。LTOの形式では、探しているものを見つけるために欠かせない詳細なメタデータがサポートされていません。一方、クラウドオブジェクトストレージは、詳細なメタデータをサポートする高度な検索オプションを備えています。そのため、編集者やその他の関係者は、コンテンツの名前や日付だけでなく、場所、カラープロファイル、カメラの種類、その他無数のパラメータで映像を検索することができます。AIと自動的なメタデータタグ付けの進歩によって、新たな方法でカタログ検索を行うことが可能になりました。コンテンツ別に検索できる機能(例:アルバート・プホルスの打席、シルバーのトヨタ車、山脈のある風景など)は、編集者やコンテンツ管理者にとって大きなパラダイムシフトとなっています。Googleがインターネットと利用者の関係を再定義したのと同じように、AIを活用した高度な検索機能は、コンテンツと私たちの関係を再定義することになるでしょう。収益化昨今、コンテンツを収益化する方法は豊富にあります。ストリーミングサービス、商用ライセンス、ソーシャルメディアなどは、コンテンツ所有者が既存のライブラリから使用料を徴収し、コンテンツを最新に保つ手段として扱われています。ここには分かりやすいメリットがありますが、真のセールスポイントは必要な労力が少なく済むという点です。収益化は、新しいコンテンツを得ずとも既存のライブラリをフィルタリング・変換・共有するだけで済みます。しかし、テープに記録されたままのコンテンツは、本来であれば実質的に活用できる素材をベンチに寝かせているようなものです。コンテンツを安価なLTOに保存することがコスト削減につながる場合もありますが、データが非アクティブな状態では組織に何の価値ももたらされません。コンテンツを保管するのであれば、その費用に見合った価値がある方が良いでしょう。クラウドへの移行は、ストレージコストを費用対効果の高い投資に変えることも含めて、継続的な収益性を実現するための重要な第一歩となります。大規模なアクセスLTOは信頼性とコスト効率に優れたストレージ形式ですが、他のストレージハードウェアと同様に、物理的な容量制限があります。保存および保持するコンテンツは際限なく増え続けるため、デバイス容量が限界に近づくたびにコストのかかるアップグレードを行う必要があります。LTOドライブは、圧縮データとネイティブフォーマット(RAWデータ)の容量が大きく異なる形で販売されることがよくあります。LTO10ドライブの場合、最大容量は圧縮データで90テラバイト、ネイティブデータはわずか36テラバイトです。メディアファイルは圧縮するには大きすぎるため、コンテンツ所有者はデータを非圧縮の状態で保存することを余儀なくされます。これは、利用可能なストレージ容量の167%に相当します。ドライブ自体と同じ場所にいるユーザーだけが保存されたコンテンツにアクセスでき、物理的なリニアストレージ形式からファイルを取り出すのに数分から数時間かかる状態では、使い勝手が大幅に低下します。こういった状況に対して、クラウドオブジェクトストレージは大規模なメディアに必要な無限の拡張性を提供します。これにより、新たなハードウェアを購入せずとも追加コンテンツを自由に取り込むことができるようになります。また、データの読み取りおよび書き込みが高速で行われるため、インターネットに接続されたあらゆるデバイスから大量のコンテンツにアクセスすることが可能になります。制作現場が世界中に広がり、映像編集のプロセスが分散化されるにつれて、こういったグローバルな展開の価値がますます高まっています。Wasabi Hot Cloud Storageでは、ハイパースケーラーでは高額になりがちな下り転送料やアクセス料が無料なうえ、コンテンツへの完全なアクセスが保証されており、リモートワーカーが制限なく創造活動を行える環境を実現しています。 (避けられない)移行もちろん、クラウドへの移行はそれほど簡単な作業ではありません。大規模なファイルのアップロードやインデックス作成には時間がかかるため、プロセス全体で貴重な帯域幅が消費される可能性があります。実際、移行の難しさは、LTOの長期ユーザーが現状のままでいる大きな要因になっています。しかし実際には、好むと好まざるとにかかわらず、LTOからの移行は必須になると思われます。現段階では、最新のLTO10フォーマットは旧バージョンとの下位互換性がありません。つまり、新しいLTO10はLTO9以下のドライブでは動作せず、新しいドライブが古いテープで再生できない状態になっています。新しいフォーマットにアップグレードするには、新しいドライブを用意し、既存のコンテンツをLTO10に完全に移行させる必要があります。いずれにせよ、古いLTO形式を使用している場合は移行せざるを得ないのです。ここでポイントとなるのは、これまでと同じようなテープライブラリに移行するのか、それとも無限の拡張性を備えたクラウドに移行するのかということです。全体的に見ると困難に思えるかもしれませんが、クラウドへの移行は段階的に進めるのが最適です。移行を迅速に進めたい場合は、役立つツールを使いましょう。たとえば、物理的なデータ転送アプライアンスにデータを入れることで、選択したクラウドプロバイダーに直接送信することができます。また、ファイル高速化サービスを利用すれば、パブリックインターネット経由の取り込みを大幅に高速化できます。結論従来、LTOはコンテンツを長期保存するうえでコスト効率の高い方法でした。しかし今は、データが最も貴重なリソースとなる新時代です。規模や形態を問わず、あらゆる組織では、古いコンテンツを利用し、アーカイブ映像の収益化、分析ツールによる新たなビジネスインサイトの獲得、AIモデルのトレーニングなどを行っています。LTOを利用していた場合、これらのいずれの目的にもデータを活用できないまま、ライブラリを新しい形式へアップグレードするだけの状態に陥ってしまいます。コンテンツの重要性や可能性を見誤らないでください。クラウドは、コンテンツにとって新たな可能性への入り口となります。コンテンツをクラウドベースのメディアライブラリに保存するのが早ければ早いほど、その分データの潜在能力を活用できるようになります。Wasabiの最新のホワイトペーパーでは、それを実現する方法について詳しくご説明しています。クラウドストレージの専門家による細やかな移行ガイドとベストプラクティスによって、テープからクラウドへのスムーズな移行を行うことができます。...
