データアックアップのデメリット
情報革命が起きて以来、企業のビジネス活動において、データの重要性はますます高まっています。そんなデータを守るのがデータバックアップです。データ保護の基本であるデータバックアップですが、デメリットもあります。具体的には以下の通りです。
- ●バックアップ漏れのリスク
- ●重複排除技術のリスク
- ●バックアップ方法のミスマッチ
それではみていきましょう。
バックアップ漏れのリスク
まずはデータ喪失のリスクです。もちろんデータバックアップの目的はデータ保護ですが、場合によってはデータ喪失を起こしてしまう場合があります。ここらはデータ喪失を引き起こす災害リスクについて、A社の事例を参考に考えていきましょう。
アクセス速度に課題があるA社
A社ではデータ量が多くバックアップシステムのクラウド化により、保管するデータ量を気にする必要がなくなりました。ところが、アクセス速度に問題があることが発覚。システムエラーや回線が混み合っているときには、バックアップの速度が非常に遅くなってしまいました。
このため業務外の時間にバックアップを終えることができず、業務中の時間にまでかかってしまう事態に。結果、社員が業務で使用するアクセスが遅くなるといった悪循環に陥ってしまったのです。
災害の発生によるデータ喪失
そんな時に、本社のある地域で災害が発生しました。災害地がクラウドサーバの設置場所である本社から近く、同時被災にあってしまいました。
この災害によりバックアップしきれていないデータは失われ、業務再開が遅れるといった事態になりました。
重複排除技術のリスク
次に重複排除技術のリスクについてみていきましょう。重複排除とはバックアップの際に対象データを解析し、重複データを検出して排除する技術のことです。
重複排除を利用するB社
この重複排除技術をB社では、データをバックアップする際に取り入れていました。なぜなら新しいデータのみを付け加えて保存していけば、データ容量の削減や転送時間も短縮につながるからです。
実際、その効果は計り知れないものでした。およそ毎回のデータ取り込みを、重複排除技術を取り入れることで、5%しか容量を増やさずに済むことが報告されています。つまり100TBのデータ取り込みが5TBになるということです。
集約によるデータ喪失
しかし、重複排除技術の運用で満足してしまい、決定的なリスクを見逃してしまっていました。それはバックアップ先が1つであった場合、そこを喪失するとリカバリが効かなくなってしまうというリスクです。
このデメリットを防ぐためには、リスク分散をするとよいでしょう。具体的には、データを最小限に集約する必要はあるものの、2~3箇所でもその他の媒体にバックアップすることです。
データ圧縮方法のミスマッチ
爆発的に増大し続けるデータバックアップを、効率的に保存していかなければいけません。数年たてば消去することを決めているデータ量よりも、追加されていくデータ量のほうが多くなりがちでしょう。そこで必要なデータバックアップのシステム機能が、データ圧縮でした。
2種類のデータ圧縮
データ圧縮には2種類あり、ソフトウェアによって圧縮するものとハードウェアによって圧縮するものがあります。
ソフトウェアでの圧縮は、CPUを使用して圧縮作業を行うため、その分、業務で使用するタスクの処理速度が低下します。ただ、ストレージの消費を抑えられる可能性もあるため、有用性はあります。
ハードウェアでは、ソフトウェアと異なり圧縮専用チップなどを用いるため、業務で使用するタスクの処理速度が遅くなることはありません。
ソフトウェアによる圧縮を選んだC社
C社では、設定難易度が低いソフトウェアのデータバックアップを選びました。すると、上記のようなソフトウェアならではのタスク処理速度の低下が問題になってきてしまいました。1日に1回のバックアップであれば、問題視されなかったのですが、C社ではリアルタイムでバックアップする必要があったのです。
また、格納するファイルによっては、データ圧縮が機能しないことがあるということも、事前知識から抜け漏れていました。例えば、JPEGのような画像データやPDFなどが該当します。
このような認識の違いから、C社では、ソフトウェアのデータバックアップを断念し、ハードウェアのデータバックアップに移行し、専門のサポートの手を借りてリプレイスすることになりました。
自社にあうデータバックアップのシステムを!
データバックアップの失敗例はいかかでしたでしょうか。たとえ現在の自社にあうバックアップ方法を選んでいても、自社の業務形態が変われば、活用するデータバックアップシステムも取り替える必要がでてきてしまいます。数年後の変化を見極め、導入を検討してみてください。