負荷分散クラスタ技術

  
はじめで
存在、両方のインターネットのような企業ネットワーク、キャンパスネットワークまたは広域ネットワークで、事業開発のボリュームは過去を超えて最も楽観的な推定値である、インターネットブームサージング、新しいアプリケーションの無限ストリームその時点で最適な構成に従ってネットワークが構築されていても、すぐにそれは圧倒されます。特に、各ネットワークの中核部分、そのデータトラフィックと計算強度、単一のデバイスが余裕がないように、そして同じ機能を達成するために複数のネットワークデバイス間で合理的な量のトラフィックを達成する方法機器がビジー状態で他の機器が十分に活用されていないという状況が問題となっており、負荷分散メカニズムが出現しています。サーバーの帯域幅を拡張し、スループットを向上させる、ネットワークのデータ容量を高め、ネットワークの柔軟性と可用性を高めるために、安価で効果的な方法を提供し、既存のネットワークインフラストラクチャの上に構築されたバランシングで
ロード。主に次のタスクを実行します。ネットワークの輻輳問題の解決、サービスに近いサービスの提供、地理的な独立性の実現、ユーザーへのアクセス品質の向上、サーバーの応答速度の向上、サーバーおよびその他のリソース利用効率の向上、ネットワークの主要部分の回避。一点故障です。

が実際に

を定義し、負荷分散は、伝統的な意味での「均衡」ではない、一般的には、それが一つの場所の負荷を共有するための複数の場所でだけ可能混雑です。 「負荷分散」に変更した場合は、理解したほうがよいかもしれません。端的に言うと、ネットワークにおける負荷分散の役割は、デイシステムのローテーションのようなものです。タスクを完了するために全員に割り当てられ、人を疲弊させないようにします。しかしながら、この意味での平衡は一般的に静的であり、すなわち所定の「回転」戦略である。

と義務にシステムの電源を入れ異なり、リアルタイムのデータパケットに分析ツールの数によって動的負荷分散、ネットワーク内のマスタデータのトラフィック状況、外出するタスクの合理的な配分。この構造は、ローカルロードバランシングと地理的ロードバランシング(グローバルロードバランシング)に分けられ、前者はローカルサーバクラスタのロードバランシング、後者は地理的に異なる場所とネットワークのペアを指します。サーバークラスタ間の負荷分散

所望のサーバプログラムの別のコピーを実行する各サービスサーバ・クラスタ・ノード、例えばウェブ、FTP、Telnet、または電子メールサーバプログラムとして。 Webサーバーで実行されているサービスなど、一部のサービスでは、プログラムの1つのコピーがクラスタ内のすべてのホストで実行され、ネットワーク負荷分散によってこれらのホスト間で作業負荷が分散されます。他のサービス(電子メールなど)では、ネットワーク障害が発生した場合に、ネットワーク負荷分散によってネットワークトラフィックを1つのホストに転送し、他のホストにトラフィックを移動できるワークロードを1つのホストのみが処理します。既存のネットワークアーキテクチャ上で
負荷分散技術で
構造は、負荷分散が向上し、帯域幅やサーバ増加のスループットを拡張ネットワークデータ処理能力を強化するために、安価で効果的な方法を提供しますネットワークの柔軟性と可用性これは、主に次のタスクです:

◆は、ネットワークの輻輳の問題を解決し、最寄りのサービスは、サーバーの応答性を改善するために、品質
◆へのより良いアクセスをユーザーに提供するために場所の独立
◆を達成するために提供さ
広い意味

で均衡破壊荷重の単一の点を避けるために◆ネットワークの重要な部分を
の利用効率を向上させるために◆サーバや他のリソースは、専用のゲートウェイ、ロードバランサ、またはそれにいくつかの特別なソフトウェアを使用してを設定しますか、契約に基づき実装されました。ネットワークの負荷分散アプリケーションでは、ネットワークのさまざまなレベルから始めて、ネットワークのボトルネックに従って特定の分析が実行されます。クライアントアプリケーションから開始点の垂直分析まで、OSIの階層モデルを参照して、負荷分散テクノロジの実装をクライアント負荷分散テクノロジ、アプリケーションサーバーテクノロジ、高レベルプロトコル交換、およびネットワークアクセスプロトコル交換に分けます。このモデルは、クライアントの特定の上で実行されているネットワークを指し

のバランスをとる


ロード・バランシング・レベルで
◆クライアントベースのロードプログラムは、サーバーグループの実行パラメータを定期的または不定期に収集します。CPU使用率、ディスクIO、メモリ、その他の動的情報、そして選択戦略に従って、サービスを提供できる最善のサーバー、ローカルアプリケーションを見つけます。それに送るように要求してください。負荷情報収集プログラムが、サーバが故障したことを発見すると、別の代替サーバがサービスオプションとして見つけられる。プロセス全体はアプリケーションに対して完全に透過的であり、すべての作業は実行時に処理されます。したがって、これも動的負荷分散技術です。

しかし、この技術の普遍的な問題があります。各クライアントはこの特別な収集プログラムをインストールしなければならず、そしてアプリケーション層の透過的な動作を確実にするためには、ダイナミックリンクライブラリまたは埋め込み方法を通して各アプリケーションを修正する必要がある。取得プロセスは、リダイレクトの過程でサーバーに再度送信されます。アプリケーションごとに、コードはほとんど再開発され、ワー​​クロードは比較的大きくなります。

したがって、この技術は、アプリケーション開発者のために必要な多くの分散コンピューティングパワーがあまりにも多くの要求を持っていない、そのような特定の独自のタスクの実装のような特殊な用途に適用されます。 Javaアプリケーションは仮想マシンに基づいているため、アプリケーション層と仮想マシンの間に中間層を設計して負荷分散を処理できます。クライアント負荷が三層構造を形成し、特定のプラットフォームに、ステントの中間層のバランスをとる場合で
◆アプリケーションサーバ負荷分散は、クライアント・アプリケーションが作られ、特別な変更を必要としないかもしれません、要求は、中間層アプリケーションサーバーを介して対応するサービスノードに均等に分散されます。より一般的な実装はリバースプロキシテクノロジです。リバースプロキシサーバーでは、リクエストを複数のサーバーに均等に転送したり、キャッシュされたデータを直接クライアントに返すことができるため、静的Webページのアクセス速度をある程度向上させることができ、負荷分散を実現できます。リバースプロキシの利点を使用して

あなたは、高速負荷分散およびキャッシュプロキシサーバーを組み合わせた便利なパフォーマンスを提供することができるということです。ただし、サービスごとにリバースプロキシサーバーを開発する必要があるため、簡単な作業ではありません。

リバースプロキシサーバー自体は、高効率を達成することができますが、しかし、すべてのエージェントに対して、プロキシサーバーは2つの接続、外部接続、ペアの接続を維持しなければならないので、特に高い接続のためにリクエスト、プロキシサーバーの負荷も非常に大きいです。リバースプロキシは、アプリケーションプロトコルに最適化された負荷分散ポリシーを実行して、サービスを提供するために同時に最もアイドル状態の内部サーバーにアクセスすることができます。ただし、同時接続数が増えると、プロキシサーバー自体の負荷が非常に大きくなり、最後にリバースプロキシサーバー自体がサービスのボトルネックになります。

NCSAのWebのバランスをとるスケーラブル

◆ドメインネームシステムベースのロードは、WebのポーリングシステムダイナミックDNS技術を使用する最初のものです。 DNS内の複数のアドレスに同じ名前が設定されているため、この名前を照会するクライアントはアドレスの1つを取得し、異なるクライアントが異なるサーバーにアクセスして負荷分散を実現します。この技術は、初期のYahooサイト、163など、多くの有名なWebサイトで使用されています。動的DNSポーリングは、実装が簡単で、複雑な設定や管理を必要としません一般的に、バインド8.2以上のUnix系システムでも実行できるため、広く使用されています。

DNSロードバランシングは、シンプルで効果的な方法ですが、多くの問題があります。

最初のドメインネームサーバは、サービスノードの障害であれば効果的なサービスノードは、システムがまだ失敗にアクセスするユーザーを引き起こして、ノードへのドメイン名の解決よりも名前を付けるかどうかを知ることはできません。データは、時間のDNS TTL(生存時間)TTL複数回マーク、他のDNSサーバーとサーバーとの対話は、アドレスデータを回復するために必要とされるリフレッシュので

は第二に、別のIPアドレスを取得することが可能です。したがって、アドレスをランダムに割り当てることができるようにするには、TTLをできるだけ短くし、異なる場所にあるDNSサーバーが対応するアドレスを更新してアドレスをランダムに取得することができます。ただし、TTLを短く設定しすぎると、DNSトラフィックが増加し、追加のネットワーク問題が発生します。

は最後に、サーバーの違いを区別できないと、サーバの現在の動作状態を反映するものではありません。 DNSロードバランシングを使用するときは、異なるクライアントコンピュータが異なるアドレスを均等に取得できるようにする必要があります。たとえば、ユーザーAは少数のWebページを閲覧するだけで、ユーザーBは大量のダウンロードを実行することがありますドメインネームシステムには適切な負荷ポリシーがないため、単純なラウンドロビンバランシングであり、ユーザーAの要求を負荷の低いサイトに送信するのは簡単です。そして、負荷がすでに高いサイトにBの要求を送信します。したがって、動的DNSポーリングは動的バランシングには理想的ではありません。

◆いくつかの負荷分散方式への技術契約で
ほかの高レベルの交換は、ロード・バランシングをサポートするための技術的能力、そのURL交換又は7つの転換提案内の合意がありますアクセストラフィックのための高レベル制御方法Webコンテンツ交換テクノロジは、すべてのHTTPヘッダーを調べ、ヘッダー内の情報に基づいて負荷分散の決定を行います。たとえば、この情報に基づいて、HTTPプロトコルのリダイレクト機能など、個人のホームページや画像データにサービスを提供する方法を決定することができます。最高レベル

HTTPはTCP接続上で実行されます。クライアントは、一定のTCPポート番号80サービスを介してサーバーに直接接続してから、TCP接続を介してHTTP要求をサーバーに送信します。プロトコル交換では、TCPポート番号ではなくコンテンツポリシーに従って負荷が制御されるため、アクセストラフィックが保持されることはありません。

は、複数のサーバーに着信要求を取り、そのため、それだけで負荷分散デバイスのためにTCPコネクションを確立することができ、およびHTTPリクエストは郵送でロードバランシングを実行する方法を決定します。 Webサイトのヒット率が毎秒数百または数千回に達すると、TCP接続、HTTPヘッダー情報の分析、およびプロセスの遅延が非常に重要になり、これらの部分のパフォーマンスを向上させるためにあらゆる努力を払う必要があります。

は、負荷分散およびHTTPリクエストヘッダのための有用な情報をたくさん持っています。この情報から、クライアントから要求されたURLとWebページを取得することができ、この情報を使用して、ロードバランシングデバイスはすべてのイメージ要求をイメージサーバーに転送したり、URLのデータベースクエリーの内容に従ってCGIプログラムを呼び出して要求を導きます。専用の高性能データベースサーバーに移動します。

スイッチング技術をコンテンツに精通し、ネットワーク管理者ならば、彼はHTTPリクエストからいくつかのルールを見つけた場合、あなたはまたの利点を取ることができ、特定の顧客に対するサービスを向上させるためにクッキーHTTPヘッダーフィールドスイッチング技術に基づいてWebコンテンツを使用することができますそれはさまざまな決断を下します。 TCP接続テーブルの問題に加えて、適切なHTTPヘッダー情報を見つけて負荷分散を決定する方法は、Webコンテンツ交換テクノロジのパフォーマンスに影響を与える重要な問題です。 Webサーバーが画像サービス、SSL会話、データベーストランザクションサービスなどの特殊機能用に最適化されている場合は、このレベルのフロー制御によってネットワークパフォーマンスが向上します。

◆ネットワークアクセスプロトコル交換

大規模なネットワークは、一般に、ファイアウォール、ルータ、3,4-レイヤスイッチ、負荷分散装置、バッファなどのような特殊な技術的な装置の多数によって形成されていますサーバー、Webサーバーなどこれらの技術的なデバイスを有機的に組み合わせる方法は、ネットワークパフォーマンスに直接影響する重要な問題です。多くのスイッチは現在、一貫したIPアドレスを提供し、複数の内部IPアドレスにマッピングするレイヤ4スイッチングを提供しており、TCPおよびUDP接続要求ごとに、ポート番号に基づいてポリシーに従って内部を動的に選択します。アドレス、パケットをこのアドレスに転送します。
Copyright © Windowsの知識 All Rights Reserved