Windows system >> Windowsの知識 >  >> コンピュータソフトウェアのチュートリアル >> サーバー技術 >> サーバーについて >> IDCエンジンルームの負荷分散サービスについて話しています!

IDCエンジンルームの負荷分散サービスについて話しています!

  
                  

ほとんどの個人用Webサイトは、当初何百人もの人々が共有する仮想的なホスティングスペースにすぎないため、コンテンツの増加と訪問数の増加に伴って、仮想ホストの帯域幅とスペースは需要を満たすことができなくなります。長い間、私は100Mの共有または10Mの排他的な帯域幅を使用して、Webサイト用に別のサーバーを購入することを考え始めなければなりません;そしてWebサイトが発展し続けると、それを訪れるユーザーはすでに全国に広がっています。南と北にミラーサイトとしてサーバーを配置するか、2回線アクセスを使用します;サイトのトラフィック量が多い場合は、単に帯域幅を拡大してミラーサイトを設定すると、間違いなくWebサイトの運用コストと単一サーバーが増加します。同時トラフィックが大きく、1つのサーバーに集中している場合は、「サーバーがビジー状態です」と表示され、WebマスターがWebサイトを依然として高トラフィックにするにはどのような方法が必要ですか。より良いアクセス効果がありますか?

これは、負荷分散のトピックが含まれます。

我々は、ロード・バランシング・フィールドので、実際には、基本的にキャッシュ(キャッシュ)+ミラーリング技術が役割を分割している多くのアプリケーションがあり、以前にCDN、事実を加速するCDNの添加が、それはシャントた効果を議論しましたしかし、どのようにオフロードするかはまだ起動するために負荷分散装置を必要とします、それで我々は今日負荷分散技術に専念しています。負荷分散サービスについて負荷分散サービスは、サーバーファーム内のすべてのサーバーとアプリケーション間の通信負荷を分散し、リアルタイムの応答時間に基づいて判断し、タスクを負荷に引き渡すことができます。真のインテリジェントな通信管理と最適なサーバーファームパフォーマンスを処理するための軽量サーバー。ロードバランシングテクノロジはレイヤ4からレイヤ7のアプリケーション/コンテンツを制御し、レイヤ7インテリジェントセッションリカバリテクノロジを使用し、HTTP 400、500、および600を検出して、さまざまなタイプの顧客およびアプリケーションの優先順位付けと差別化サービスを可能にします。一連のエラートランザクションを透過的に別のサーバーにリダイレクトし、システムがトランザクションを完了できるようにします。サーバーのフェイルオーバーと複数の冗長性機能により、トラフィックは障害箇所を迂回し、サイトの運用とアクセスを維持できます。負荷分散ので
方法:

負荷分散方法で達成するために、多くのオンラインディスカッションがあり、以下の参考文献のいくつかの操作を行います。特定のサーバーソフトウェアに基づいて

を負荷分散

多くのネットワークプロトコルはHTTPプロトコルでこのような支持Locationディレクティブなどの機能を「リダイレクト」をサポート
、ブラウザがこのコマンドは自動的に場所によって指定された別のURLにリダイレクトされます受け取りますで。 Send Locationコマンドはサービス要求の実行以上のものであるため、Webサーバーは自分自身が高負荷であると見なした場合は常にブラウザによって要求されたWebページをWebサービスに直接送信せず、代わりにLocationを送信します。ブラウザが、サーバクラスタ内の他のサーバに必要なページを取得できるようにするためのディレクティブ。このように

、サーバ自体は、この機能をサポートしている必要がありますが、そのようなサーバは、サーバの負荷が比較的小さいとしませんオフにリダイレクトすることを保証することができる方法として、特定の実装には多くの困難があり、 Locationコマンドを再度送信しても、Locationディレクティブとブラウザはこのサポートを受けられないため、ブラウザ上で無限ループを簡単に形成することができます。このように、実用的なアプリケーションは稀である

したがって、この方法で実装サーバクラスタリングソフトウェアの使用も少ないです。場合によっては、CGI(FastCGIまたはmod_perl拡張を使用してパフォーマンスを向上させる)を使用して負荷を共有することもできますが、Webサーバーは依然としてシンプルで効率的な機能を維持します。この場合、Locationループを回避するタスクはユーザーのCGIプログラムによって処理されます。さあ

サーバソフトウェアを分散ソフトウェアの負荷を修正する必要性のバランスをとる DNSベースの負荷、このように頻繁に上回る、ロード・バランシングは最適なサーバソフトウェアの外部で行われます既存のサーバーソフトウェアの利点を利用するために。 DNSサーバーでは、同じ名前を複数の異なるアドレスに設定することができ、名前を解析するときに最後に名前を照会するクライアントがその名前を取得します。アドレスの1つしたがって、同じ名前に対して、異なるクライアントは異なるアドレスを取得し、負荷分散を実現するために異なるアドレスでWebサーバーにもアクセスします。あなたが前後に3台のWebサーバーHTTPリクエストwww.ghq.netに対処したい場合は、データフィールドは同様の結果を、以下の例を備えについてで
の例では、ドメインのDNSサーバに設定することができます。
その後、外部クライアントはwwwに対応して異なるアドレスをランダムに取得し、それ以降のHTTP要求は異なるアドレスに送信されます。利点

DNSロードバランシングは、シンプル、簡単であり、サーバは、現在を含め、ヤフーなどのWebサイト上で使用されるインターネット上のどこにでも配置することができます。欠点の1つは、DNSデータをタイムリーに更新するには、一般にDNS更新時間を短く設定する必要がありますが、小さすぎるとDNSデータを変更した後に余分なネットワークトラフィックが発生することです。すぐには効力を発揮することはできませんが、DNSロードバランシングはサーバー間の違いを認識できず、よりパフォーマンスの高いサーバーに要求を割り当てることも、サーバーの現在の状態、または顧客要求の集中を知ることもできません。サーバー上の時折状況。プロキシサーバーを使用してリクエストを内部Webサーバーに転送することができますこのアクセラレーションモードを使用すると、静的Webページのアクセス速度を明らかに向上させることができます。したがって、負荷分散の目的で、プロキシサーバーが複数の内部Webサーバーの1つに要求を均等に転送できるようにするためにこのテクノロジを使用することも考えられます。このプロキシ方式は通常のプロキシ方式とは異なり、クライアントはプロキシを使用して複数の外部Webサーバにアクセスしますが、このプロキシ方式は内部Webサーバにアクセスするために使用されるため、リバースとも呼ばれます。プロキシモード

リバースプロキシは、この機能を達成するために、特に複雑な作業とみなすことはできませんが、負荷分散で特に高い効率を必要とするので、それは非常に単純な実装することではありません。エージェントごとに、プロキシサーバーは外部接続用と内部接続用の2つの接続を開く必要があるため、接続要求の数が非常に多いと、最後にプロキシサーバーの負荷が非常に大きくなります。リバースプロキシサーバーはサービスのボトルネックになる可能性があります。で
例では、負荷分散を達成するために、Apacheのmod_rproxyモジュールを使用して、同時接続の数によって与えられる同時接続の数は、Apache自体を限定します。一般に、それを使用して、特に多数の接続を持たないようにすることができますが、各接続には検索などの負荷分散のために多くの処理リソースを消費するサイトが必要です。一緒に高速負荷分散およびキャッシュプロキシサーバーと組み合わせることができるリバースプロキシを使用するので
利点は、有用なパフォーマンスを提供する追加のセキュリティで、外部顧客が直接実サーバにアクセスすることはできません。そしてそれは、より良い負荷分散戦略を達成することができ、そして負荷が特定のサーバに集中するという偶然の現象なしに、負荷は非常にバランスの取れた方法で内部サーバに分配されることができる。

NATベースの負荷分散テクノロジ


ネットワークアドレス変換は、内部アドレスと外部アドレスの間の変換を行うことで、内部アドレスを持つコンピュータが外部ネットワークにアクセスできるようにします。外部ネットワーク内のコンピュータがアドレス変換ゲートウェイが所有する外部アドレスにアクセスすると、アドレス変換ゲートウェイはそれをマッピングされた内部アドレスに転送できます。したがって、アドレス変換ゲートウェイが各接続を異なる内部サーバアドレスに均等に変換できる場合、外部ネットワーク内のコンピュータは変換によって取得されたアドレスでサーバと通信し、それによってロードシェアリングの目的を達成します。で
アドレス変換はソフトウェアで実現することができ、また、ハードウェアによって実現することができます。ハードウェアを使用する動作は一般にスイッチングと呼ばれ、交換機がTCP接続情報を保持しなければならないとき、OSIネットワークレイヤに対するこの動作はレイヤ4スイッチングと呼ばれる。ロードバランシングされたネットワークアドレス変換のサポートは、カスタムハードウェアチップに基づいているためパフォーマンスが優れているという点で、レイヤ4スイッチの重要な機能であり、多くのスイッチは400MB〜800MBのレイヤ4スイッチング機能を備えています。ネットワークアドレス変換の負荷分散に基づいてソフトウェアを使用して達成するためで
方法が実用的でより多く持っているだろう、いくつかのベンダーが提供するソリューションに加えて、より効果的な方法は、このタスクを達成するためにフリーソフトウェアの自由を使用することです。これには、Linux Virtual Server ProjectでのNAT実装、またはFreeBSDによるnatdの改訂が含まれます。一般に、このソフトウェアを使用してアドレス変換を実行すると、中央ロードバランサには帯域幅の制限があり、100MBのファストイーサネットの条件下では最大80MBの帯域幅になります。 60MBの利用可能な帯域幅

提供

IDC
IDC負荷分散サービスが提供する負荷分散サービスは以下のとおりです。


カテゴリは(サーバー負荷分散)共有負荷分散サービス
(専用負荷分散サービス)オフサイト負荷分散サービス
(Webサイト負荷分散サービス)オフサイト負荷分散サービス< BR>(Webサイト負荷分散サービス)インターネットデータセンターが提供するプロフェッショナルな負荷分散サービスは、ユーザーのサーバーに対してローカル負荷分散(サーバー負荷分散)を実行でき、実際の応答時間に応じて強力で効果的な負荷分散アルゴリズムを採用します。パフォーマンスの異なるサーバー間でのインテリジェントな負荷分散。サーバーファーム内の各サーバーを最大限に活用して既存の投資を保護し、一般サーバーのパフォーマンスがシステムのボトルネックにならないようにし、パフォーマンスの高いサーバーリソースを完全に取得します。使用してください。ほとんどのテレコムIDCインターネットデータセンターは、共有負荷分散(Shared Load Balancing)を確立しており、機器室でこの付加価値サービスを購入するすべての管理対象顧客のサーバーは、一部のハイエンドユーザーの機器室で購入した負荷分散機能を共有できます。一部のデータセンターでは、共有ユーザーが負荷分散デバイスリソースをめぐって競合する可能性を回避し、個々の大規模顧客向けに独自の負荷分散機能を確立するように設計された専用負荷分散サービスも導入しました。良い結果を確実にするために。共有負荷分散サービス管理された顧客は、IDCの共有負荷分散を他の顧客と共有して、低コストでサーバー負荷分散サービスを利用することができます。専用ロードバランシングサービスIDCは、データセキュリティを確保しながら、より優れたロードバランシングを達成するために、管理された顧客に専用のロードバランシング機能を提供することもできます。のみローカルサーバーにただし、サイト

への同時アクセスの量(つまり、上のサーバルームである)負荷分散は十分ではありません、負荷分散サービスのニーズのほとんどは素晴らしいです、これらのサイトのほとんどは、リモート・ミラーサーバーですそのため、より専門的なIDCルームで使用されている負荷分散デバイスも、ネットワークルートを通過してリモートミラーサイト間の負荷分散を行うことができますこのタイプの負荷分散は、Webサイト負荷分散と呼ばれます。 WebサイトのロードバランシングサービスIDCのロードバランシングサービスは、ネットワークルートとリモートミラーサイト間のロードバランシングに侵入する可能性があります。負荷分散サービス用のその他のサービスオブジェクト:負荷分散サービスは、管理対象サーバーまたはスタンドアロンサーバーだけではなく、ユーザーのファイアウォールにも使用できます(ファイアウォール)。ロードバランシングのためのロードバランシングおよび仮想ホスティングロードバランシング、効果および基本的な原則も一般的です。zh-CN"],null,[1],zh-TW"]]]

Copyright © Windowsの知識 All Rights Reserved