Windows system >> Windowsの知識 >  >> Linuxシステムチュートリアル >> Linuxについて >> Linuxのcurlコマンドの操作例の概要

Linuxのcurlコマンドの操作例の概要

  

curlはオープンソースのファイル転送ツールです。Linuxシステムに適用することができます。このツールを使用したい場合は、curlコマンドのパラメータを理解する必要があります。操作例では、興味のある友達が理解することができます。

アップロードおよびLinuxカール、支持体上にファイルをダウンロードするには、総合的な転送ツールですが、伝統的に、ツールをダウンロードするためのURLを参照するために使用しました。

構文:#curl [option] [url]

共通パラメータ:

-A / - user-agent "string"サーバーに送信するユーザーエージェントを設定します。

-b / - cookie "名前=文字列/ファイル" cookie文字列またはファイルの読み取り場所

-c / - cookie-jar "file"操作の最後にcookieを書き込みますこのファイルに

-C / - continue-at "offset"ブレークポイントcontinue

-D / - dump-header "file"このファイルにヘッダ情報を書き込む

-e / - 参照元のURL

-f / - 失敗接続が失敗したときにhttpエラーを表示しない

-o / - outputこれに出力を書く

-O / - ファイル内のリモート名このファイルに出力を書き込み、リモートファイルのファイル名を保持します。

-r / - range "range" HTTP /1.1から取得またはFTPサーバーのバイト範囲

-s / - サイレントサイレントモード。何も出力しません。

-T / - upload-file "file"ファイルをアップロードします。

-u / - user "user [:password]"サーバーのユーザーとパスワードを設定します。

-w / - 書き出し[フォーマット]出力が完了したら

-x / - proxy "host [:port]"指定したポートでHTTPプロキシを使用します。

- #/ - progress-barプログレスバーに現在の転送ステータスが表示されます。

例:

1.基本的な使い方

#curl http://www。 Linuxidc.com

実行後、www.linuxidc.comのHTMLが画面に表示されます。

Ps:linuxは何度もインストールされるので、デスクトップはインストールされません。ブラウザがないため、この方法はサーバーがWebサイトにアクセスできるかどうかをテストするためにもよく使用されます。

2.アクセスしたWebページを保存します。

2.1:Linuxリダイレクト機能を使用して保存します。

#curl http://www.linuxidc.com》 linuxidc.html

2.2:curlに組み込まれているオプション:-o(小文字)を使ってページを保存することができます。

$ curl -o linuxidc.html http://www.linuxidc.com

100%が表示されれば、保存は成功です。

%Total%Received%Xferd Average速度時間時間時間現在のダウンロード数

アップロードアップロード残りの合計速度

100 79684 0 79684 0 0 3437k 0 - : - : - - : - : - - : - : - 7781k

2.3:curlの組み込みオプションを使用することができます:-O(大文字)ファイルをWebページに保存するために使用します。

これ以降のURLはファイル固有のものです。そうでなければ、それをキャッチすることはできません。

#curl -O http://www.linuxidc.com/hello.sh

3.テストページの戻り値

#curl -o /Dev /null -s -w%{http_code} www.linuxidc.com

Ps:このスクリプトでは、これはWebサイトの通常の使用に対する非常に一般的なテストです。

4、プロキシサーバーを指定します。そしてそのポート

インターネットにプロキシサーバーを使う必要がある場合(例えば、プロキシサーバーを使ってインターネットにアクセスしたり、他の人にカールウェブサイトを使ってブロックされている場合)、幸い、curlは組み込みオプションを使ってプロキシを設定することをサポートしています。-x

#curl -x 192.168.100.100:1080 http://www.linuxidc.com

5、cookie

Webサイトの中にはセッション情報を記録するためにクッキーを使うものがあります。クロムなどのブラウザの場合、クッキー情報は簡単に処理できますが、関連するパラメータをcurlに追加することでクッキーを処理するのは簡単です。

5.1:クッキー情報をhttp応答に保存します。組み込みオプション:-c(小文字)

#curl -c cookiec.txt http://www.linuxidc.com

実行後、Cookie情報はcookiec.txtに格納されます。 Br>

5.2:httpレスポンスにヘッダ情報を保存してください。組み込みオプション:-D

#curl -D cookied.txt http://www.linuxidc.com

実行後、Cookie情報はcookied.txtに保存されます。

注:-c(小文字)によって生成されたcookieは、-Dのcookieと同じではありません。

5.3:Cookieの使用

多くのWebサイトでは、規則に従って自分のWebサイトにアクセスしているかどうかを判断するためにCookie情報を監視しているため、保存されたCookie情報を使用する必要があります。組み込みオプション:-b

#curl -b cookiec.txt http://www.linuxidc.com

6.ブラウザを模倣する

Webサイトによっては特定のものを使用する必要があります。ブラウザはそれらにアクセスするために行きます、そしてまたあるものはあるバージョンを使う必要があります。 Curl組み込みオプション:-A Webサイトにアクセスするためのブラウザを指定することができます。

#curl -A' Mozilla /4.0(互換性のある; MSIE 8.0; Windows NT 5.0)  http://www.linuxidc。 Com

このサーバーはIE8.0を使ってアクセスすると見なされます。

7、偽造リファラー(盗用チェーン)

多くのサーバーはhttpアクセスのリファラーをチェックしますアクセスを制御します。たとえば、最初にホームページにアクセスしてから、ホームページのメールボックスページにアクセスすると、アクセスメールボックスの参照元アドレスは、成功したホームページの後のページのアドレスですサーバーのメールボックスページアクセスの参照元アドレスがホームページのアドレスではないと判断された場合海賊である

Curl組み込みオプション:-eで参照元を設定できます

#curl -e' www.linuxidc.com' http://mail.linuxidc.com

これにより、サーバーはwww.linuxidc.comからリンクをクリックしていると判断します。

8.ファイルをダウンロードします。

8.1:curlを使用してファイルをダウンロードします。

#組み込みオプションを使用:-o(小文字)

#curl -o dodo1.jpg http:www.linuxidc.com/dodo1.JPG

#組み込みオプションを使用:-O(大文字)

#curl -O http://www.linuxidc.com/dodo1.JPG

これにより、ファイルはサーバー上のローカル名に保存されます。

8.2:ループダウンロード

時々ダウンロードイメージは前の部分の名前と同じにすることができます、最後の末尾の名前は異なります。

#curl -O http://www .linuxidc.com /dodo [1-5] .JPG

これでdodo1、dodo2、dodo3、dodo4、dodo5がすべて保存されます。

8.3:名前の変更

#curl -O http://www.linuxidc.com/{hello,bb}/dodo[1-5].JPG

ダウンロードしたhelloとbbのファイル名はどちらもdodo1なので、 Dodo 2、dodo 3、dodo 4、dodo 5。そのため、2回目のダウンロードは最初のダウンロードを上書きするため、ファイルの名前を変更する必要があります。

#curl -o#1_#2.JPG http://www.linuxidc.com/{hello,bb}/dodo[1-5].JPG

これはhello /にありますファイルdodo1.JPGはhello_dodo1.JPGとしてダウンロードされ、他のファイルも同じ方法でプッシュされるため、ファイルが上書きされるのを効果的に回避できます。
Previous12次のページ合計2ページ

Copyright © Windowsの知識 All Rights Reserved