« 2005年07月 | メイン | 2005年09月 »

2005年08月30日

sort について

sort -t でセパレータを指定できる
指定無しなら空白が指定されるのかな?

例)sort -t : -n -k 5

コロン区切りで 数値順に5番目のフィールドでソート

投稿者 muuming : 12:16 | コメント (0)

2005年08月29日

特殊な変数

$n nは数字であり、$0はシェルスクリプト名、以降$1、$2・・・は第1引数、第2引数・・・である。第10引数以降は${10}、${11}・・・で参照する。
$# 与えられた引数の個数
$@ $0以外の全ての引数("$@"のようにダブルクォーテーションで囲んだ場合"$1" "$2" ・・・"のように個別に展開される。)
$* $0以外の全ての引数("$@"のようにダブルクォーテーションで囲んだ場合"$1 $2 ・・・"のように展開される。)
$? 最後に実行したコマンドの終了ステータス
$! 最後に実行したバックグラウンドコマンドのPID
$$ シェルのPID
$- 現在のオプションフラグ

投稿者 muuming : 17:00 | コメント (0)

2005年08月24日

シェルのデバッグ

スクリプトのデバッグしたい部分に
set -x
を入れて
デバッグもういいよって部分で
set +x
で戻してあげる

この間はデバッグしやすくなる。


全部デバッグしたい場合は
/bin/sh -x スクリプト名で実行すれば
今なにしてるかわかるっぽ

投稿者 muuming : 21:55 | コメント (0)

wget !便利なダウンローダー

Wgetを使おう的ページ
このページには主にGNU Wgetの使い方が書いてあります。
▲メインページに戻る
目次

* Wgetとは? …Wgetとは何かを解説
* なぜWgetか? …どうしてWgetを使うのかを解説
* 簡単な使い方 …簡単な使い方、用例
* オプションについて …Wgetで使えるオプションすべての解説
* 専門用語の解説 …オプションのところで使われてる難しい用語の解説

□ Wgetとは?

 WgetとはUNIX上で使えるダウンロード支援ツールであり、ホームページ自動巡回ツールでもある。

 この種のツールはWindowsとかにはいっぱいあるが、UNIXには少ない。 Windownsのダウンロード支援ツールではIria、DCさくら、ReGet、GetRight、FlashGet…、などがある。ホームページ自動巡回ツールもいっぱいあるらしい…。
 UNIXで同様のツールでは、他にもHTTPDown があります。こちらは、日本人が作っているので、マニュアルも分かりやすいです。また、Timidty(ソフトウェアMIDI)とかの改良をしている方が作っているhttpget もあります。こちらも作者は日本人です。こちらはperlで作られてますが複数のプロセスからの同時アクセスを使っているらしく、他のソフトより速いらしいです。

 wgetではURL(ホームページのアドレス)を指定すると、その指定したページ(もしくはファイル)をそのまま自分のハードディクス内にダウンロードしてくれる。
また、やり方によっては、ホームページをそのままの構造通りにダウンロードしてくれる。つまり、ホームページのコピーを作れる。このツールを使って自分の見たいホームページをダウンロードしておけば、あとでゆっくりとホームページを見れる。
実際の使用目的としては、アーカイブファイルやMIDIファイルや画像ファイルのあるホームページをダウンロードするということがある。これは、ブラウザとかで、いちいちマウスで一つ一つ「対象をファイルに保存」をやることに比べると数十倍楽である。

このツールはソースファイルで配布されているが、 GNUプロジェクトで作られているのでフリーソフトであり、コンパイルが簡単である。実際に、

tar zxvf wget-1.5.3.tar.gz
cd wget-1.5.3
./configure
make

だけでコンパイルできる(筆者はLinux、SunOSで確認済み)。なお、srcディレクトリの下にwgetができます。
あと、コンパイラさえあればWindowsでもコンパイルできるらしいですが、ちょっと難しいらしいので、ネット上で探して見てください。実際、検索サーバとかで見つかりました。

Wgetを配布しているFTPサイトは(一部つながらないところもあるが)、

・ftp://ring.jaist.ac.jp/pub/
大学系は回線太く速いです。北陸先端大のRingサーバです。
・ftp://ftp.media.kyoto-u.ac.jp/pub/
大学系は回線太く速いです。京都大学のMediaセンターのFTPです。
・ftp://sunsite.sut.ac.jp/pub/archives/gnu/
SUNサイトのミラーです。理科大なので大学系は回線が太く速いです。
・ftp://prep.ai.mit.edu/pub/gnu/
GNUの元のサイト。重い(普通の人がアクセスすると重くなる)のであまり使わない方がいい。
・ftp://gnjilux.cc.fer.hr/pub/unix/util/wget/
Wgetのメンテナンスサイト。Wgetの最新バージョンや開発バージョンなど、いろいろ手にはいるらしい。
など、

以上のところなどにwget-1.5.3.tar.gzなどのファイル名で置いてあります。この他にも、GNU系のアプリケーションが置いてあるところには結構どこでもあると思います。
□ なぜWgetか?
Wgetを使うことの利点を以下にあげる。

○GNUプロジェクトで作られている。
Wgetはフリーソフトであり、ソースファイルも公開されており、改良も自由であり配布も自由である。
○ダウンロードが確実である。
よくNetscapeなどのブラウザ上で大きなファイルを ダウンロードするとダウンロードを失敗することがしばしばある。 これは、ネットワーク転送の問題が原因であるので、普通のダウンロードでは避けられない問題である。 しかし、Wgetはリトライ(レジューム)機能によりこの失敗を回避できる。 一回失敗しても前回ダウンロードしたところまではキャッシュに溜っているので、 前回のダウンロードの時間が無駄にならない。
この手のWindows上のソフトとしてはIriaやReGettが有名であるけど、UNIXではあまり聞かない。
○プロクシ指定ができる。
普通のウェブサーフィンやダウンロードは、直接相手のホストにアクセスしてデータをもらって来る。 しかし、プロクシサーバを中継しておくと、プロクシサーバ上のキャッシュにこのデータの情報が溜っていく。 そのため、次のアクセスからは相手のホストに直接アクセスしなくてもこのプロクシのキャッシュからデータをもらって来れる。
普通は自分の所属しているところ(大学、プロバイダ)のプロクシを使うが、プロクシを外部に指定することもできる。 外部のプロクシを使うと遅くなるように思えるが、 この外部のプロクシのあるサーバが性能のいいマシンで多くの情報が蓄積されていて、 この外部のプロクシと自分の所属しているマシンとが太い回線でつながっていてる場合、 この外部のプロクシを使った方が速くなる。 例えば、大学同士(ドメインが.ac.jp)は結構太い回線でつながっていることが多い。
○軽い
Wgetは処理がとても軽い(CPUやメモリをあまり使わない)ので複数起動することが可能である。
○多くのカスタマイズができる
プロクシの設定を始めとして、かなり多くの設定ができる。 この設定を.wgetrcというファイルに前もって書いておける。
○左手だけでコマンドが打てる
wgetという文字は左手だけで打てる。
なぜ、これが利点かというと、Netscapeとかで気に入ったページやファイルが 見つかりこのページやファイルをダウンロードしたいと思ったら時、 Netscapeから直接ダウンロードしてもいいが、大きなファイルとかになると信用度が下がるし、 多くの物をダウンロードしようと思ったらそれだけマシンに負担がかかる。 こういったとき、左手でwgetの文字をうち、右手のマウスでURLを コピー&ペーストしてやれば、簡単にダウンロードできる。
○UNIX上で使える
UNIXのコマンドであるために、perlやawkといった様々な文章処理言語(?)などと組合せが可能で、 持って来たHTMLのソースをこれらのコマンドで編集して自分の欲しいファイルだけを 効率的に持ってこれる。
○FTPだけでなく、HTTPもまるごと持って来れる
FTPをまるごと持って来てミラーリングとかしたいだけなら、NcFTPとか使えばいいけど、 HTTPとなると使えない。まあ、Webページのコピーに使えるので、便利。

□ 簡単な使い方

 このWgetは慣れれば、とても使いやすい。しかし、マニュアルが英語であり、しかもTextinfo形式なので (texi2dviというツールでdvi形式にも変換できるが)、初心者ではとっつきにくい。
そこで、簡単な使い方を以下にいくつか書いてみます。 (難しい用語の所にはリンクがあるので分からないときはクリックすると解説に飛びます)
基本的使い方

○基本1
wget http://seagull.cs.uec.ac.jp/~horiuc-m/index.html
http://seagul..../index.html(このページの文章のみ)をダウンロードする。
○基本2
wget http://seagull.cs.uec.ac.jp/~horiuc-m/pakage.zip
http://seagul..../pakage.zip(このzipファイルのみ)をダウンロードする。 大きなファイルは、このように落すと確実である。
○基本3
wget -r http://seagull.cs.uec.ac.jp/~horiuc-m/index.html
http://seagull..../index.htmlから再帰回収(-r)でホームページをダウンロードする。 つまり、ホームページをまるごと自分のディスクに持って来る。
また、深さはデフォルトの5まで回収する。 これを実行すると、実行したディレクトリにホスト名と同様(ここではseagull.cs.uec.ac.jp)のディレクトリができる。 その下にダウンロード先と同じようなディレクトリ構造ができる。

応用的使い方

○応用1
wget -r -L -l 10 http://seagull.cs.uec.ac.jp/~horiuc-m/index.html
http://seagull....を再帰回収(-r)で相対リンクだけ(-L)をたどり 深さ10まで(-l 10)でダウンロードする。 HTTP(ホームページ)の場合はこの使い方が一般的。
○応用2
wget -r -np ftp://seagull.cs.uec.ac.jp/pub/foo/
ftp://seagull.cs.uec.ac.jp/のpub/foo/ディレクトリ以下だけ (-npにより親ディレクトリを回収しなくする)を再帰回収(-r)する。 (深さはデフォルトの5)
FTPの場合はこのやり方が一般的。 また、ある一つのホームページ(HTTP)だけをまるごとダウンロードするのにも便利。
○応用3
wget -r -A .jpg,.gif -nd http://seagull.cs.uec.ac.jp/~horiuc-m/index.html
http://...にリンクしてあるjpgやgifといった画像ファイル(このページをブラウザで開くと表示する画像) だけ(-A .jpg,.gif)をカレントディレクトリ(-nd)にダウンロードする。 なおこの場合、深さは自動的に1(指定ページのリンクだけ)となる。(画像ファイルにリンクはないので、当然)
○応用4
wget -i file
fileというファイルにURLを書き並べておく。このfileに書いてるURLをダウンロードしてこれる。 Netscapeとかでホームページを見ているときに気に入ったページを ファイルにメモしておいて、あとでダウンロードするということが主な使い方である。
○応用5
wget -r -F --base=http://seagull.cs.uec.ac.jp/~horiuc-m/aa.html -i aa.html
aa.htmlというローカルにあるファイルをHTMLとして解釈して(-F)再帰回収(-r)する。 このときにこのaa.htmlは、http://seagull.cs.uec.ac.jp/~horiuc-m/aa.htmlにある (--base=...)ものとしてダウンロードされる。 こうしないと相対リンクがある場合ダウンロードできない。 こうするとNetscapeなどで気に入ったページをローカルに保存しておいて、そこからダウンロードできる。

その他の知っておくと便利なこと

○その他1
-ncオプションを付けておくと、同じものをダウンロードすることとなった場合 (前回途中でコマンドを止めた、エラーで止まったなどで)に、 既にダウンロードしてあるファイルをスキップするので、便利。
○その他2
ダウンロードしたファイルやディレクトリが「~(チルダ)」で始まるものUNIXでは不都合があるため、 「~」は自動的に「%7E」へと変換される。 つまり、~fooというディレクトリは%7Efooという名前でダウンロードされる。 このままだと、ダウンロードしたものブラウザとかで見ると不都合が生じるので、%7Eを外して、fooとでも ディレクトリの名前を変えておきましょう。

□ オプションについて

 このに載せているのは、Wgetのヘルプを筆者が独自に意訳し、適当にコメントとかも付け加えたものです。また、原本よりかなり説明が簡略しているところがあります。理解できていないものとかは適当ですのでそのつもりで。。また、筆者が良く使うコマンドは赤で書いてあります。
 カンマで区切られているのはどちらでも同じものです。
 なお、このオプションはバージョン1.5.3のものです。 (古いバージョンのものでも、おそらく1.5.xのものなら同じだと思います)
基本起動オプション

-V, --version
このWgetバージョンの表示
-h, --help
簡単なヘルプの表示
-b, --background
バックグラウンドで実行する
このとき自動的にwget-logというファイルにログが取られる。 -oオプションでこのファイル名を指定できる
つまり「nohup wget -o wget-log ... &」と同様の処理をする。
-e command, --execute command
初期設定ファイル「.wgetrc」(これについては付属のマニュアル参照)の中に 書けるコマンドを実行できる。

ログと入力ファイルオプション

-o logfile, --output-file=logfile
メッセージのログをファイルに取る
-a logfile, --append-output=logfile
メッセージのログをファイル取る、ファイルが存在するならそのファイルの最後に続いて書き込む
-d, --debug
デバッグ用
-q, --quiet
メッセージを表示しなくする
-v, --verbose
メッセージを表示する
デフォルトがこれ。
-nv, --non-verbose
メッセージの表示を押える。エラーと基本情報は表示する。
-i file, --input-file=file
fileからURLを取得する
-F, --force-html
上の(-iオプション)のfileをHTMLとして解釈する
--base=urlオプションでBase URLを指定する

ダウンロードオプション

-t number, --tries=number
number回リトライのするようにする、0で無限リトライになる
デフォルトは20回
-O file, --output-document=file
fileという名前でダウンロードする
-nc, --no-clobber
既に存在するファイルをダウンロードしない
拡張子が.htmlや.htmのファイルはローカルディスクからURLを取得して残りをダウンロードする
-c, --continue
ダウンロード中のファイルを続きからダウンロードする
--dot-style=style
ダウンロード状況を示す表示をカスタマイズする
-N, --timestamping
タイムスタンプを付ける
デフォルトは付ける。 既にダウンロードしたファイルの更新とかのチェックして 更新されていたらダウンロードする(たぶん)
-S, --sever-response
HTTPサーバの送ってきたヘッダやFTPサーバの送ってきたレスポンスを表示する
--spider
ページがあるかどうか確認するだけでダウンロードしない
以下のやり方で、自分のブックマークのリンク先のアドレスが変わってないかチェックできる
wget --spider --force-html -i bookmarks.html
-T seconds, --timeout=seconds
アクセスのタイムアウトの時間を設定する
デフォルトは15分
0にするとタイムアウトをチェックしない
-w seconds, --wait=seconds
リトライの間の時間を設定する
デフォルトは0
ネットワークが重そうなときはこれを大きめに指定した方がいい
-Y on/off, --proxy=on/off
プロクシのサポートの有無を設定
デフォルトはon
-Q quota, --quota=quota
ダウンロードするファイル大きさを制限する
デフォルトは無制限

ディレクトリオプション

-nd, --no-directories
ディレクトリを作らない、すべてをカレントディレクトリにダウンロードする
-x, --force-directories
ディレクトリを作る(単独のファイルのダウンロードでも作る)
-nH, --no-host-directories
ドメイン名のところのディレクトリを作らない
つまり、http://www.uec.ac.jp/dir/index.htmlをダウンロードしたら、 dir/inddex.htmlが作られる。
--cut-dirs=number
numberだけ、間のディレクトリを省略する
ftp://www.uec.ac.jp/pub/archive/linux/を--cut-dirs=2再帰回収したら www.uec.ac.jp/linux/とダウンロードされる。 -nHと組み合わせるとwww.uec.ac.jpも省略できる。
-P prefix, --directory-prefix=prefix
ダウンロードするローカルディレクトリをprefixに指定する

HTTP オプション

--http-user=user
--http-passwd=password
HTTPサーバ上でのユーザ名とパスワードを指定する
-C on/off, --cashe=on/off
サーバサイドのキャッシュを使うかの設定 デフォルトはon
--ignore-length
まれにCGIなどによる偽のContent-Lengthを出すことによって、 無限にダウンロードを行うことがある。これを防止する。
--header=additional-header
HTTPサーバを通過する追加ヘッダを定義する
--proxy-user=user
--proxy-passwd=password
プロクシサーバ上のユーザ名とパスワードを指定する
-s, -save-headers
HTTPサーバからヘッダを保存する
-U agent-string, --user-agent=agent-string
ユーザエージェントを指定する
デフォルトはWget/1.5.3
Solaris上のNetscape Communicator4.03のふりをしたいなら "Mozilla/4.03 [en] (X11; I; SunOS 5.5.1 sun4u)"と書く
礼儀としてあまりこのオプションは使わない方がいい
Wgetのバージョン1.5.3のマニュアルからは、Netscape社の クレームにより、WgetをMozillaと名乗ってはならないと訂正してある。

FTP オプション

--retr-symlinks
FTPサイト上のシンボリックリンクを普通のファイルの様に回収する
-g on/off, --glob=on/off
ワイルドカードの使用の有無を指定する
デフォルトはon
例えば、以下のように使える
wget ftp://www.uec.ac.jp/*.msg
--passive-ftp
FTPから与えられるの回収スケジュールに従う。??

再帰回収オプション

-r, --recursive
再帰的に回収を行う
-l depth, --level=depth
再帰回収の最大の深さをdepthに指定する
デフォルトは5
--delete-after
ファイルをダウンロードした後に消す、
プロクシを通しておくと、プロクシのキャッシュが溜り、 Netscapeとかで快適にウェブサーフィンできるかも
-k, --convert-links
相対リンクでないもの(絶対リンクで書かれているもの)を ローカルで相対リンクにコンバートする
-m, --mirror
ミラーサイトを作るためのもの
このオプションは-r(再帰回収)と-N(タイムスタンプ)と-l inf(最後までの深さ)と -nr(下のオプション参照)を組み合わせたものと同様
-nr, --dont-remove-listing
FTPのダウンロードのためのtempファイルを残しておく

回収の有無オプション

-A acclist, --accept=acclist
持って来ってくるファイルを指定する
複数のときはコンマで区切る
(ex. -A .jpg,.gif)
-R rejlist, --reject=rejlist
持って来ないファイルを指定する
複数のときはコンマで区切る
-D domain-list, --domains=domain-list
受け付けるドメインを指定する
複数のときはコンマで区切る
(ex. -D .jp,.edu, ac.jp, uec.ac.jp)
--exclude-domains=domain-list
受け付けないドメインを指定する
複数のときはコンマで区切る
-L, --relative
相対リンクだけを受け付けるようにする
(複数のホストにまたがってない)ひとつのホームページだけをまるごとダウンロードするのに便利
--follow-ftp
HTMLドキュメントからのFTPへのリンクされているものも受け付ける
これがないと受け付けない
-H, --span-hosts
違うホストも再帰回収の対象とする
でも、ドメイン制限(-D)や回収の深さ(-l)を考えないと大変なことになるので注意が必要。。
-I list, --include-directories=list
受け付けるディレクトリを指定する
複数のときはコンマで区切る
-X list, --exclude-directories=list
受け付けないディレクトリを指定する
複数のときはコンマで区切る
-nh, --no-host-lookup
DNSの参照をしなくする
リンクが絶対リンクで書かれているとき速くなる
-np, --no-parent
親ディレクトリを再帰回収しない
FTPなどであるディレクトリ以下だけダウンロードするときに便利
ホームページの場合../img/title.jpgとかは参照してくれないので、注意が必要。

□ その他

 自分のホームディレクトリに「.wgetrc」というファイルを作ることによって、デフォルトの値を変えられたり、オプションだけではできない設定とかできます。この「.wgetrc」については、めんどくさいので省略します。。 (後で暇だったら解説します)
 まあ、上のオプションについて少し理解してから、付属のマニュアルやサンプルの「.wgetrc」ファイルを読めばわかると思います。
 まあ、常に使うオプション (例えば、-nc(既にあるファイルを上書きしない), -w second(リトライ時のウェイトの指定など) やproxyの指定をここで設定しておけば、便利です。
□ 専門用語の解説
このホームページで使われている難しめの用語の解説です。
あまり、正確ではないし(推測が多いかも、、)、分かりにくく書いていると思いますが、筆者は文章能力が低いのでゆるしてね。。

再帰回収
ホームページの中に書いてあるリンクや画像を集め、 更に今集めたリンク(ホームページ)に書いてあるリンクや画像を集め、…、 と何重にも渡ってリンクを集めること。
相対リンク
あるホームページ(例えばhttp://seagull.cs.uec.ac.jp/~horiuc-m/index.html)内のリンクで、 リンク先としてあるmain.htmlなどのこと。現在のホームページから見た時だけの相対的なリンク指定。 リンク先としてhttp://www.edu.cc.uec.ac.jp/~h9932032/GLEE/index.htmlと書いてあるものは 相対リンクではない(絶対リンクという)。
つまり、「http://」で始まるリンクは絶対リンクで、それ以外は相対リンクと言える。
具体的には、HTMLのソースのリンク指定の でリンクしてあるのもので、 でリンクしてあるのものは絶対リンクである。
深さ
回収する再帰回数のこと。 初めのホームページは深さ0で、 このホームページからリンクされているホームページや画像は深さ1、 このリンクされているホームページからリンクしてあるホームページや画像は深さ2 である(たぶん)。
デフォルト
何も値が与えられてないときの初期値のこと
タイムスタンプ
(考え中)たぶん、更新日時とかのこと。
タイムアウト
ネットワークとかが込んでいて、相手のサーバから反応がなかなか来ないこと(たぶん)。 ダウンロードの始めの反応か/途中の反応かは知らない。

1

投稿者 muuming : 14:07 | コメント (0)

stat ファイルのアクセス日とかわかる

stat ファイルのアクセス日とかわかる

stat [-l] [-f] [-s] [-v] [-t] [-c format] file-name [file-name]...
%a - Access rights in octal
%u - User Id of owner
%x - Time of last access

などなど 結構な情報がとれます!
パーミッション ラストアクセス日 などなど

date -d "/`stat -c %y $file/`" +%c

date -d ~~~~で ~~~の時刻を表示できるので(しかも大概のフォーマットがいける)それにスタットで取ってきた時刻をぶち込んで、フォーマットを再成型できたり。

投稿者 muuming : 14:05 | コメント (0)

2005年08月16日

SSL秘密鍵のパス抜き

ほんとはいい事じゃないかもしれんが、パスなし起動のための方法

秘密鍵を server.key として
cp server.key server.bak
/bin/openssl rsa -in server.bak -out server.key

パスフレーズ聞かれて入れたらおしまいっぽ

投稿者 muuming : 16:40 | コメント (0)

2005年08月05日

vi 行数つけたり

vi に行数つける
.exrc ファイルをホームディレクトリに作成

内容は
set tabstop=2
set showmode
set autoindent
set number
set showmatch

いるのを使ってくれ あとタブの文字数とかも指定できるが後ほど

投稿者 muuming : 18:21 | コメント (0)

cron

ユーザーが作った cront クーロンは
/var/spool/cron の中にあるっぽい

投稿者 muuming : 14:16 | コメント (0)

2005年08月01日

メールとFTP

FTPサーバ
proftpd

メールサーバ
qmail vpopmail

のインストール手順

アパッチはrpmで入れとけー

ソースをどこサーバから引っ張っていく

proftpd-* .
qmail-* .
ucspi-tcp-0.88.tar.gz .
vpopmail-* .
qmail .

tar xzvf proftpd-1.2.8.tar.gz
cd proftpd-1.2.8
./configure
make
make install
vi /etc/xinetd.d/proftpd

---------------------------------------
service ftp
{
disable = no
socket_type = stream
protocol = tcp
wait = no
user = root
server = /usr/local/sbin/in.proftpd
}
---------------------------------------

lv /usr/local/etc/proftpd.conf


----------------------------------
ServerType inetd
Group nobody
UseReverseDNS off
IdentLookups off
-------------------------------
/etc/init.d/xinetd restart


cd
tar xzvf qmail-1.03.tar.gz
mkdir /var/qmail
groupadd nofiles
useradd -g nofiles -d /var/qmail/alias -s /bin/true alias
useradd -g nofiles -d /var/qmail -s /bin/true qmaild
useradd -g nofiles -d /var/qmail -s /bin/true qmaill
useradd -g nofiles -d /var/qmail -s /bin/true qmailp
groupadd qmail
useradd -g qmail -d /var/qmail -s /bin/true qmailq
useradd -g qmail -d /var/qmail -s /bin/true qmailr
useradd -g qmail -d /var/qmail -s /bin/true qmails
cd qmail-1.03
patch -p1 < ../qmail-date-localtime.patch
make setup check
cp home /var/qmail/rc
lv /var/qmail/rc
Mailbox を Maildir/へ変更

echo "admin@enq.mycom.co.jp" > /var/qmail/alias/.qmail-postmaster
echo "admin@enq.mycom.co.jp" > /var/qmail/alias/.qmail-root
echo "madmin@enq.mycom.co.jp" > /var/qmail/alias/.qmail-mailer-daemon
chmod 644 /var/qmail/alias/.qmail-*
./config-fast ドメイン
cd
/etc/init.d/sendmail stop
chkconfig --del sendmail
rm /usr/lib/sendmail

rm /usr/sbin/sendmail

ln -s /var/qmail/bin/sendmail /usr/sbin/sendmail
ln -s /var/qmail/bin/sendmail /usr/lib/sendmail
lv qmail

qmaildのUID GIDに変更ドメインも
mv qmail /etc/init.d
ln -s /etc/init.d/qmail /etc/rc3.d/S96qmail
tar xzvf ucspi-tcp-0.88.tar.gz
cd ucspi-tcp-0.88
make
make setup check
cd
groupadd -g 89 vchkpw
useradd -u 89 -g vchkpw -c Vpopmail-Master -d /home/vpopmail -m -s /bin/bash vpopmail
tar xzvf vpopmail-5.2.1.tar.gz
cd vpopmail-5.2.1
./configure --enable-roaming-users=y --enable-tcpserver-path=/home/vpopmail/etc/tcp.smtp --enable-relay-clear-minuts=30
make
make install-strip
lv /etc/crontab
------------------------------
40 * * * * root /home/vpopmail/bin/clearopensmtp 2>&1 > /dev/null
---------------------------------

こんな感じで・・・ Redhat9の場合は一部書き換える必要有
error.h だったかな

投稿者 muuming : 18:41 | コメント (1)