2012年6月29日金曜日

バックアップ・修復方法(Linux版)|グループウェア 「アイポ」

バックアップ・修復方法(Linux版)|グループウェア 「アイポ」:

バックアップ・修復・方法(LINUX版)

WARNING: errors ignored on restore: 199

restore_handler.sh: line 25: let: str=201206290030_01: ベースの値には大きすぎます (error token is "2012


http://user.aipo.com/viewtopic.php?t=1707&sid=5a332381aef30a4e4238e0d764c9eb39



バックアップフォルダの命名ルールがWindowsとLinuxでは異なるようです。
"201103141028_01"→"2011031410281"


'via Blog this'

若槻地区住民自治協議会 コミュニティわかつき

若槻地区住民自治協議会 コミュニティわかつき:

6月30日~
7月 8日
ほたる祭り土京川ほたるの乱舞最盛期に観賞会を行います。
初日のみオープニングイベントを行います。(土京川18時30分)
ほたる祭り自然活

'via Blog this'

カブトムシ・クワガタ虫の採集・おびき寄せ | 長野県長野市:日本料理 悠善

カブトムシ・クワガタ虫の採集・おびき寄せ | 長野県長野市:日本料理 悠善:

カブトムシ・クワガタ虫の採集・おびき寄せ
 
このごろデパートやスーパーなどで、カブトムシを売っている情報を耳に致しました。
現実、近くのホームセンターにも置いてあります。私が子供のころは、家の周りに
沢山いました。


夏休みのラジオ体操前に早起きしてよく捕まえては友達に自慢したものです。
それが30年たった今では、寂しいけれど、農地開拓や宅地開発で環境が変わり
めったに見つけることが出来なくなりました。小さい頃に一緒に遊んだことのある
お父さんも多いでしょう。しかし、その生態となると意外と分かりません。




この夏、クヌギの樹には、いろいろな昆虫が集ります。力の強弱によって樹液を
なめる場所の順位が決まります。一番強いのは立派な角を持ったカブトムシです。
力の強いオスが樹液を独り占めしようとカブトムシの迫力ある戦いが始まります。
カブトムシのライバルは、カブトムシなのです。







子供たちにカブトムシを見たり触ったりして自然を好きになってほしい、そう願いから
こんなことを考えてみました。

蜜の作り方から仕掛け、採集 朝、夜、毎日観察して見ては。夏休みのお父さん
大作戦とでもしましょうか。子供たちの大切な思い出づくりに協力いたします。








今回は、おびき寄せるために こちらを使います。
赤ワイン!







更に黒砂糖。これも大好物の一つのようです。







実験。
写真左が新作のおびき寄せ蜜、左が砂糖水、手前がカブト虫、クワガタ用の市販のゼリー。

3分後。








威嚇しながら、新作のおびき寄せ蜜へ。




5分後。


メスも加わり蜜を吸い始めました。
市販の蜜には見向きもしません。




夜中に仕掛けてみると、やはりこの通り!

びっくり
圧倒的にクワガタがほとんど。







でも木の上のほうに仕掛けたものにはカブトムシが沢山!!









8月8日の長野朝日放送abnステーションにて放送されます。

お子様でも簡単に作れるレシピを始め、仕掛け、ゼリーの作り方まで詳しく
紹介される予定です。



新作おびき寄せ蜜のレシピ
赤ワイン100CC
水    200CC
酢     50CC
黒砂糖  60グラム

※作り方は、簡単。鍋に全ての調味料を入れ、黒砂糖を溶かします。
ワインのアルコールが煮切れたところで火から外します。

'via Blog this'

SIOS "OSSよろず" ブログ出張所: 連載「ZFS on Linux」第1回~ZFS on Linux のインストール~

SIOS "OSSよろず" ブログ出張所: 連載「ZFS on Linux」第1回~ZFS on Linux のインストール~:2012年2月16日木曜日

連載「ZFS on Linux」第1回~ZFS on Linux のインストール~

サイオステクノロジー 鎌田です。お久しぶりです。
当ブログの連載記事としては、既に2名の方が libvirt と OS コマンドの解説で執筆されていますが、私は個人的に興味のある ZFS を Linux で使える ZFS on Linux に照準を当てたいと思います。
ZFS on Linux に関しては既に様々な情報がありますが、なぜあえて今やりたいのかと申しますと、私個人としては FreeBSD が好きであることと、FreeBSD が ZFS をネイティブ実装していて興味があることと、ZFS って名前だけよく聞くけど結局よくわかっていない、という理由でせっかくなので連載記事として追っていこうと思い立ったことが始まりです。
そういうわけでして、あまり詳しい情報を記載できるという保証ができないのですが、検証記録的なノリでぜひご覧いただければと思っています。それでは、第1回目として ZFS on Linux のインストールから始めたいと思います。

環境

今回の連載で使用する検証用の環境は次の通りです。
  • CentOS 6.2 (x86_64) : 最小インストール
  • ZFS on Linux 0.6.0-rc6

インストール手順

次に、インストール手順です。
  1. ZFS on Linux のサイトから、以下の2つのファイルをダウンロードします。
    • spl-0.6.0-rc6.tar.gz
    • zfs-0.6.0-rc6.tar.gz
  2. 上記2つをコンパイルし、RPM 化するために必要なパッケージをインストールします。yum コマンドを使ってさくっと入れちゃいましょう。
    # yum groupinstall "Development Tools"
    # yum install zlib-devel libuuid-devel libblkid-devel libselinux-devel parted lsscsi
  3. まずは SPL をコンパイルし、インストールします。"make rpm" の部分は結構時間かかります。
    # tar xzvf spl-0.6.0-rc6.tar.gz
    # cd spl-0.6.0-rc6.tar.gz
    # ./configure
    # make rpm
    # rpm -Uvh *.x86_64.rpm
  4. そして ZFS をコンパイルし、インストールします。ここも、"make rpm" の部分に結構時間かかります。
    # tar xzvf zfs-0.6.0-rc6.tar.gz
    # cd zfs-0.6.0-rc6
    # ./configure
    # make rpm
    # rpm -Uvh *.x86_64.rpm
  5. 一旦 OS を再起動し、以下のコマンドを実行すると、ファイルシステムとして ZFS が利用可能になっていることがわかります。
    # cat /proc/filesystems
     :
    nodev   zfs
というわけで、ZFS が利用できる状況になりました。次回は ZFS 領域を作っていろいろさわってみます。

'via Blog this'

ZFS優しすぎ涙がでた。 - 春木屋

ZFS優しすぎ涙がでた。 - 春木屋:

03-10-12

[ZFS優しすぎ涙がでた。Add Star

前口上
試しにZFSを使ってみて(VMware Playerで気軽に試せるようになったとは、なんと便利な世の中か)本当に驚いた。
ディスク繋いでzpoolコマンド一発ですぐ使える。パーティションに頭を悩ませる必要もない。RAIDだって楽勝。ディレクトリごとに圧縮することもできるし、気が変わったら、いつでも止めることもできる。スナップショットも早い。
実は、何年か前にZFSについて調べたときはまだまだバギーな印象だったのと、ZFSを使えるようなパワフルマシンがなく保留にしてたんだけど、すごく損した気分。
いままで幾たび、fdiskやnewfs失敗してひどい目にあったことか。電子の海に消えたデータを思う。

そしてRAIDソフトRAIDで言えばlvmも有名だが、俺にはもうコマンドが複雑すぎて覚えられない(lv...が論理ボリュームを、pv...が物理ボリュームを扱うんだって?)。
これはすごく危険
だってソフトRAID含め、こういったディスクを扱うコマンドを使うのは、初期設定と、問題の発生したとき
俺みたいなオッチョコチョイが、問題が発生して焦っているときに、コマンドが複雑だと二次災害を引き起こすんだって
…正直に言うと実際に引き起こした。

ZFSならとにかくzpool、zfsさえ覚えておけばいいのだ。

宅鯖ではZFSを使いたいからFreeBSDを選んだ。
そして、いろいろwebを渉猟するにi386ZFSは辛そうなのでamd64とし、下記の通りZFSバージョンもどーんと上がっているので, 9.0-RELEASEを入れた。メジャーバージョン最初ちょっと不安ではあるけれど。
ZFSバージョン
8.2+ - ZFS v15
9.0+ - ZFS v28
あとは、特に難しいこともなく、2.5Tのディスク1本買ってきて、つないで、領域作って、こんな感じ。
作業ログは後述。
$ sudo zpool status
パスワード:
  pool: vault
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        vault       ONLINE       0     0     0
          ada1      ONLINE       0     0     0

errors: No known data errors
$ zpool list
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
vault  2.27T  1007G  1.28T    43%  1.00x  ONLINE  -

ディスク1本なので、RAIDも組まず、圧縮もせず(データjpg写真とか自炊本、自炊DVDCDとか圧縮の効かないものばかりだから)。
あんなに煽っておいてアレだが、だってまだディスク高いし・・。

ただまあ、ここを見てチューニングだけはしておいた。

/boot/loader.confにおけるチューニング
vfs.zfs.prefetch_disable="1"
vfs.zfs.txg.timeout="5"
1行目
ZFSのprefetchを無効にすると全体的にスピードが向上する。
ただし読み書きが頻繁に発生する状態だとシステムが遅くなる傾向あり。
なお、4GB以上のメモリが実装されているとデフォルトで0になるとのこと。
2行目
txgが何の意味か分からないけど(task queue?)、こうしておくとスループットが上がる上に、システムが極端に遅くなる問題が改善される。
(In my case 50-100% CPU is used by ZFS with *no* disk activity during the pauses then a burst of rapid disk activity and then another pause. なんて言ってる)
なお、これはZFS v28からはデフォルト

/etc/sysctl.confにおける設定
kern.maxvnodes=250000
vfs.zfs.write_limit_override=131072
1行目でvnodes数の上限をデフォルトの約200000(a little over 200,000)から増やす。
2行目でTXG write limitの値を減らす。デフォルト値は知らん。
4GBメモリなら256MB、と書いてあるので、2GBを積んでる俺は128MBにした。
なお、ZFS v28より前ではvfs.zfs.txg.write_limit_overrideとのこと。


そのほかの設定:periodic script
/etc/periodic/daily/404.status-zfsスクリプトがある。
有効にすると、毎日zpoolの状態をしらべて、daily output, security outputでメールしてくれる。
そうそう、root宛のメールは転送設定しておくと便利。
$ sudo /etc/periodic/daily/404.status-zfs

Checking status of zfs pools:
all pools are healthy

/etc/periodic.confに以下を追記しておけばOK
daily_status_zfs_enable="YES" 

以下は作業ログ
作業ログ
ディスクをつないで起動、dmesgで確認
$ dmesg|grep ada
ada0 at ahcich0 bus 0 scbus0 target 0 lun 0
ada0: <VB0250EAVER HPG7> ATA-8 SATA 2.x device
ada0: 300.000MB/s transfers (SATA 2.x, UDMA5, PIO 8192bytes)
ada0: Command Queueing enabled
ada0: 238475MB (488397168 512 byte sectors: 16H 63S/T 16383C)
ada0: Previously was known as ad4
ada1 at ahcich1 bus 0 scbus1 target 0 lun 0
ada1: <WDC WD25EZRX-00MMMB0 80.00A80> ATA-8 SATA 3.x device
ada1: 300.000MB/s transfers (SATA 2.x, UDMA6, PIO 8192bytes)
ada1: Command Queueing enabled
ada1: 2384658MB (4883781168 512 byte sectors: 16H 63S/T 16383C)
ada1: Previously was known as ad6
ada1が新しく繋いだディスク
ここにZFSを作成する。
$ sudo zpool create vault ada1
Password:
$ mount
/dev/ada0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)
vault on /vault (zfs, local, nfsv4acls)
$ df -h
Filesystem     Size    Used   Avail Capacity  Mounted on
/dev/ada0p2    228G     15G    194G     7%    /
devfs          1.0k    1.0k      0B   100%    /dev
vault          2.2T     31k    2.2T     0%    /vault

無事完成。
なんと勝手マウントまでしてくれる。これですぐ使える。
2.5Tなのに数秒程度で完了。
ビクビクしながらfdiskしたりnewfsしたりする必要がない。電卓も要らない(そういう時代もあったのです)。
衝撃的です。
コマンドが簡単なうえに、早いというのは、重ねて言うけど障害復旧に極めて有利な点。
大きなディスクをnewfsするときの、遅々として進まないカウンタを見てジリジリしたことのある人なら共感してくれるはず。

なお、この状態では/etc/fstabに何も書き込まれていないので、再起動すればマウントは外れる。

ではここにディレクトリをいくつか作る。
itunes用と、通常の共有ディレクトリ用の二つを作る。

$ sudo zfs create vault/itunes
$ sudo zfs create vault/chamber
$ mount
/dev/ada0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)
vault on /vault (zfs, local, nfsv4acls)
vault/itunes on /vault/itunes (zfs, local, nfsv4acls)
vault/chamber on /vault/chamber (zfs, local, nfsv4acls)
$ df -h
Filesystem      Size    Used   Avail Capacity  Mounted on
/dev/ada0p2     228G     15G    194G     7%    /
devfs           1.0k    1.0k      0B   100%    /dev
vault           2.2T     32k    2.2T     0%    /vault
vault/itunes    2.2T     31k    2.2T     0%    /vault/itunes
vault/chamber    2.2T     31k    2.2T     0%    /vault/chamber

これらを/export配下に移動させる。
これが既存の考えにはない動作。頭の中でファイルシステムに対する考え方がグニョっとなるのを俺は感じたよ。

$ sudo zfs set mountpoint=/export/itunes vault/itunes
$ sudo zfs set mountpoint=/export/chamber vault/chamber
$ mount
/dev/ada0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)
vault on /vault (zfs, local, nfsv4acls)
vault/itunes on /export/itunes (zfs, local, nfsv4acls)
vault/chamber on /export/chamber (zfs, local, nfsv4acls)


そしたら/etc/fstabに書き込んでおしまい
昔はデバイス名を書き込んでいた場所ZFSディスクプールを書くわけですな。
vault/itunes    /export/itunes         zfs     rw      0       0
vault/chamber   /export/chamber                zfs     rw      0       0


afpファイルコピーしているのだが、あまり負荷はかかっていない模様。
ZFSリソース食いと聞いてたのでコワゴワコピーしたんだけど、まあ100Mbpsのネットワーク越しですしな。
last pid:  1773;  load averages:  0.11,  0.21,  0.17    up 0+00:45:03  23:54:03
42 processes:  1 running, 41 sleeping
CPU:  0.2% user,  0.0% nice, 15.0% system,  0.4% interrupt, 84.4% idle
Mem: 46M Active, 189M Inact, 1426M Wired, 64M Cache, 200M Buf, 119M Free
Swap: 907M Total, 556K Used, 906M Free

  PID USERNAME     THR PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
 1697 root           1  31    0 55860K  4288K select  1   3:55 16.36% afpd
そのほか
重大な作業をするときは必ず-nオプションを付けること。
ドライランと呼ばれるもので、実際の作業はせずに結果をシミュレートできる。

ストレージプールを作業するときには明示的にexportすること。
exportすれば、未書き込みのデータがすべて処理され、システムから削除される。
そこで引数なしでimportを実行すると、import可能な、言い換えるとexport済みのプールが表示される。

'via Blog this'

BunBackupの詳細情報 : Vector ソフトを探す!

BunBackupの詳細情報 : Vector ソフトを探す!:

'via Blog this'

2012年6月27日水曜日

Bal4u : Diary - リアルタイムに自宅サーバをFreeNASにバックアップ

Bal4u : Diary - リアルタイムに自宅サーバをFreeNASにバックアップ:


リアルタイムに自宅サーバをFreeNASにバックアップ

  • Posted by: admin
  •  
  • 2010年9月10日 19:55
  •  
  • PC(89)
FreeNASのサービスRsyncを利用すれば、自宅サーバの内容をリアルタイムにバックアップすることも難しくない。
いままで、自宅サーバ全体のバックアップは週1回行っているが、リアルタイムではなかった。そこで、FreeNASのサービスにある Rsyncという機能を活用して、リアルタイムのバックアップをやってみたい。
リアルタイムのバックアップ対象は、実験の意味もあって、取り敢えず、自宅サーバのブログが格納されている /var/www というディレクトリと、各ユーザのホームディレクトリの親 /home の2つにする。
自宅サーバとFreeNASとのディレクトリ(フォルダ)の対応関係は以下とする。
   自宅サーバ         FreeNAS
     /var/www/         /mnt/disk2/bal4u/www/
     /home/           /mnt/disk2/bal4u/home/
では、まずFreeNAS側(バックアップ先)の設定をやる。
FreeNASのメニュー「サービス」->「Rsync」を開き、タブ「設定」において、Rsyncを有効にし、ユーザのマッピングをguestに切り替える。他の部分はそのままにし、「保存して再起動」をクリック。
100910-1.png
タブ「モジュール」に切り替える。「+」ボタンをクリック。
100910-2.png
ブログを保存するので、1つ目のモジュールの名前として www を、コメントにも www を入力する。パスは対応関係により /mnt/disk2/bal4u/www/ とする。他の部分はそのままにし、最後の「追加」をクリック。
100910-3.png
つぎに、2つ目のモジュールを追加するので、再び「+」ボタンをクリックする。
名前にも、コメントにも home を入力し、パスに /mnt/disk2/bal4u/home/ を入力する。「追加」ボタンを押す。
100910-4.png
「変更の適用」ボタンをクリックし、設定を完了させる。
100910-5.png
ここまでの設定は、すべて /var/etc/rsyncd.conf に書き込まれている。ssh でFreeNASにログインすれば、以下のように確認できる。
100910-6.png
以下はバックアップ元側の操作手順。
バックアップ元の自宅サーバにログインし、パッケージ lsyncd をインストールする。
[root@bal4u ~]# yum -y install lsyncd
しばらくすると、OKのメッセージが出るだろう。
Installed:
  lsyncd.i386 0:1.0-1.el5.rf                                                    

Complete!
つぎのコマンドを入力すれば、バックアップが始まる。コマンドのオプション(パラメータ)は、バックアップ元のディレクトリ、バックアップ先のモジュール名(ホスト名::モジュール名)の順だ。
[root@bal4u ~]# /usr/bin/lsyncd /var/www/ freenas::www/
syncing /var/www/ -> freenas::www/
[root@bal4u ~]# /usr/bin/lsyncd /home/ freenas::home/
syncing /home/ -> freenas::home/
以上のコマンドをサービス化する等の細かい設定については、ネットを参照されたい。

'via Blog this'

2012年6月26日火曜日

長野県のほたる観賞スポット ほたる観賞に行こう2012:るるぶ.com

長野県のほたる観賞スポット ほたる観賞に行こう2012:るるぶ.com:

'via Blog this'

レトルト殺菌装置|食品機器|株式会社 日阪製作所 生活産業機器事業本部

レトルト殺菌装置|食品機器|株式会社 日阪製作所 生活産業機器事業本部:

レトルト殺菌装置

日阪のレトルト殺菌装置は、熱水スプレー式・熱水貯湯式・蒸気式の3タイプ。
食品の種類、容器形状、生産量や自動化対応など、さまざまな条件に最適なシステムをご提案します。
均一な槽内温度分布と再現性が高く、医薬品、医療機器の滅菌装置としても高く評価されています。

装置一覧

レトルト殺菌装置は、熱水スプレー式・熱水貯湯式・蒸気式があり、容器・食品の種類に応じて、おいしさと安全を配慮した殺菌方法を選択できます。

熱水スプレー式レトルト殺菌装置
日阪レトルト殺菌装置の熱水スプレー式の第一の特徴は、殺菌装置の最も求められる温度バラツキが無く、均一加熱冷却性能が優れていることです、またプレート式熱交換器を搭載し間接加熱、冷却することで非常になめらかで安定した昇温、加熱、冷却を実現します、蒸気、冷却水からの汚れを釜内に持ち込まず大切な商品をきれいに処理出来ます。殺菌用トレー各段に装填した製品に圧力差がないため含気容器処理に有利です。
詳細を見る

熱水貯湯式レトルト殺菌装置
日阪熱水貯湯式レトルト殺菌装置は独自の液流切替により温度バラツキ少ないばかりではなく、オプションとして回転式も選択可能で大型缶やパウチにも対応できる汎用性の高い殺菌装置です。温水槽に予め熱水を準備することにより高温からの加熱殺菌が可能で高温短時間を実現、殺菌後熱水を温水槽へ回収することにより省蒸気運転が可能です。
詳細を見る

レトルト殺菌試験機
「明日の食品」を創造するレトルト殺菌試験機(熱水貯湯式・熱水スプレー式)

サムソン
ヒサカ


'via Blog this'

インド新聞 - インドビジネスコラム:イッカクサイ最後で唯一の聖域、インド・アッサム

インド新聞 - インドビジネスコラム:イッカクサイ最後で唯一の聖域、インド・アッサム:

インド新聞 コラム

インドの今を知る! インド新聞に見るビジネスのヒント!

イッカクサイ最後で唯一の聖域、インド・アッサム

8/4付AFPニュースで、下記インドサイの記事を見つけました。
「インド北東部アッサム州にある430平方キロの保護区域は、イッカクサイが群れをなして暮らす、世界最後にして唯一の地域だ。保護区域内にあるカジランガ国立公園で2048頭、オラング国立公園で64頭、Pobitra野生動物保護区域で84頭、マナス国立公園で5頭のイッカクサイが確認されている。」というものです。
イッカクサイは、インドサイとも呼ばれます。インドサイは湿気のある森林や草原地帯を好み、世界でもインド東北部とネパールだけで生息しています。 アフリカに生息するクロサイやシロサイは角が2本であるのに対し、インドサイの角は1本で、このためイッカクサイとも呼ばれています。サイの中ではシロサイが最大であると言われていますが、インドサイもシロサイとほぼ同じ大きさがあります。
インドサイは、かつてはパキスタンなどにも生息していましたが、角を工芸品や漢方薬の原料とするために乱獲され、現在では絶滅してしまっています。インドサイもほかのサイと同じく個体数が少ない動物で、国際保護動物に指定されています。
私がインドに携わる仕事をしてからわかったことですが、この記事にもあるように、インドには貴重な動物や生物が多くあります。動物で言えば、トラ、象やライオンなどです。植物ではハーブ類をはじめとして、食材や薬草に使えるものなど、かなり数の貴重なものがあります。このことは、アーユルヴェーダをはぐくんだ土地であることと無縁でないでしょう。
最近米国や日本でも、ヨガが女性を中心にブームになっています。現在、人々は健康志向が強まり、エコ、スローライフやロハスといったライフスタイルを志向する人が増えています。この点で健康素材が豊富にあることで、インドは多くの人が注目してきています。インドに傾倒する日本人には女性が多いのですが、それは多分こういったことがその答えなのかもしれません。
インドビジネスを考える場合でも、先進国でのこのようなライフスタイルの変化に、インドが合致している点は注目に値します。市場の大きさや、コストの安さだけでなく、ライフスタイルの変化への適合と言う点でもインドは注目される国です。
実際私もインドの農産物に関する仕事も増えてきています。健康志向に対応して、インド周辺で採れる農産物への需要が増えているためです。そう言う訳で、私もこれまで関心のなかった健康、ロハス、美容、ヨガ、自然、エコなどに関心を向けています。それで先日レストランに行った時に、普段は食後にはコーヒーを飲むのですが、ハーブティーを飲んでみました。ですが、やっぱりまだコーヒーの方が良いですね。


'via Blog this'

天津のニュース - 中国都市総合情報 - ALA!中国[新館]

天津のニュース - 中国都市総合情報 - ALA!中国[新館]:



ボーイング、中国での資材調達規模の倍増を予定


 ボーイング社の天津波音複合材料有限公司のゲーリー・ベッカー総経理は、「2012年中国天津国際航空宇宙サミット、航空宇宙製品展示交渉会」(AEROMART)の会場で、「2015年までに、当社の中国での資材調達規模を倍増させる」と発言した。新華社が伝えた。 同氏は、「当社の予想によると、世界航空市場は... [人民網日文版]


'via Blog this'