QNAP TS-209 Pro II で遊んでみた
この度、社内用ファイルサーバーに QNAP TS-208 Pro II ( http://www.qnap.com/pro_detail_feature.asp?p_id=94 )を使用することになったので、せっかくなので遊んでみました。
インストールの作業自体は簡単で、
1・HDDを入れる(Seagate ST31000340AS 1TB x2)
2・接続する
3・電源入れる
4・起動したら、windowsPCにCD入れて、付属のソフトをインストール
5・起動するとネットワークに接続された機器の一覧が出るので、選択。
6・ウィザードにしたがって設定。(アドレスは固定、RAIDはRAID-1に設定)
以上で初期設定は終了。
さて、とりあえずアクセス。
デフォルトではsshでログイン出来ます。
内部は完全にLinuxで、
[~] # uname -a
Linux NASAD0A37 2.6.12.6-arm1 #25 Wed Apr 16 20:26:17 CST 2008 armv5tejl unknown
[~] # cat /proc/cpuinfo
Processor : ARM926EJ-Sid(wb) rev 0 (v5l)
BogoMIPS : 332.59
Features : swp half thumb fastmult
CPU implementer : 0x41
CPU architecture: 5TEJ
CPU variant : 0x0
CPU part : 0x926
CPU revision : 0
Cache type : write-back
Cache clean : cp15 c7 ops
Cache lockdown : format C
Cache format : Harvard
I size : 32768
I assoc : 1
I line length : 32
I sets : 1024
D size : 32768
D assoc : 1
D line length : 32
D sets : 1024
Hardware : MV-88fxx81
Revision : 0000
Serial : 0000000000000000
[~] # df -h
Filesystem Size Used Available Use% Mounted on
/dev/ram0 9.7M 7.0M 2.7M 72% /
tmpfs 16.0M 40.0k 16.0M 0% /tmp
/dev/sda4 62.0M 38.1M 23.9M 61% /mnt/ext
/dev/md9 509.5M 105.4M 404.1M 21% /mnt/HDA_ROOT
/dev/md0 915.8G 167.1M 915.7G 0% /share/MD0_DATA
/dev/ram0 9.7M 7.0M 2.7M 72% /mnt/HDA_ROOT/rootfs_2_3_6/bin
/dev/ram0 9.7M 7.0M 2.7M 72% /mnt/HDA_ROOT/rootfs_2_3_6/dev
/dev/md9 509.5M 105.4M 404.1M 21% /mnt/HDA_ROOT/rootfs_2_3_6/etc/config
/dev/md0 915.8G 167.1M 915.7G 0% /mnt/HDA_ROOT/rootfs_2_3_6/share/Qdownload
tmpfs 16.0M 40.0k 16.0M 0% /mnt/HDA_ROOT/rootfs_2_3_6/tmp
こんな感じです。
では、早速計測してみます。
まずはローカルから、
cd /share/MD0_DATA/Public
とりあえず、ほぼ無無負荷状態の時にゼロを1GB読み書きしてみました。
[/share/MD0_DATA/Public] # time dd if=/dev/zero of=./hoge.img bs=1024 count=1048576
1048576+0 records in
1048576+0 records out
real 1m46.655s
user 0m3.170s
sys 1m23.220s
[/share/MD0_DATA/Public] # time dd if=./hoge.img of=/dev/null bs=1024 count=1048576
1048576+0 records in
1048576+0 records out
real 0m41.158s
user 0m2.020s
sys 0m29.410s
計算すると、
read 約24MB/s
write 約10MB/s
今度は、ネットワークから
クライアントのスペックは、
IBM Thinkpad G40
Debian GNU/Linux etch
100BASE-TX
いくつかハブを経由しているのでほとんどトラフィックのない夜と朝方にテストしました。
ftp
RETR /Public/fuga.img
150 Opening BINARY mode data connection for /Public/fuga.img (1073741824 bytes)
| [=====================================================================================================================================================] @ 11166.61KB/s
STOR /Public/bar.img
150 Opening BINARY mode data connection for /Public/bar.img
\ [=====================================================================================================================================================] @ 9661.95KB/ss
nfs
time dd if=/dev/zero of=/mnt/iso/fuga.img bs=1024 count=1048576
1048576+0 records in
1048576+0 records out
1073741824 bytes (1.1 GB) copied, 142.73 s, 7.5 MB/s
dd if=/dev/zero of=/mnt/iso/fuga.img bs=1024 count=1048576 0.30s user 5.08s system 3% cpu 2:23.83 total
time dd if=/mnt/iso/fuga.img of=/dev/null bs=1024 count=1048576
1048576+0 records in
1048576+0 records out
1073741824 bytes (1.1 GB) copied, 108.552 s, 9.9 MB/s
dd if=/mnt/iso/fuga.img of=/dev/null bs=1024 count=1048576 0.35s user 4.78s system 4% cpu 1:48.70 total
smbfs
time dd if=/dev/zero of=/mnt/iso/fuga.img bs=1024 count=1048576
1048576+0 records in
1048576+0 records out
1073741824 bytes (1.1 GB) copied, 133.417 s, 8.0 MB/s
dd if=/dev/zero of=/mnt/iso/fuga.img bs=1024 count=1048576 0.18s user 3.62s system 2% cpu 2:13.57 total
time dd if=/mnt/iso/fuga.img of=/dev/null bs=1024 count=1048576
1048576+0 records in
1048576+0 records out
1073741824 bytes (1.1 GB) copied, 177.035 s, 6.1 MB/s
dd if=/mnt/iso/fuga.img of=/dev/null bs=1024 count=1048576 0.36s user 5.74s system 3% cpu 2:57.65 total
以上です。
smbの読み込みが遅いのが気になるので、windows2000のマシンで試したところ、
read 8.6MB/s
write 8.5MB/s
社内ではLinuxからsmb使うことはほとんど無いので問題ないと言うことにしましょう。
まあ、それ以外は個人的には満足なスペックかと思います。
そのうちに時間があればTeraStation Pro との比較もしてみよう。