linux操作系统测试工具---转载

linux操作系统测试工具(不算原创,是我们一起试验后完全可行的一套流程)

 

名称

用途

lmbench 3.0-a9

测试包括文件读写、内存操作、进程创建销毁开销、网络等性能

unixbench5.1.2

Linux下的VPS性能测试软件

dbench 3.04

文件系统基准,产生良好的文件系统负载 

spec2000 v1.3.1

CPU性能、稳定性测试

stressapptes revision 1.0.1_autoconf

内存稳定性测试

memtester V4.1.2

内存压力测试

stream  v 5.9

内存带宽测试

iozonetest3a revision 3.338

磁盘I/O性能、稳定性测试

x11perf v 1.5

测试显卡性能

glxgears

Linpack v2.0

测试内核和内核相关特性

iperf-2.0.4、netperf-2.4.5

测试网络性能

 

一、lmbench      版本:lmbench-3.0-a9

测试包括文件读写、内存操作、进程创建销毁开销、网络等性能的基准测试。

#tar -xvf lmbench.tgz;

#cd lmbench-3.0-a9;

#make results;

接下来的设置除了MB(默认值较大,耗时较长或程序运行不起来,取值大于4倍的外部缓存小于80%的物理内存即可)和Mail results(输入no敲回车,意思不发送邮件回执)外都选默认值。

程序运行结束后查看结果:

#make see;

敲回车后提示

cd results && makesummary >summary.out 2>summary.errs

cd results && makepercent >percent.out 2>percent.errs

#cd results

#ls

#vi summary.out查看结果

 

二、unixbench    版本:unixbench-5.1.2

#tar -xvf unixbench.tar.gz;

#cd unixbench;

#tar -xvf unixbench-5.1.2.tar;

#cd unixbench-5.1.2;

#./Run -c 4;

参数-c后接的是跑的线程,若跑单线程,则#./Run,敲回车即可。

测试结果直接显示在终端,也可以在运行命令后加上测试结果的保存路径来保留测试记录,即#./Run -c 4 >/opt/unixbench-result.txt

三、dbench

版本dbench-3.04

测试文件系统基准,产生良好的文件系统负载。

#tar -zxvfdbench-3.04.tar.gz;

#cd dbench-3.04;

#./autogen.sh;

#./configure;

#make;

#make install;

#./dbench [线程数] -t [时间以秒为单位],例如:./dbench 100 -t 36000(意思是开启100个进程跑10个小时)

结果显示在终端,也可以在运行命令后加上测试结果的保存路径来保留测试记录,即#./dbench 100 -t 36000 >/opt/dbench-result.txt。

 

四、spec2000

spec2000-new安装与运行:

1、新建目录:/home/benchmark

# mkdir /home/benchmark

2、将spec2000-new.tgz压缩包放在/home/benchmark下,并解压:

#cp -rf 【文件路径】 /home/benchmark

#cd /home/benchmark

#tar -xvf spec2000-new.tgz

3、运行:

# cd  /home/benchmark/spec2000-new/

# ./myrun.sh

可以在运行命令后加上测试结果的保存路径来保留测试记录,即# ./myrun.sh >/opt/spec2000-result.txt。

 

五、stessapptest

SAT版本:1.0.1,内存稳定性测试。

进入stressapptest文件夹,运行#./stressapptest -M 1200 -s 60

-M后是测试内存大小,-s后是测试时间,单位秒。

测试结果显示在终端,Status:PASS-pleaseverify no corrected errors,也可以在运行命令后加上测试结果的保存路径来保留测试记录,

即#./stressapptest -M 1200-s 60 >/opt/sat-result.txt。

 

六、memtester     版本memtester-4.2.1安装与运行:

#tar -zxvfmemtester-4.2.1.tar.gz

#cd memtester-4.2.1

#make

#make install

运行

cat /proc/meminfo 查看memory free size N KB

cat /proc/cpuinfo  查看系统中CPU的核心数n

在根目录下建一mem文件夹

同时开n个线程运行memtester可以节约测试时间

./memtester N/1024n runs>/mem/1&

……

./memtester N/1024n runs>/mem/n&

查看记录:

cat /mem/1

cat /mem/2

......

 

七、stream    安装:

(#tar -zxvf stream.tgz)

#cd stream

#gcc stream.c -o stream

运行:

#./stream

测试结果直接显示在终端,也可在运行命令后加测试结果保存路径来保留测试记录,即#./stream >/opt/stream-result.txt。

结果不理想的话,可以调整stream.c文件中N的值,默认N=2000000,X86平台一般要求N=(1级cache+2级cache),单位B。

 

八、iozone    版本iozone3_308安装与运行:

#tar -zxvfiozone3_308.tar.gz;

#cd iozone3_308/src/current;

#make linux-sparc;

#./iozone -i 0 -i 1 -s 160G-Rab /opt/HDDstress.xls

测试文件大小最好为内存的两倍以上,防止内存缓存,造成数值不准确

 

九、x11perf   版本x11perf-1.5:

1)解压x11perf-1.5.tar.gz,

#tar -xvf x11perf-1.5.tar.gz

2)安装:#cd x11perf-1.5

#./configure

#make

#make install

安装完后会在x11perf-1.5里生成可运行文件x11perf。

3)运行:#x11perf -all

会弹出一个窗口,结果显示在终端,也可以在运行命令后加测试结果保存路径来保留测试记录,即#x11perf -all >/opt/x11perf-result.txt。

 

十、glxgears

glxgears:

1、打开终端,输入#glxinfo |grep rendering,敲回车,提示:direct rendering: Yes 表明启动正常;

2、在终端输入#glxgears,敲回车,弹出一个窗口,里面有3个转动的齿轮,并且终端每5秒显示出转动多少栅;

3、记录下FPS数字(每秒的帧速度)以鉴别3D加速效果(FPS越大越好);

4、结果显示在终端,也可以在运行命令后加测试结果保存路径来保留测试记录,即#glxgears>/opt/glx-result.txt

 

十一、iperf

安装iperf:

#tar -zxvf iperf-2.0.4.tar.gz

#./configure;

#make;

#make install

运行iperf:

服务器终端:#iperf -s;

客户端终端:#iperf -c (serverip)-i 2 -f -t 86400

“-i 2”意思是每2秒钟输出一个值;

“-f”意思是默认以Mbit/s作单位;

“-t”设置运行时间,以秒为单位,跑压力24小时的话“-t 86400”,不加-t参数,默认输出5次值。

调优时在客户端终端加参数-M(设定TCP数据包的最大mtu值,参考值3500),-l(缓冲区大小,默认是8KB,参考值10024),-w(设定TCP窗口大小,默认是8KB,参考值7000k)

可以在运行命令后加测试结果保存路径来保留测试记录,即#iperf-s >/opt/iperfserver-result.txt和#iperf -c (serverip)-i 2 -f -t 86400 >/opt/iperfclient-result.txt。

 

十二、netperf

安装:#tar -zxvf netperf-2.4.5.tar.gz;

#cd netperf-2.4.5;

#./configure --build mips(alpha)

#make;

#make install;

运行:2台机器网线直连,分别安装好netperf软件,分别设置好同一网段的IP地址,互相ping通。

1台机器作为服务器端,运行:#netserver;先运行服务器端,会提示打开xxx端口。

另一台机器作为客户端,运行:#netperf -HserverIP(即服务器端的IP地址) -l time(默认秒为单位),默认TCP批量传输,其他模式参数见netperf参数表格。

 

十三、linpack

linpack安装与运行:

#cp -rf mpich2-1.3.1.tar.gzhpl-2.0.tar.bz blas.gz /opt

#tar -zxvfmpich2-1.3.1.tar.gz

#cd mpich2-1.3.1

#./configure --prefix=/mpich--with-atomic-primitives=no --build=mips64el(双路龙芯需加入这一句)

#make

#make install

#cd /opt

#gzip -d blas.gz

#tar -xvf blas.tar

#cd BLAS

#vi make.inc

按“i”,修改FORTRAN= /mpich/bin/mpif77,和LOADER= /mpich/bin/mpif77,按Esc,按“:”,输入wq,敲回车。

#make

#cd /opt

#tar -zxvf hpl-2.0.tar.gz

#cd hpl-2.0/setup

#bash make_generic

#mv Make.UNKNOWN ../

#cd ..

#vi Make.UNKNOWN

按“i”,修改以下6行:TOPdir=/opt/hpl-2.0

MPdir= /mpich

LAdir= /opt/BLAS

LAlib= /opt/BLAS/blas_LINUX.a

CC= /mpich/bin/mpicc

LINKER= /mpich/bin/mpif77

按Esc,按“:”,输入wq,敲回车。

#make arch=UNKNOWN

#cd /opt/hpl-2.0/bin/UNKNOWN

#vi HPL.dat

修改Ns,NBs,Ps,Qs的值。

Ns的平方=总内存(Byte)*内存利用率(X86平台一般取80%,一般取10%、20%)/8;

NBs,X86平台一般取2个值168 192,一般取32 64;

Ps尽可能设置为1;

Qs设置为CPU总线程数,FT1000CPU有64线程,则Qs=64。

运行:#cd/opt/hpl-2.0/bin/UNKNOWN

#/mpich/bin/mpirun -np 64(测试的线程数) ./xhpl

可以在运行命令后加上测试结果的保存路径来保留测试记录,即#/mpich/bin/mpirun -np 64(测试的线程数) ./xhpl>/opt/linpack-result.txt。

NF2160老化脚本:t.sh

cd /opt/hpl-2.0/bin/UNKNOWN/

for((i=1;i<=5;i++))

do

  /mpich/bin/mpirun -np 64 ./xhpl>/usr/201206lpk-test$i

done

posted @ 2020-08-25 14:22  太八神  阅读(1027)  评论(0编辑  收藏  举报