1、Hadoop错误:Name node is in safe mode
解决:关闭Hadoop安全模式
hadoop dfsadmin -safemode leave
2、解压缩.gz 和 .bz2格式文件
在 tar
命令所在的那一行中,x
标记指定 tar
命令执行解压缩操作,f
标记则指定压缩包的文件名。 tar -xf spark-1.2.0-bin-hadoop2.4.tgz
.tar.gz 格式解压为
tar -zxvf xx.tar.gz
.tar.bz2 格式解压为
tar -jxvf xx.tar.bz2
3、从Windows到Linux文件乱码解决命令
iconv -f GBK -t UTF-8 aa.json -o bb.json
4、解压.bin文件
./**.bin
在JDK官网下载了一个jdk-6u45-linux-x64.bin
解压命令为:
./jdk-6u45-linux-x64.bin
5、MySQL中文乱码
编辑 /etc/mysql/my.cnf
[client] default-character-set=utf8 [mysqld] character-set-server=utf8
然后重启MySQL
sudo /etc/init.d/mysql restart
show variables like 'character%';
CentOS
vi /etc/my.cnf
service mysqld restart
6、CentOS常用命令
关闭防火墙 chkconfig iptables off
查看防火墙状态 service iptables status
http://blog.csdn.net/hooperzao/article/details/25111321
http://bdbaishitong.blog.163.com/blog/static/201493080201378662648/
CentOS 7关闭防火墙
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall开机启动
7、Linux修改文件夹权限及拥有者
chmod -R 777 file
chown -R hadoop:hadoop file
8、Tomcat启动停止
以服务启动Tomcat nohup bin/startup.sh &
关闭Tomcat服务 bin/shutdown.sh
9、Java解析CST格式时间
SimpleDateFormat simple = new SimpleDateFormat( "EEE MMM dd HH:mm:ss 'CST' yyyy", Locale.US); DateFormat format = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
format.format(simple.parse(“Mon Nov 19 14:06:58 CST 2012”.toString())
10、打开hiveserver2, 以后台进程的方式启动
hive --service hiveserver2 &
11、MongoDB解析GridFS中的ISODate
Date simple = new SimpleDateFormat("EEE MMM dd HH:mm:ss 'CST' yyyy",Locale.US);
Date result=simple.parse(simple.format(new Date()));
12、MongoDB多条件查询
查询某个时间区间的数据
BasicDBList conditionList = new BasicDBList();
conditionList.add(new BasicDBObject("uploadDate", new BasicDBObject("$gte", lowTime)));// 查询条件-时间下界
conditionList.add(new BasicDBObject("uploadDate", new BasicDBObject("$lte", highTime)));// 查询条件-时间上界
DBObject queryCondition = new BasicDBObject("$and", conditionList);
GridFS gf = new GridFS(db);
DBCursor cursor = gf.getDB().getCollection("fs.files").find(queryCondition);//从表 fs.files 中查询出所有JPG文件
或者
List<GridFSDBFile> fileList = gf.find(queryCondition);
删除GridFS中数据
gf.remove(queryCondition);// 删除GridFS中图片数据
参考:http://blog.csdn.net/mcpang/article/details/8731065
13、jar文件后台运行
如果在终端中执行java -jar xxx.jar&命令,当终端关闭时,xxx.jar也会同时结束运行,但是如果执行nohup java -jar xxx.jar&命令,则程序会在后台一直运行,值得注意的是,此时程序控制台输出会被转移到nohup.out文件中。
14、MongoDB修改连接数
MongoClient client=new MongoClient ("127.0.0.1",27017); MongoOptions option = client.getMongoOptions(); client.setConnectionsPerHost(100);// 设置每个主机的连接数 client.setThreadsAllowedToBlockForConnectionMultiplier(50);// 设置线程队列数
http://api.mongodb.org/java/2.13/
15、清空文件夹并重建
File file = new File(System.getProperty("user.dir") + "/dataToMatch"); if (!file.exists() && !file.isDirectory()) {// 不存在 file.mkdir(); } else if (file.exists() && file.isDirectory()) {// 存在 String basePath = file.getAbsolutePath(); String[] fileStrs = file.list(); File tp = null; for (String path : fileStrs) { tp = new File(basePath + "/" + path); tp.delete(); } file.delete(); file.mkdir(); } else { TimerJob.log.info("ERROR!"); }
16、List、Map、DBObject定义时初始化值
List
List<String> list = new ArrayList<String>() { { add("string1"); add("string2"); // some other add() code...... add("stringN"); } };
Map
Map<String, String> map = new HashMap<String, String>() { { put("key1", "value1"); put("key2", "111cn.Net"); // .... some other put() code put("keyN", "valueN"); } };
BasicDBObject
DBObject object= new BasicDBObject() { { put("name", name; put("id", id); } };
17、MySQL修改root密码
mysql -u root mysql> use mysql; mysql> UPDATE user SET Password = PASSWORD('newpass') WHERE user = 'root'; mysql> FLUSH PRIVILEGES;
http://jingyan.baidu.com/article/0320e2c198ad5f1b87507bc8.html
18、CentOS 6.5 SSH免密码登陆
(1)检查linux是否安装了SSH,命令为:
rpm -qa | grep ssh
安装SSH命令
yum install ssh 或者 yum install openssh-server yum -y install openssh-clients
(2)检查ssh服务是否开启,命令为:
service sshd status
若已经开启则显示为:
/etc/init.d/sshd: line 33: /etc/sysconfig/sshd: Permission denied openssh-daemon (pid 1946) is running...
若没有开启,则开启ssh服务,命令为:
service sshd start 或者 /etc/init.d/sshd start
(3)检查ssh是否是自动启动状态,命令为:
chkconfig --list sshd
2~5为on则表示ssh会在系统启动时自动启动
(4)生成公钥和私钥
ssh-keygen -t rsa 或者 ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
接着
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 或者 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
(5)在服务器上更改权限
chmod 700 ~/.ssh chmod 600 ~/.ssh/authorized_keys
(6)验证
ssh -version ssh localhost
(7)查看是否启动22端口
netstat -antp | grep sshd
19、Hadoop错误 org.apache.hadoop.yarn.exceptions.YarnException: Unauthorized request to start container.解决方法
问题原因:namenode,datanode时间同步问题
解决办法:多个datanode与namenode进行时间同步
在每台服务器上执行(把当前时区调整为上海+8区,然后利用ntpdate同步标准时间)
cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime ntpdate us.pool.ntp.org
如果没有ntpdate,则安装
yum install -y ntpdate
reboot重启之后,
查看时间和日期
date
查看当前时区
date -R
20、CentOS7无法使用ifconfig
安装net-tools包
yum install net-tools
21、CentOS 6.5安装MySQL
1)安装
yum install -y mysql-server mysql mysql-devel
2)启动MySQL
service mysqld start
3)设置开机启动
chkconfig mysqld on
4)第一次启动MySQL后,设置root账号密码
mysqladmin -u root password '123456'
5) 设置远程登陆
登陆MySQL
mysql -u root -p
然后输入
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' identified by '123456' WITH GRANT OPTION; flush privileges;
exit
并重启MySQL
service mysqld restart
22、hive错误解决
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:javax.jdo.JDODataStoreException: An exception was thrown while adding/validating class(es) : Specified key was too long; max key length is 767 bytes
解决办法:
登陆MySQL,运行
alter database hive character set latin1;
23、Java写文件指定编码格式
BufferedWriter bw = new BufferedWriter(new OutputStreamWriter( new FileOutputStream("data\\" + date + ".txt"), "UTF-8"));
24、JSP显示本地图片
需要设置虚拟目录,也就是说把硬盘上一个目录映射到tomcat的工作目录下,然后tomcat就可以根据一个映射关系找到硬盘中的文件了。
修改Tomcat的conf/server.xml文件
在<Host>标签内加入如下代码
<Context crossContext="true" docBase="/home/jason/upload" path="/upload" reloadable="true"></Context>
其中docBase就是本地电脑的绝对路径
path就是设置的虚拟路径
修改完之后需要重启tomcat服务器
然后,在JSP中调用
<input type="image" src="/upload/google.png" width="538px" height="190px" />
25、解压.rar文件
wget http://www.rarsoft.com/rar/rarlinux-4.0.1.tar.gz
tar -zxvf rarlinux-4.0.1.tar.gz cd rar make
运行命令rar时,出现下面这个问题
rar: /lib/i686/nosegneg/libc.so.6: version `GLIBC_2.7' not found (required by rar)
则进入rar目录
cp rar_static /usr/local/bin/rar
解压rar文件
rar x file.rar
打包成rar文件
rar file.rar ./file/
26、Java读写UTF-8文本
BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(new File("temp.txt")), "UTF-8"));
BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(new File("temp.txt")), "UTF-8"));
根据情况修改编码格式
unicode unicode big endian
utf-8 utf-8
utf-16 unicode
gb2312 ANSI
27、查看操作系统版本相关信息
cat /etc/issue
查看系统版本
cat /etc/redhat-release
28、查看系统硬件信息
grep MemTotal /proc/meminfo #查看内存总量 cat /proc/cpuinfo #查看CPU信息
free -m 查看内存信息
29、查看端口状态
/etc/init.d/iptables status
参考:http://www.centoscn.com/CentOS/help/2013/0725/558.html
30、nameserver
vi /etc/resolv.conf
nameserver 8.8.8.8 nameserver 8.8.4.4 nameserver 127.0.0.1
31、CentOS 6.5 修改系统ulimit 暨 org.apache.tomcat.jni.Error: 24: Too many open files 解决方法
vi /etc/security/limits.conf
添加
vi /etc/security/limits.d/90-nproc.conf
32、CentOS服务器 netstat命令 查看TCP连接数信息
netstat命令的功能是显示网络连接、路由表和网络接口的信息,可以让用户得知有哪些网络连接正在运作。在日常工作中,我们最常用的也就两个参数,即netstat –an,如下所示:
# netstat -an
netstat -an参数中stat(状态)的含义如下:
LISTEN:侦听来自远方的TCP端口的连接请求;
SYN-SENT:在发送连接请求后等待匹配的连接请求;
SYN-RECEIVED:在收到和发送一个连接请求后等待对方对连接请求的确认;
ESTABLISHED:代表一个打开的连接,我们常用此作为并发连接数;
FIN-WAIT-1:等待远程TCP连接中断请求,或先前的连接中断请求的确认;
FIN-WAIT-2:从远程TCP等待连接中断请求;
CLOSE-WAIT:等待从本地用户发来的连接中断请求;
CLOSING:等待远程TCP对连接中断的确认;
LAST-ACK:等待原来发向远程TCP的连接中断的确认;
TIME-WAIT:等待足够的时间以确保远程TCP连接收到中断请求的确认;
CLOSED:没有任何连接状态;
在日常工作中,我们可以用shell组合命令来查看服务器的TCP连接状态并汇总,命令如下:
netstat -an|awk '/^tcp/{++S[$NF]}END{for (a in S)print a,S[a]}'
参数说明:
CLOSED:没有连接活动或正在进行的;
LISTEN:服务器正在等待的进入呼叫;
SYN_RECV:一个连接请求已经到达,等待确认;
SYN_SENT:应用已经开始,打开一个连接;
ESTABLISHED:正常数据传输状态,也可以近似的理解为当前服务器的并发数;
FIN_WAIT1:应用已经完成;
FIN_WAIT2:另一边同意释放;
ITMED_WAIT:等待所有分组死掉;
CLOSING:两边同时尝试关闭;
TIME_WAIT:另一边已初始化一个释放;
LAST_ACK:等待所有分组死掉;
统计 TCP连接数 命令:
netstat -an |grep 'ESTABLISHED' |grep 'tcp' |wc -l
参考:http://blog.csdn.net/youngqj/article/details/763089
33、Windows下修改MySQL最大连接数
在C:\ProgramData\MySQL\MySQL Server 5.6目录下,修改my.ini
max_connections=3000
34、CentOS 6.5 x64安装htop
# yum install -y wget # wget http://download.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm # rpm -ivh epel-release-6-8.noarch.rpm # yum repolist # yum install -y htop
35、MySQL去除字段中的空格
update `dictionary_0` set `abbre`=replace(`abbre`,' ','');
36、jQuery UI autocomplete的提示框属性设置
jquery-ui.css:
.ui-state-hover, .ui-widget-content .ui-state-hover, .ui-widget-header .ui-state-hover, .ui-state-focus, .ui-widget-content .ui-state-focus, .ui-widget-header .ui-state-focus { border: 1px solid #DCDCDC;//设置鼠标经过提示条目时的边框颜色 background: #DCDCDC url("images/ui-bg_glass_100_fdf5ce_1x400.png") 50% 50% repeat-x;//设置鼠标经过时提示条目的背景颜色 font-weight: normal;//设置鼠标经过时字体的粗细 color: #000000;//设置鼠标经过时字体的颜色 } .ui-state-hover a, .ui-state-hover a:hover, .ui-state-hover a:link, .ui-state-hover a:visited, .ui-state-focus a, .ui-state-focus a:hover, .ui-state-focus a:link, .ui-state-focus a:visited { color: #000000; text-decoration: none; }
具体的可以尝试更改。
37、Cookie
在保存cookie之前把值编码下:
Cookie cookie = new Cookie(name, URLEncoder.encode(value, "UTF-8"));
取cookie值时解码:
String value = URLDecoder.decode(cookie.getValue(), "UTF-8");
38、Hive启动报错(Hive 1.2.1+Hadoop 2.6.0)
Exception in thread "main" java.lang.IncompatibleClassChangeError: Found class jline.Terminal, but interface was expected
at jline.console.ConsoleReader.<init>(ConsoleReader.java:230)
at jline.console.ConsoleReader.<init>(ConsoleReader.java:221)
解决办法:
将/opt/hadoop-2.6.0/share/hadoop/yarn/lib 下的jline-0.9.94.jar换成hive lib中的jline-2.12.jar
39、-bash: jps: command not found
vi ~/.bash_profile
修改
PATH=$PATH:$HOME/bin 》》》 PATH=$PATH:$HOME/bin:/sbin:/usr/bin:/usr/sbin
source /etc/profile
40、Spark Streaming中空batches处理的两种方法
Spark Streaming是近实时(near real time)的小批处理系统。对给定的时间间隔(interval),Spark Streaming生成新的batch并对它进行一些处理。每个batch中的数据都代表一个RDD,但是如果一些batch中没有数据会发生什么事情呢?Spark Streaming将会产生EmptyRDD的RDD,它的定义如下:
package org.apache.spark.rdd import scala.reflect.ClassTag import org.apache.spark.{Partition, SparkContext, TaskContext} /** * An RDD that has no partitions and no elements. */ private[spark] class EmptyRDD[T: ClassTag](sc: SparkContext) extends RDD[T](sc, Nil) { override def getPartitions: Array[Partition] = Array.empty override def compute(split: Partition, context: TaskContext): Iterator[T] = { throw new UnsupportedOperationException("empty RDD") } }
可以看到这个RDD并不对任何父RDD有依赖关系,我们不能调用compute方法计算每个分区的数据。EmptyRDD的存在是为了保证Spark Streaming中多个batch的处理是一致的。但是存在EmptyRDD有时候会产生一些问题,比如:如果你想将接收到的Streaming数据写入HDFS中:
val ssc = new StreamingContext(args(0), "iteblog", Seconds(10)) val socketStream = ssc.socketTextStream("www.iteblog.com", 8888) val outputDir = args(1) socketStream.foreachRDD(rdd => { rdd.saveAsTextFile(outputDir) })
当你调用foreachRDD的时候如果当前rdd是EmptyRDD,这样会导致在HDFS上生成大量的空文件!这肯定不是我们想要的,我们只想在存在数据的时候才写HDFS,我们可以通过以下的两种方法来避免这种情况:
socketStream.foreachRDD(rdd => { if (rdd.count() != 0) { rdd.saveAsTextFile(outputDir) } })
EmptyRDD的count肯定是0,所以这样可以避免写空文件,或者我们也可以用下面方法解决:
socketStream.foreachRDD(rdd => { if (!rdd.partitions.isEmpty) { rdd.saveAsTextFile(outputDir) } })
EmptyRDD是没有分区的,所以调用partitions.isEmpty是true。这样也可以解决上述问题。
虽然上面两种方法都可以解决这个问题,但是推荐使用第二种方法。因为第一种方法调用了RDD的count函数,这是一个Action,会触发一次Job的计算,当你的数据量比较大的时候,这可能会带来性能方面的一些影响;而partitions.isEmpty是不需要触发Job的。
不过如果你使用的是Sprk 1.3.0,你可以调用isEmpty函数来判断一个RDD是否为空,这个函数是在SPARK-5270引入的。
转自:http://www.iteblog.com/archives/1304
41、YARN中的kill应用的操作命令
bin/yarn application -kill <applicationId>
42、Kafka基本操作
启动后台运行 /opt/kafka/bin/kafka-server-start.sh -daemon /opt/kafka/config/server.properties
停止 /opt/kafka/bin/kafka-server-stop.sh
命令行创建主题
/opt/kafka/bin/kafka-topics.sh --create --zookeeper 192.168.1.101:2181,192.168.1.102:2181,192.168.1.103:2181/kafka --replication-factor 1 --partitions 3 --topic Prediction
命令行创建生产者和消费者
/opt/kafka/bin/kafka-console-producer.sh --broker-list 192.168.1.101:9092,192.168.1.102:9092,192.168.1.103:9092 --topic Prediction
/opt/kafka/bin/kafka-console-consumer.sh --zookeeper 192.168.1.101:2181,192.168.1.102:2181,192.168.1.103:2181/kafka --topic Prediction
43、CentOS查看文件大小
查找大文件
find pathName -type f -size +800M
查看某文件夹占用总的空间大小
du -h --max-depth=1 pathName
44、Tomcat时区与系统时区不一致
修改catalina.bat 或 catalina.sh,添加
WINDOWS:
set JAVA_OPTS=%JAVA_OPTS% -Xms256m -Xmx800m -Duser.timezone=GMT+08
LINUX :
JAVA_OPTS="-Xms512m -Xmx900m -Duser.timezone=GMT+08"
45、问题描述:VMware 12、CentOS7_1511,电脑死机,强制关机,重启后无法进行用户目录,挂载/home失败,出现如下bug
注:这里采用克隆一个虚拟系统来进行修复过程,以免修复错误造成损失。
修复过程:
1)输入root密码进入系统;
2)使用 df -h命令,可以看到没有挂载/home目录,而/etc/fstab中设置了默认挂载
3)使用 lvdisplay命令可以查看home所在的卷为/dev/centos/home
4)执行xfs_repair -n /dev/centos/home ,检查文件系统是否损坏
5)执行xfs_repair修复文件系统
# xfs_repair -L /dev/centos/home
Phase 1 - find and verify superblock... Phase 2 - using internal log - zero log... ALERT: The filesystem has valuable metadata changes in a log which is being destroyed because the -L option was used. - scan filesystem freespace and inode maps... agi unlinked bucket 4 is 2164932 in ag 1 (inode=1075906756) agi unlinked bucket 7 is 2164935 in ag 1 (inode=1075906759) agf_freeblks 56476472, counted 56476470 in ag 0 agi unlinked bucket 20 is 2011348 in ag 0 (inode=2011348) agi unlinked bucket 28 is 1254556 in ag 0 (inode=1254556) sb_ifree 502, counted 595 sb_fdblocks 228710581, counted 228715521 - found root inode chunk Phase 3 - for each AG... - scan and clear agi unlinked lists... - process known inodes and perform inode discovery... - agno = 0 data fork in ino 43450214 claims free block 6363218 data fork in ino 43450214 claims free block 6363219 imap claims a free inode 43450215 is in use, correcting imap and clearing inode cleared inode 43450215 Metadata corruption detected at xfs_dir3_block block 0x14b71c8/0x1000 corrupt block 0 in directory inode 58326652 will junk block no . entry for directory 58326652 no .. entry for directory 58326652 problem with directory contents in inode 58326652 cleared inode 58326652 - agno = 1 - agno = 2 - agno = 3 - process newly discovered inodes... Phase 4 - check for duplicate blocks... - setting up duplicate extent list... - check for inodes claiming duplicate blocks... - agno = 0 - agno = 1 - agno = 2 entry ".." at block 0 offset 32 in directory inode 58326656 references free inode 58326652 - agno = 3 entry ".idea" in shortform directory 3328138473 references free inode 58326652 junking entry ".idea" in directory inode 3328138473 Phase 5 - rebuild AG headers and trees... - reset superblock... Phase 6 - check inode connectivity... - resetting contents of realtime bitmap and summary inodes - traversing filesystem ... entry ".." in directory inode 58326656 points to free inode 58326652 bad hash table for directory inode 58326656 (no data entry): rebuilding rebuilding directory inode 58326656 - traversal finished ... - moving disconnected inodes to lost+found ... disconnected inode 1254556, moving to lost+found disconnected inode 2011348, moving to lost+found disconnected inode 43450214, moving to lost+found disconnected inode 58326654, moving to lost+found disconnected dir inode 58326656, moving to lost+found disconnected inode 58326657, moving to lost+found disconnected inode 101773608, moving to lost+found disconnected inode 101827014, moving to lost+found disconnected inode 101874234, moving to lost+found disconnected inode 1075906756, moving to lost+found disconnected inode 1075906759, moving to lost+found disconnected inode 1075906772, moving to lost+found disconnected dir inode 1141030705, moving to lost+found disconnected dir inode 3328200787, moving to lost+found Phase 7 - verify and correct link counts... resetting inode 1254512 nlinks from 2 to 5 resetting inode 3328138473 nlinks from 5 to 4 done
6)重新挂载/dev/centos/home到/home
# mount -t xfs /dev/centos/home /home/
参考:http://www.mamicode.com/info-detail-669354.html
46、分词
mmse4j
public static String doAndFilter(String words) { // ParaConfiguration paraConfiguration = ParaConfiguration.getInstance(); // String result = ""; // if (null != words && !words.equals("")) { // Seg seg = new MaxWordSeg(dic); // MMSeg mmSeg = new MMSeg(new StringReader(words), seg); // try { // Word word; // while ((word = mmSeg.next()) != null) { // // System.out.print(word + " "); // if (word.getLength() > 1) { // result += word + " "; // } // } // // System.out.println(); // } catch (Exception e) { // e.printStackTrace(); // } // } // return result; // }
IKAnalyzer
IKSegmenter ik = new IKSegmenter(new StringReader(words), false); //true粗粒度false细粒度 Lexeme lex = null; try { while ((lex = ik.next()) != null) { System.out.print(lex.getLexemeText() + "|"); } } catch (IOException e) { e.printStackTrace(); }
47、CentOS安装SBT
# curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo
# yum install sbt
48、ES 5.4.2启动报错
ERROR: [2] bootstrap checks failed [1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536] [2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144] [2017-06-22T14:43:25,884][INFO ][o.e.n.Node ] [yTEiH2w] stopping ... [2017-06-22T14:43:25,918][INFO ][o.e.n.Node ] [yTEiH2w] stopped [2017-06-22T14:43:25,919][INFO ][o.e.n.Node ] [yTEiH2w] closing ... [2017-06-22T14:43:25,932][INFO ][o.e.n.Node ] [yTEiH2w] closed
解决问题1:
$ sudo vi /etc/security/limits.conf
修改/etc/security/limits.conf文件,添加或修改:
* hard nofile 65536 * soft nofile 65536
或者
* soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096
解决问题2:
$ sudo sysctl -w vm.max_map_count=262144
或者修改 /etc/sysctl.conf 文件,添加 “vm.max_map_count”设置
$ sysctl -a
参考 http://blog.csdn.net/kongxx/article/details/52993057
49、安装RabbitMQ
1)安装erlang yum install erlang 2)导入公共签名密钥 rpm --import https://www.rabbitmq.com/rabbitmq-release-signing-key.asc 3)下载rabbitmq安装包 wget http://www.rabbitmq.com/releases/rabbitmq-server/v3.6.10/rabbitmq-server-3.6.10-1.el7.noarch.rpm 4)安装rabbitmq yum install rabbitmq-server-3.6.10-1.el7.noarch.rpm 5)启动 service rabbitmq-server start /bin/systemctl start rabbitmq-server.service
50、EPEL源
# yum install -y epel-release.noarch
# yum repolist
# yum install -y epel-release.noarch
51、CURL
$ curl -i -X POST -H "Content-Type:application/json" -d "{ \"firstName\" : \"Frodo\", \"lastName\" : \"Baggins\" }" http://localhost:8080/people HTTP/1.1 201 Created Server: Apache-Coyote/1.1 Location: http://localhost:8080/people/53149b8e3004990b1af9f229 Content-Length: 0 Date: Mon, 03 Mar 2014 15:08:46 GMT
-i ensures you can see the response message including the headers. The URI of the newly created Person is shown -X POST signals this a POST used to create a new entry -H "Content-Type:application/json" sets the content type so the application knows the payload contains a JSON object -d '{ "firstName" : "Frodo", "lastName" : "Baggins" }' is the data being sent
52、CentOS 7安装sbt
curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo sudo yum install sbt
53、MongoDB Document 与JSON互转
# Document 转 对象
Document doc = new Document(); Employee emp = new Gson().fromJson(document.toJson(), Employee.class); # 对象 转 Document Customer customer = new Customer(); Document doc = Document.parse(new Gson().toJson(customer));
<dependency> <groupId>com.google.code.gson</groupId> <artifactId>gson</artifactId> <version>2.8.0</version> </dependency>
54、安装nodejs
Node.js 8 curl --silent --location https://rpm.nodesource.com/setup_8.x | sudo bash - sudo yum -y install nodejs
参考:https://nodejs.org/en/download/package-manager/
55、hadoop/spark切换端口
如果ssh端口不是操作系统默认的22端口,在这里假设ssh端口号为16922
在hadoop里面修改hadoop-env.sh,增加
export HADOOP_SSH_OPTS="-p 16922"
在spark里面修改spark-env.sh,增加
export SPARK_SSH_OPTS="-p 16922"
56、系统可用的处理器个数
Runtime.getRuntime().availableProcessors()
57、centOS7下安装GUI图形界面
1)在命令行下 输入下面的命令来安装Gnome包。
# yum groupinstall "GNOME Desktop" "Graphical Administration Tools"
2)更新系统的运行级别。
# ln -sf /lib/systemd/system/runlevel5.target /etc/systemd/system/default.target
3)重启机器。启动默认进入图形界面。
# reboot
http://www.cnblogs.com/c-xiaohai/p/6509641.html
58、多线程
ExecutorService executorService = Executors.newCachedThreadPool(); AtomicInteger temp = new AtomicInteger(); Dao.findAll().forEach( score -> { // Lambda Runnable executorService.submit(() -> { temp.incrementAndGet(); writeToMySQL(score.getId(), score.Id()); temp.decrementAndGet(); }); } ); while (true) { System.out.println(temp.get()); if (temp.get() == 0) { break; } try { Thread.sleep(1000); } catch (InterruptedException e) { e.printStackTrace(); System.out.println("ExecutorService Stop ERROR"); break; } }
59、CentOS安装sbt
curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintray-sbt-rpm.repo sudo yum install sbt
60、SVN无法clean up
step1:到sqlite官网(http://www.sqlite.org/download.html)下载sqlite3.exe;找到PrecompiledBinariesforWindows,点击sqlite-shell-win32-x86-3080500.zip下载,300KB左右.
step2:将下载到的sqlite3.exe放到某文件目录(我这里是F:\devTools\sqlite3)
step3:然后设置svn源代码文件夹及文件显示所有文件(包括隐藏文件),会发现.svn/wc.db文件,将其复制到step2的目录下
step4:开始->运行->打开cmd命令,跳转到setp2的文件目录中,执行打开wc.db的操作,然后删除里面work_queue表的数据即可,具体见图:
step5:将wc.db覆盖到svn源代码目录的.svn目录下(替换原来的wc.db)。
step6:再次对svn目录进行clean操作,即可cleanUp成功。
http://blog.csdn.net/u012049463/article/details/41517343
61、MongoDB 中文排序
默认情况下,中文字段会被当做一个普通的二机制字符串来对比。MongoDB 3.4支持指定collation使用中文排序。
https://docs.mongodb.com/manual/reference/collation/
http://www.mongoing.com/archives/3912
62、IDEA SBT
vi ~/.sbt/repositories
[repositories] local ui:http://uk.maven.org/maven2/ ui-ivy:http://uk.maven.org/maven2/,[organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext] typesafe:http://repo.typesafe.com/typesafe/releases/ typesafe-ivy: http://repo.typesafe.com/typesafe/ivy-releases/,[organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext], bootOnly sbt-plugin: http://repo.scala-sbt.org/scalasbt/sbt-plugin-releases/ sonatype: http://oss.sonatype.org/content/repositories/snapshots repo2: http://repo2.maven.org/maven2/
63、Spring data mongodb排序有三种方式
1)一个字段的排序
query.with(new Sort(Direction.ASC,"onumber"));
2)多个字段时同时升序或者降序时
query.with(new Sort(Direction.ASC,"a","b","c"));
3)不同的字段按照不同的排序
List<Sort.Order>orders=new ArrayList<Sort.Order>(); orders.add(newSort.Order(Direction.ASC, "a")); orders.add(newSort.Order(Direction.DESC, "b")); query.with(newSort(orders ));
64、map排序
// sort //将map.entrySet()转换成list List<Map.Entry<String, Double>> list = new ArrayList<>(Map.entrySet()); //然后通过比较器来实现排序// With lambdas Collections.sort(list, (Map.Entry<String, Double> o1, Map.Entry<String, Double> o2) -> { double temp = o2.getValue() - o1.getValue(); if (temp > 0) { return 1; } else if (temp == 0) { return 0; } else { return -1; } });
65、查看CPU信息
cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c
查看内存信息
cat /proc/meminfo
66、修改系统文件数限制、进程限制
*** [WARN] *** Your open file limit is currently 1024. It should be set to 65000 to avoid operational disruption. If you no longer wish to see this warning, set SOLR_ULIMIT_CHECKS to false in your profile or solr.in.sh *** [WARN] *** Your Max Processes Limit is currently 4096. It should be set to 65000 to avoid operational disruption. If you no longer wish to see this warning, set SOLR_ULIMIT_CHECKS to false in your profile or solr.in.sh Warning: Available entropy is low. As a result, use of the UUIDField, SSL, or any other features that require RNG might not work properly. To check for the amount of available entropy, use 'cat /proc/sys/kernel/random/entropy_avail'.
修改/etc/security/limits.conf文件,在最后添加
* hard nofile 65000 * soft nofile 65000 * hard nproc 65000 * soft nproc 65000
67、vim常用命令
i 切换到输入模式,以输入字符 ESC,退出输入模式,切换到命令模式 0 或功能键[Home] 这是数字『 0 』:移动到这一行的最前面字符处 $ 或功能键[End] 移动到这一行的最后面字符处 G 移动到这个档案的最后一行 /word 向光标之下寻找一个名称为 word 的字符串。例如要在档案内搜寻 vbird 这个字符串,就输入 /vbird 即可! (常用) x, X 在一行字当中,x 为向后删除一个字符 (相当于 [del] 按键), X 为向前删除一个字符(相当于 [backspace] 亦即是退格键) (常用) dd 删除游标所在的那一整行(常用) ndd n 为数字。删除光标所在的向下 n 行,例如 20dd 则是删除 20 行 (常用) yy 复制游标所在的那一行(常用) nyy n 为数字。复制光标所在的向下 n 行,例如 20yy 则是复制 20 行(常用) p, P p 为将已复制的数据在光标下一行贴上,P 则为贴在游标上一行! 举例来说,我目前光标在第 20 行,且已经复制了 10 行数据。则按下 p 后, 那 10 行数据会贴在原本的 20 行之后,亦即由 21 行开始贴。
但如果是按下 P 呢? 那么原本的第 20 行会被推到变成 30 行。 (常用) u 复原前一个动作。(常用) [Ctrl]+r 重做上一个动作。(常用)
i, I 进入输入模式(Insert mode):
i 为『从目前光标所在处输入』, I 为『在目前所在行的第一个非空格符处开始输入』。 (常用)
a, A 进入输入模式(Insert mode):
a 为『从目前光标所在的下一个字符处开始输入』, A 为『从光标所在行的最后一个字符处开始输入』。(常用)
o, O 进入输入模式(Insert mode):
这是英文字母 o 的大小写。o 为『在目前光标所在的下一行处输入新的一行』; O 为在目前光标所在处的上一行输入新的一行!(常用)
r, R 进入取代模式(Replace mode):
r 只会取代光标所在的那一个字符一次;R会一直取代光标所在的文字,直到按下 ESC 为止;(常用)
68、Maven设置国内镜像地址
在maven的conf目录下的settings.xml文件的<mirrors>标签中增加以下内容
<mirror> <id>alimaven</id> <mirrorOf>central</mirrorOf> <name>aliyun maven</name> <url>http://maven.aliyun.com/nexus/content/groups/public/</url> </mirror>
69、设置阿里云maven仓库
<!-- 阿里云maven仓库 --> <repositories> <repository> <id>public</id> <name>aliyun nexus</name> <url>http://maven.aliyun.com/nexus/content/groups/public/</url> <releases> <enabled>true</enabled> </releases> </repository> </repositories> <pluginRepositories> <pluginRepository> <id>public</id> <name>aliyun nexus</name> <url>http://maven.aliyun.com/nexus/content/groups/public/</url> <releases> <enabled>true</enabled> </releases> <snapshots> <enabled>false</enabled> </snapshots> </pluginRepository> </pluginRepositories>
70、Tomcat设定时区
JAVA_OPTS="-Xms512m -Xmx900m -Duser.timezone=GMT+08"
71、年月日
public void judgeTime() throws ParseException { SimpleDateFormat datetimeFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss"); Calendar calendar = Calendar.getInstance(); calendar.setTime(datetimeFormat.parse("2018-10-12 12:00:00")); calendar.setMinimalDaysInFirstWeek(7); //取得当前时间 String currentTime = datetimeFormat.format(calendar.getTime()); calendar.add(Calendar.DAY_OF_MONTH, -1); //前一天 String beforeDate = new SimpleDateFormat("yyyy-MM-dd").format(calendar.getTime()); int year = calendar.get(Calendar.YEAR);//年 int month = calendar.get(Calendar.MONTH) + 1;//0-11月 int quarter = DateUtil.getQuarter(month);//季度 int week = calendar.get(Calendar.WEEK_OF_YEAR);//周 String startTime, endTime, timeRange, pushDate;//开始时间/结束时间/时间范围/推送日期 //-------------------------------- 日统计:每天凌晨1点,统计前一天(工作日)数据 ----------------------------------// // -------------------判断是否是工作日 int workingDay = statisticsMapper.judgeWorkingDay(beforeDate); System.out.println("统计的日期:" + beforeDate + "\t" + (workingDay == 0 ? "工作日" : "非工作日")); if (workingDay == 0) {//工作日 startTime = beforeDate + " 00:00:00"; endTime = beforeDate + " 23:59:59"; timeRange = year + "年" + month + "月" + calendar.get(Calendar.DAY_OF_MONTH) + "日"; pushDate = statisticsMapper.getNextWorkingDayAfterDate(beforeDate); //日期的下一个工作日 System.out.println("日统计:\t时间范围=" + timeRange + "\t开始时间=" + startTime + "\t结束时间=" + endTime + "\t推送日期=" + pushDate ); } //--------------------------------- 周统计:每周一凌晨1点,统计上一周数据 ----------------------------------// if (calendar.get(Calendar.DAY_OF_WEEK) == Calendar.SUNDAY) { Calendar calendar1 = Calendar.getInstance(); calendar1.setTime(calendar.getTime()); calendar1.add(Calendar.DAY_OF_MONTH, -6); startTime = datetimeFormat.format(calendar1.getTime()); endTime = beforeDate + " 23:59:59"; timeRange = year + "年第" + week + "周次"; pushDate = statisticsMapper.getNextWorkingDayAfterDate(beforeDate); //本周第一个工作日 System.out.println("周统计:\t时间范围=" + timeRange + "\t开始时间=" + startTime + "\t结束时间=" + endTime + "\t推送日期=" + pushDate ); } //-------------------------------- 月度统计:每月度第一天凌晨1点,统计上一月度数据 ---------------------------------// if (currentTime.substring(8, 10).equals("01")) {//1日 startTime = DateUtil.getStartTimeOfMonth(month); endTime = DateUtil.getEndTimeOfMonth(month); timeRange = year + "年第" + month + "月度"; pushDate = statisticsMapper.getFirstWorkingDayOfMonth(currentTime.substring(0, 7));//本月第一个工作日 System.out.println("月度统计:\t时间范围=" + timeRange + "\t开始时间=" + startTime + "\t结束时间=" + endTime + "\t推送日期=" + pushDate ); //------------------------------- 季度统计:每季度第一天凌晨1点,统计上一个季度数据 --------------------------------// if (currentTime.substring(5, 7).equals("01") || currentTime.substring(5, 7).equals("04") || currentTime.substring(5, 7).equals("07") || currentTime.substring(5, 7).equals("10")) {//1月1日,4月1日,7月1日,10月1日 startTime = DateUtil.getStartTimeOfQuarter(quarter); endTime = DateUtil.getEndTimeOfQuarter(quarter); timeRange = year + "年第" + quarter + "季度"; System.out.println("季度统计:\t时间范围=" + timeRange + "\t开始时间=" + startTime + "\t结束时间=" + endTime + "\t推送日期=" + pushDate ); //-------------------------------- 年度统计:每年度第一天凌晨1点,统计上一年度数据 ---------------------------------// if (currentTime.substring(5, 7).equals("01")) {//1月1日 startTime = DateUtil.getStartTimeOfYear(year); endTime = DateUtil.getEndTimeOfYear(year); timeRange = year + "年度"; System.out.println("年度统计:\t时间范围=" + timeRange + "\t开始时间=" + startTime + "\t结束时间=" + endTime + "\t推送日期=" + pushDate ); } } } }
72、Restful API防止重复提交
后端根据请求的uriPath+userId+MD5(JsonString(所有参数))作为key,来确定唯一。采用redis分布式锁
采用计数器:每次request进来则新建一个以orderId为key的计数器,然后+1。
如果>1(不能获得锁): 说明有操作在进行,删除。 如果=1(获得锁): 可以操作。
操作结束(删除锁):删除这个计数器。
73、warning: LF will be replaced by CRLF in src/xx.java.
提交检出均不转换
git config core.autocrlf false
74、Spring boot应用指定profile
1)application.properties
#使用的环境名称
spring.profiles.active=dev
2)application.yml
#需要使用的配置文件
spring:
profiles:
active: prod
3)Program arguments
在IDE的Program arguments中配置参数
--spring.profiles.active=dev
4)虚拟机的方式
在VM options下使用命令:-Dspring.profiles.active=prod
-Dspring.profiles.active=prod
5)命令行
将项目打包成jar包,切换到命令行的界面下使用命令: java -jar application.jar --spring.profiles.active=prod进行打包。
java -jar application.jar --spring.profiles.active=prod
75、
Mysql服务器的三种时区设置
1)系统时区 - 保存在系统变量system_time_zone
2)服务器时区 - 保存在全局系统变量global.time_zone
3)每个客户端连接的时区 - 保存在会话变量session.time_zone
MySQL查看时区
show global variables like'%time_zone%';
flush privileges;
76、查看域名的HTTPS到期时间
# echo | openssl s_client -servername www.XX.cn -connect www.XX.cn:443 2>/dev/null | openssl x509 -noout -dates
77、文件替换弹框
rz -y
78、查看Nginx安装了哪些模块
nginx -V
查看Nginx版本信息
nginx -v
重新载入配置文件
nginx -s reload
重启 Nginx
nginx -s reopen
停止 Nginx
nginx -s stop
79、MySQL导出函数
mysqldump -hlocalhost -uroot -ntd -R hqgr > hqgr.sql
其中的 -ntd 是表示导出存储过程;-R是表示导出函数
80、tomcat调用接口报错
java.lang.IllegalArgumentException: Invalid character found in the request target. The valid characters are defined in RFC 7230 and RFC 3986
解决办法:
在Tomcat的catalina.properties文件中添加
tomcat.util.http.parser.HttpParser.requestTargetAllow=|{}
81、List转成Set
new HashSet<>(appIdList)
Set转成以逗号分隔的String
Set<String> set; String.join(",", set);
以逗号分隔的String转成Set
Set<String> set; set.addAll(Arrays.asList(strAppId.trim().split(",")))
82、关闭Swagger
在Swagger2Config上使用@Profile注解标识,@Profile({"dev","test"})表示在dev和test环境才能访问swagger-ui.html,prod环境下访问不了
83、