大数据自动化安装部署方案(一) - 集群系统环境设置
大数据自动化安装部署方案(一) - 集群系统环境设置
1.前期准备
1.1系统和yum源镜像准备
需要的条件:
① 至少三台刚装上Centos7.0系统的物理机或者虚拟机;
② CentOS-7.0-x86_64-bin-DVD1.iso镜像,用于制作本地yum源;
注意:本文三台物理机或虚拟机的操作系统镜像是CentOS-7-x86_64-Minimal-1804.iso。
用于制作本地yum源的CentOS-7.0-x86_64-bin-DVD1.iso镜像默认存放于第一节点node1的/opt/system下
1.2 配置文件host_ip.txt和frames.tx准备
host_ip.txt文件为集群ip、hostname、root账号密码配置;而frames.txt为所需要安装的软件配置说明,其中false为不安装,true为安装
host_ip.txt内容为:
192.168.187.201 node1 root hadoop
192.168.187.202 node2 root hadoop
192.168.187.203 node3 root hadoop
frames.txt内容为:
复制代码
jdk-8u181-linux-x64.tar.gz true
scala-2.11.0.tgz true
hadoop-2.7.6.tar.gz true
hbase-2.0.1-bin.tar.gz true
apache-hive-2.3.3-bin.tar.gz true
zookeeper-3.4.13.tar.gz true
spark-2.3.1-bin-hadoop2.7.tgz true
kafka_2.11-1.1.1.tgz true
复制代码
1.3 安装软件准备
需要在官网上下载frames.txt所列的软件安装包,可以自行下载。
这里默认所有的软件安装包放在第一节点node1的/opt/frames目录下,下面涉及软件部分的shell操作都会根据/opt/frames/目录下是否有该软件再进行自动安装。
1.4 shell命令文本准备
以下shell文本文件,以及host_ip.txt和frames.txt文件,都默认放置在第一节点node1的/home/hadoop/automaticDeploy目录下,如图:
2.模块化自动安装部署
注意:以下所有shell命令的执行,都需要以root用户执行
模块化自动安装部署包括IP地址设置、机器名hostname修改、host配置文件修改、关闭防火墙/SELINUX、添加bigdata用户名、配置yum源、配置SSH无密码登录、配置JDK环境、配置Scala环境共9个模块。
2.1 集群中每台机器IP地址的设置
集群中每台机器首先需要设置IP地址,保证机器与机器之间可以直接通过ip地址访问。
IP地址设置shell命令文件editIpAddr.sh代码如下:
复制代码
! /bin/bash
################
针对Centos-7.0
################
处理涉及到IP地址设置的网络文件,备份并创建新的
function doWithNetworkFile()
{
1.查找/etc/sysconfig/network-scripts/目录下是否存在ifcfg-ens33文件,存在则重命名为.bak结尾的
fileResult=find /etc/sysconfig/network-scripts/ -name "ifcfg-ens33"
if [[ $fileResult != "" ]]
then
#2.创建一个ifcfg-ens33文件用于配置网络设置
result=find /etc/sysconfig/network-scripts -wholename $fileResult.bak
if [[ -z $result ]]
then
mv $fileResult $fileResult.bak
fi
cp $fileResult.bak $fileResult
else
touch /etc/sysconfig/network-scripts/ifcfg-ens33
fi
}
配置ip地址
function configureIpAddr()
{
ip=$1
gateway=$2
fileUrl=/etc/sysconfig/network-scripts/ifcfg-ens33
1.把ifcfg-ens33文件非#开头的行注释掉
sed -i 's/[#]/#&/' $fileUrl
UUID=grep "^#UUID=*" $fileUrl | head -1
2.配置内网IP地址
连接类型
echo "TYPE=Ethernet" >> $fileUrl
静态IP
echo "BOOTPROTO=static" >> $fileUrl
echo "DEFROUTE=yes" >> $fileUrl
echo "IPV4_FAILURE_FATAL=no" >> $fileUrl
IPV6关闭
echo "IPV6INIT=no" >> $fileUrl
配置名字
echo "NAME=ens33" >> $fileUrl
唯一标识
echo "${UUID:1}" >> $fileUrl
网卡名称
echo "DEVICE=ens33" >> $fileUrl
开机即启动网络
echo "ONBOOT=yes" >> $fileUrl
IP地址
echo "IPADDR=$ip" >> $fileUrl
echo "PREFIX=24" >> $fileUrl
网络掩码
echo "NETMASK=255.255.255.0" >> $fileUrl
网关
echo "GATEWAY=$gateway" >> $fileUrl
}
function editIpAddr()
{
ip=$1
gateway=$2
处理涉及到IP地址设置的网络文件,备份并创建新的
doWithNetworkFile
在/etc/sysconfig/network-scripts/ifcfg-ens33上设置IP地址
configureIpAddr $ip $gateway
重启网络服务
service network restart
}
ip=$1
gateway=$2
editIpAddr $ip $gateway
复制代码
分别在三台机器上以root用户执行如下命令:
/home/hadoop/automaticDeploy/systems/editIpAddr.sh 192.168.187.*** 192.168.187.2
注意:
①网关192.168.187.2需要通过 route -n 命令(CentOS7以上使用)查看,如图:
②不同机器的ip地址是不一样的,这里指IP地址的前三个数值是一样,前三个数值与网关的前三个数值是一致的;只有最后一个***是根据需求设置,一般在0~255之间。这里我假定三个节点node1、node2、node3的IP分别为192.168.187.201,192.168.187.202,192.168.187.203。
2.2 修改机器名hostname
changeHostname.sh代码如下:
复制代码
! /bin/bash
修改机器名hostname
function changeHostname()
{
hostname=$1
echo "change the hostname $1"
egrep "^HOSTNAME=" /etc/sysconfig/network >& /dev/null
if [ $? -eq 0 ]
then
#存在则删除旧的hostname
sed -i "/^HOSTNAME=/d" /etc/sysconfig/network
fi
添加新的hostname
echo "HOSTNAME=$hostname" >> /etc/sysconfig/network
echo "change the hostname $1 successfully"
}
获取参数
node=$1
if [ -z $node ]
then
echo "参数为空,请输入参数node1,node2,node3..."
else
changeHostname \(node
fi
复制代码
以root用户执行如下命令,\)hostname为参数传值,设为node1、node2、node3....
/home/hadoop/automaticDeploy/systems/changeHostname.sh $hostname
2.3 host配置文件修改
addClusterIps.sh代码如下:
复制代码
! /bin/bash
添加Ip、hostname到/etc/hosts文件里面
function addIpToHostFile()
{
ip=$1
hostname=$2
查询$ip是否存在于/etc/hosts里面
egrep "^$ip" /etc/hosts >& /dev/null
if [ \(? -eq 0 ]
then
#\)?是上一个程序执行是否成功的标志,如果执行成功则\(?为0,否则不为0,存在则先把就的ip设置删除掉
sed -i "/^\)ip/d" /etc/hosts
fi
把ip、hostname添加到/etc/hosts中
echo "$ip $hostname" >> /etc/hosts
}
执行ssh免密登录之前,hosts文件里面需要存储每台机器的ip地址
function editHostFile()
{
echo "edit the host file"
1./home/hadoop/host_ip.txt文件中读取ip和hostname
while read line
do
提取文件中的ip
ip=echo $line | cut -d " " -f1
提取文件中的用户名
hostname=echo $line | cut -d " " -f2
addIpToHostFile $ip $hostname
done < /home/hadoop/automaticDeploy/host_ip.txt #读取存储ip的文件
echo "edit the host file successfully"
}
editHostFile
复制代码
以root用户执行命令:
/home/hadoop/automaticDeploy/systems/addClusterIps.sh
2.4 关闭防火墙、SELINUX
closeFirewall.sh命令如下:
复制代码
! /bin/bash
function closeFirewallAndGetenforce()
{
1.关闭防火墙
firewallStatus=firewall-cmd --state
if [[ $firewallStatus = "running" ]]
then
systemctl stop firewalld.service &&systemctl disable firewalld.service
fi
2.关闭getenforce
getenforceStatus=getenforce
egrep "^SELINUX=enforcing" /etc/selinux/config >& /dev/null
if [[ $getenforceStatus = "Enforcing" || $? -eq 0 ]]
then
sed -i 's/^SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
fi
3.重启,使设置生效
reboot
}
function startFirewallAndGetenforce()
{
1.开启防火墙
firewallStatus=firewall-cmd --state
if [[ $firewallStatus != "running" ]]
then
systemctl enable firewalld.service && systemctl start firewalld.service
fi
2.开启getenforce
getenforceStatus=getenforce
egrep "^SELINUX=disabled" /etc/selinux/config >& /dev/null
if [[ $getenforceStatus = "Disabled" || $? -eq 0 ]]
then
sed -i 's/^SELINUX=disabled/SELINUX=enforcing/' /etc/selinux/config
fi
3.重启,使设置生效
reboot
}
operate=$1
if [ -z $operate ]
then
echo "参数为空,请输入参数close或start"
else
if [[ $operate = "close" ]]
then
closeFirewallAndGetenforce
fi
if [[ $operate = "start" ]]
then
startFirewallAndGetenforce
fi
fi
复制代码
这里提供开启和关闭防火墙两种功能,方便操作。以root用户执行该shell命令时,需要输入参数close或start:
/home/hadoop/automaticDeploy/systems/closeFirewall.sh close
2.5 添加系统bigdata用户
autoCreateUser.sh代码如下:
复制代码
! /bin/bash
创建bigdata用户组,创建bigdata用户并设置密码
function createUserAndGroup()
{
echo "start to create user 'bigdata'!"
user=$1
group=$2
create group if not exists
在/etc/group中查找用户组是否存在,并把错误输出输到/dev/null中
egrep "^$group" /etc/group >& /dev/null
判断上一命令是否等于0,不等于则创建用户组
if [ $? -ne 0 ]
then
groupadd $group
fi
create user if not exists
egrep "^$user" /etc/passwd >& /dev/null
if [ $? -ne 0 ]
then
useradd -g $group $user
fi
在shell中使用expect实现自动输入密码,通常需要与'expect <<EOF EOF'、spawn、子expect一起使用
expect << EOF
spawn passwd \(user
expect "New password:"
send "\){user}\r"
expect "Retype new password:"
send "${user}\r"
expect eof;
EOF
}
删除bigdata用户,删除bigdata用户组
function deleteUserAndGroup()
{
user=$1
group=$2
echo "delete the user:" $user " and the userGroup:" $group
userdel -r $user
if [ $user != $group ]
then
groupdel $group
fi
}
operate=$1
if [ -z $operate ]
then
echo "参数为空,请输入参数create或delete"
else
if [[ $operate = "create" ]]
then
createUserAndGroup bigdata bigdata
fi
if [[ $operate = "delete" ]]
then
deleteUserAndGroup bigdata bigdata
fi
fi
复制代码
这里提供创建、删除用户两种操作,以root用户执行该命令需要输入参数create或者delete:
/home/hadoop/automaticDeploy/systems/autoCreateUser.sh create
2.6 配置yum源
由于大数据平台一般是在内网环境下搭建的,所以需要配置本地yum源,用以解决一些依赖包缺少的问题,这里以node1节点作为本地yum源所在的服务器,以CentOS-7.0-x86_64-bin-DVD1.iso作为yum源的source。
configureYum.sh代码如下:
复制代码
! /bin/bash
配置yum源
function configureYumSource()
{
yumUrl=$1
yumFile=$2
1.把CentOS-Media.repo文件非#开头的行注释掉
sed -i 's/[#]/#&/' $yumFile
2.配置本地源
echo "[base]" >> $yumFile
echo "name=CentOS-Local" >> \(yumFile
echo "baseurl=\)yumUrl" >> $yumFile
echo "gpgcheck=0" >> $yumFile
echo "enabled=1" >> $yumFile
echo "gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7" >> $yumFile
3.清除YUM缓存
yum clean all > /dev/null 2>&1
4.列出可用的YUM源
yum repolist > /dev/null 2>&1
}
处理并保证只有一个CentOS-Media.repo文件存在
function doWithRepoFile()
{
1.进入到yum.repos.d目录
cd /etc/yum.repos.d/
2.查找/etc/yum.repos.d/目录下是否存在.repo结尾的文件,存在则重命名为.repo.bak结尾的
fileResult=find /etc/yum.repos.d/ -name "*.repo"
for file in $fileResult
do
onlyFile=find /etc/yum.repos.d -wholename $file.bak
if [[ -z $onlyFile ]]
then
mv $file $file.bak
fi
done
3.只创建一个.repo文件用于配置本地yum源
result=find /etc/yum.repos.d/ -name CentOS-Media.repo.bak
if [[ -z $result ]]
then
touch CentOS-Media.repo
else
cp CentOS-Media.repo.bak CentOS-Media.repo
fi
}
#############################################################################
同一函数及其调用的子函数,父函数与子函数均有一样的变量名,而内容不一样会报错
#############################################################################
配置本地源
function localYumSource()
{
systemUrl=$1
ip=$2
yumFile=/etc/yum.repos.d/CentOS-Media.repo
1.不存在则创建mount的目录
if [ ! -d /var/iso ]
then
mkdir /var/iso
fi
挂载系统,已挂载则不再次挂载
if [ ! -d /var/iso/CentOS_BuildTag ]
then
mount -o loop $systemUrl /var/iso
fi
2.处理并保证只有一个CentOS-Media.repo的文件用于配置本地yum源
doWithRepoFile
3.配置yum源
configureYumSource file:///var/iso $yumFile
4.安装相应的软件
httpdIsExists=rpm -qa | grep http
if [[ -z $httpdIsExists ]]
then
yum install -y httpd
fi
5.开启httpd使用浏览器访问
service httpd start
httpdStatus=systemctl status httpd.service
result=$(echo $httpdStatus | grep "Active: active (running)")
if [[ $result = "" ]]
then
systemctl start httpd.service
fi
6.将YUM源配置到httpd中,其他的服务器可通过网络访问这个内网中的YUM源
httpUrl=/var/www/html/CentOS-7.0
if [ ! -e $httpUrl/lock ]
then
cp -r /var/iso $httpUrl
echo "lock" >> $httpUrl/lock
fi
7.取消先前挂载的镜像 强制取消,哈哈哈哈
umount -fl /var/iso
8.修改yum源指向的地址
sed -i 's/^baseurl=file:///var/iso/baseurl=http://'$ip'/CentOS-7.0/' $yumFile
9.清除YUM缓存
yum clean all > /dev/null 2>&1
10.列出可用的YUM源
yum repolist > /dev/null 2>&1
echo "create the local yum source successfully"
}
配置远程yum源
function remoteYumSource()
{
ip=\(1
yumUrl=http://\)ip/CentOS-7.0
yumFile=/etc/yum.repos.d/CentOS-Media.repo
1.处理并保证只有一个CentOS-Media.repo的文件用于配置yum源
doWithRepoFile
2.配置yum源
configureYumSource $yumUrl $yumFile
}
hostname=$1
if [[ \(hostname = "node1" ]] then localYumSource /opt/system/CentOS-7-x86_64-DVD-1804.iso 192.168.187.201 else remoteYumSource 192.168.187.201 fi 复制代码 以root用户执行代码如下,参数\)hostname一般为node1、node2、node3:
/home/hadoop/automaticDeploy/systems/configureYum.sh $hostname
2.7 配置SSH无密码登录
sshFreeLogin代码如下:
复制代码
! /bin/bash
function sshFreeLogin()
{
1.检测expect服务是否存在,不存在则使用yum安装expect
expectIsExists=rpm -qa | grep expect
if [ -z $expectIsExists ]
then
yum -y install expect
fi
2.密钥对不存在则创建密钥
[ ! -f /root/.ssh/id_rsa.pub ] && ssh-keygen -t rsa -P "" -f /root/.ssh/id_rsa
while read line;do
#提取文件中的ip
hostname=echo $line | cut -d " " -f2
#提取文件中的用户名
user_name=echo $line | cut -d " " -f3
#提取文件中的密码
pass_word=echo $line | cut -d " " -f4
expect <<EOF
#复制公钥到目标主机
spawn ssh-copy-id $hostname
expect {
#expect实现自动输入密码
"yes/no" { send "yes\n";exp_continue }
"password" { send "$pass_word\n";exp_continue }
eof
}
EOF
读取存储ip的文件
done < /home/hadoop/automaticDeploy/host_ip.txt
}
sshFreeLogin
复制代码
以root用户执行代码如下:
/home/hadoop/automaticDeploy/systems/sshFreeLogin.sh
2.8 配置JDK环境
configureJDK.sh代码如下:
复制代码
! /bin/bash
function configureJDK()
{
1.在frames.txt中查看是否需要安装java
javaInfo=egrep "^jdk" /home/hadoop/automaticDeploy/frames.txt
java=echo $javaInfo | cut -d " " -f1
isInstall=echo $javaInfo | cut -d " " -f2
是否安装
if [[ $isInstall = "true" ]];then
#2.查看/opt/frames目录下是否有java安装包
javaIsExists=`find /opt/frames -name $java`
if [[ ${#javaIsExists} -ne 0 ]];then
if [ -d /usr/lib/java ];then
rm -rf /usr/lib/java
fi
mkdir /usr/lib/java && chmod -R 777 /usr/lib/java
#2.解压到指定文件夹/usr/lib/java中
echo "开启解压jdk安装包"
tar -zxvf $javaIsExists -C /usr/lib/java >& /dev/null
echo "jdk安装包解压完毕"
java_home=`find /usr/lib/java -maxdepth 1 -name "jdk*"`
#3.在/etc/profile配置JAVA_HOME
profile=/etc/profile
sed -i "/^export JAVA_HOME/d" $profile
echo "export JAVA_HOME=$java_home" >> $profile
#4.在/etc/profile配置PATH
sed -i "/^export PATH=\$PATH:\$JAVA_HOME\/bin/d" $profile
echo "export PATH=\$PATH:\$JAVA_HOME/bin" >> $profile
sed -i "/^export CLASSPATH=.:\$JAVA_HOME/d" $profile
echo "export CLASSPATH=.:\$JAVA_HOME/lib/dt.jar:\$JAVA_HOME/lib/tools.jar" >> $profile
#5.更新/etc/profile文件
source /etc/profile && source /etc/profile
else
echo "/opt/frames目录下没有jdk安装包"
fi
else
echo "/opt/frames目录下没有jdk安装包"
fi
}
configureJDK
复制代码
以root用户执行代码如下:
/home/hadoop/automaticDeploy/systems/configureJDK.sh
2.9 配置Scala环境
configureScala.sh代码如下:
复制代码
! /bin/bash
function configureScala()
{
1.在frames.txt中查看是否需要安装scala
scalaInfo=egrep "^scala" /home/hadoop/automaticDeploy/frames.txt
scala=echo $scalaInfo | cut -d " " -f1
isInstall=echo $scalaInfo | cut -d " " -f2
是否安装
if [[ $isInstall = "true" ]];then
#1.查找/opt/frames目录下是否有Scala安装包
scalaIsExists=`find /opt/frames -name $scala`
if [[ ${#scalaIsExists} -ne 0 ]];then
if [ -d /usr/lib/scala ];then
rm -rf /usr/lib/scala
fi
mkdir /usr/lib/scala && chmod -R 777 /usr/lib/scala
#2.解压到指定文件夹/usr/lib/scala中
echo "开始解压scala安装包"
tar -zxvf $scalaIsExists -C /usr/lib/scala >& /dev/null
echo "scala安装包解压完毕"
scala_home=`find /usr/lib/scala -maxdepth 1 -name "scala-*"`
#3.在/etc/profile配置SCALA_HOME
profile=/etc/profile
sed -i "/^export SCALA_HOME/d" $profile
echo "export SCALA_HOME=$scala_home" >> $profile
#4.在/etc/profile配置PATH
sed -i "/^export PATH=\$PATH:\$SCALA_HOME\/bin/d" $profile
echo "export PATH=\$PATH:\$SCALA_HOME/bin" >> $profile
#5.更新/etc/profile文件
source /etc/profile && source /etc/profile
else
echo "/opt/frames目录下没有scala安装包1"
fi
else
echo "/opt/frames目录下没有scala安装包2"
fi
}
configureScala
复制代码
以root用户执行代码如下:
/home/hadoop/automaticDeploy/systems/configureScala.sh
3.0 集群模块整合自动化部署安装
3.1 单机上整合第2点的9个模块自动化批量执行
batchOperate.sh代码如下:
复制代码
! /bin/bash
hostname=$1
1.ip地址修改,目前只能每台机器独自修改ip地址
echo "1.ip地址修改暂无"
2.修改机器名hostname
echo "2.修改hostname为node1"
/home/hadoop/automaticDeploy/systems/changeHostname.sh $hostname
3.host配置文件修改
echo "3.把集群ip及其映射的hostname添加到/etc/hosts中"
/home/hadoop/automaticDeploy/systems/addClusterIps.sh
4.关闭防火墙、SELINUX ,需要输入参数close或start
echo "4.关闭防火墙、SELINUX"
/home/hadoop/automaticDeploy/systems/closeFirewall.sh close
5.添加bigdata用户名 ,需要输入参数create或delete
echo "5.添加bigdata用户名"
/home/hadoop/automaticDeploy/systems/autoCreateUser.sh create
6.配置yum源
echo "6.配置yum源"
/home/hadoop/automaticDeploy/systems/configureYum.sh $hostname
7.配置SSH无密码登录
echo "7.集群各节点之间配置SSH无密码登录"
/home/hadoop/automaticDeploy/systems/sshFreeLogin.sh
8.配置JDK环境
echo "8.配置jdk环境"
/home/hadoop/automaticDeploy/systems/configureJDK.sh
9.配置SCALA环境
echo "9.配置scala环境"
/home/hadoop/automaticDeploy/systems/configureScala.sh
echo ""
复制代码
以root用户执行代码如下,参数$hostname一般为node1、node2、node3::
/home/hadoop/automaticDeploy/systems/batchOperate.sh $hostname
在一台机器上执行以上命令,可以迅速设置该台机器的系统环境。但是如果集群机器过多,则需要每台机器都要执行batchOperate.sh,所以需要3.2点在集群上一次性部署整个集群上机器的系统环境,而不需要每台机器都重复部署。
3.2 集群上自动化部署安装
这里以node1为基点,集群上的所有操作触发点都在node1上,操作原理为:在clusterOperate.sh代码里,node1上本地执行batchOperate.sh设置本地机器的系统环境,而利用ssh远程执行batchOperate.sh设置远程机器的系统环境。
clusterOperate.sh代码如下:
复制代码
! /bin/bash
function clusterOperate()
{
1.远程复制文件
while read line;
do
hostname=echo $line | cut -d " " -f2
echo "目前正在设置$hostname节点的系统环境"
#默认node1为本地主机
if [[ $hostname = "node1" ]]
then
#2.本地主机操作
/home/hadoop/automaticDeploy/systems/batchOperate.sh $hostname
else
#3.远程主机操作
if ssh -n $hostname test -e /home/hadoop/automaticDeploy
then
#3.1 存在则先删除旧的
ssh -n $hostname "rm -rf /home/hadoop/automaticDeploy"
fi
#3.2 把本地的automaticDeploy里面的脚本文件复制到远程主机上
scp -r /home/hadoop/automaticDeploy/ $hostname:/home/hadoop/automaticDeploy
#3.3 把本地的/opt/frames里的软件安装包复制到远程主机的/opt/frames上
#判断远程主机上/opt/frames是否存在,不存在则创建
if ssh -n $hostname test -e /opt/frames/;then
echo "存在" > /dev/null
else
ssh -n $hostname "mkdir /opt/frames"
fi
#遍历需要安装的软件
while read lineString;
do
software=`echo $lineString | cut -d " " -f1`
isInstall=`echo $lineString | cut -d " " -f2`
if [[ $isInstall = "true" ]];then
if ssh -n $hostname test -e /opt/frames/$software;then
echo "存在" > /dev/null
else
scp /opt/frames/$software $hostname:/opt/frames/$software
fi
fi
done < /home/hadoop/automaticDeploy/frames.txt
#4.远程执行文件
ssh -n $hostname /home/hadoop/automaticDeploy/systems/batchOperate.sh $hostname
fi
done < /home/hadoop/automaticDeploy/host_ip.txt
}
clusterOperate
复制代码
在node1节点上,以root用户执行clusterOperate.sh,一次性部署集群三个节点的系统环境:
/home/hadoop/automaticDeploy/systems/clusterOperate.sh
到此,集群中每台机器的环境自动化设置完成,下一篇介绍如何自动化部署大数据组件hadoop、spark、hbase、hive、kafka等等。
所有shell文件代码存放在github上,代码可能写得不是很完美,欢迎指出错误。
github地址为:https://github.com/SwordfallYeung/BigData_AutomaticDeploy
参考资料:
https://zhidao.baidu.com/question/502381951517702724.html
https://blog.csdn.net/qq_34685846/article/details/72825587
https://www.cnblogs.com/cute/archive/2011/08/26/2154137.html
https://www.cnblogs.com/mark-zhou/p/5976222.html
https://blog.csdn.net/kinger0/article/details/52251847
https://blog.csdn.net/wyl9527/article/details/72831567
https://blog.csdn.net/hello_hwc/article/details/40118129
http://www.codebelief.com/article/2017/02/26-examples-of-find-command-on-linux/
http://hadesmo.com/2015/07/20/sed.html
本星球包含了海量运维、安全、设计微服务k8s、Python干货分享、提供最完整的指引,帮助你轻松掌握ChatGPT理论和实战应用场景、如何变现、如何正确使用AI!!时代赋予的机遇,你可躺平,但生活从不手软,你赚的每一分钱都是成长的变现!!赶紧抓住这个巨大的风口红利,建议跟着这个课程来学习,相信能带你成为ChatGPT、技术大师!