02 2019 档案
摘要:一、网络-udp(用户数据报协议) 用户数据报协议 类似写信,不安全,数据有可能丢 用户数据报协议 类似写信,不安全,数据有可能丢 1.1 ip地址 注意: IP地址127.0.0.1 ~ 127.255.255.255 用于回路测试 私有ip地址,不在公网中使用 1.2 端口(重点) 端口是通过端
阅读全文
摘要:1. __init__方法 TOM 我去了TOM 2. 利用参数设置属性初始值 3. __del__方法 TOM 我来了TOM TOM 我去了 4. __str__方法 TOM 我来了我是小猫[TOM] TOM 我去了 5. 身份运算符 用于 比较 两个对象的 内存地址 是否一致—是否是对同一个对象
阅读全文
摘要:194. Transpose File Given a text file file.txt, transpose its content. You may assume that each row has the same number of columns and each field is s
阅读全文
摘要:193. Valid Phone Numbers 193. Valid Phone Numbers Given a text file file.txt that contains list of phone numbers (one per line), write a one liner bas
阅读全文
摘要:192. Word Frequency Write a bash script to calculate the frequency of each word in a text file words.txt. For simplicity sake, you may assume: words.t
阅读全文
摘要:https://blog.csdn.net/txvaqh/article/details/52824492
阅读全文
摘要:sudo crontab -e
阅读全文
摘要:1. {print} coins.txt 1.1 {print $x}: 打印第x列 1.2 用制表键对齐 1.3 打印行号 (NR) 1.4 打印列号 (NF) 1.5 查找功能(某行数据) 1.6 自定义分隔符 输入分隔符:FS 输出分隔符:OFS 1.7 打印多文件 1.8 某列不想显示 2.
阅读全文
摘要:${}: 数据“内容”删除,替换;{}: 列表 1. 条件测试: test =~:正则匹配 2. if/then/elif/else/fi 3. case/esac 4. for/do/done 5. while/do/done 采用 i++ 6. break和continue 7. tee 功能:
阅读全文
摘要:1. 自定义变量(仅在当前shell生效) 1.1 定义变量 1.2 输入变量 1.3 位置变量 (1,2, 3...{10}....) 1.4 预定义变量 ( $0,$∗,$@,$#,$$,$!,$? ) 1.5 综合 2. 环境变量(在当前shel
阅读全文
摘要:!:显示上一条命令最后一个参数?: 上个命令的退出状态,或函数的返回值。 alias xxx="命令":给命令取别名 xxx 通过 vim ~/.bashrc 里编辑,可以来修改别名。 <, <<:重定向输出 、>, >>:重定向到文件 管道:| 命令排序 shell通配符 子shell:重新
阅读全文
摘要:1. Shell功能 1. 自动化批量系统初始化程序(update、软件安装、时区设置、安全策略.......) 2. 自动化批量软件部署程序(LAMP、LNMP、Tomcat、LVS、Nginx) 3. 管理应用程序(KVM、集群管理扩容,MySQL、DELLR720批量RAID) 4. 日志分析
阅读全文
摘要:1. 动机一:数据压缩 第二种类型的 无监督学习问题,称为 降维。有几个不同的的原因使你可能想要做降维。一是数据压缩,数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法。 但首先,让我们谈论 降维是什么。作为一种生动的例子,我们收集的数据集,有许多,许多
阅读全文
摘要:设置-->页脚代码 <script language="javascript" type="text/javascript"> // 生成目录索引列表 // ref: http://www.cnblogs.com/wangqiguo/p/4355032.html // modified by: zz
阅读全文
摘要:1. 聚类(Clustering) 1.1 无监督学习: 简介 在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟合一个假设函数。与此不同的是,在非监督学习中,我们的数据没有附带任何标签,我们拿到的
阅读全文
摘要:1. 优化目标 在监督学习中,许多学习算法的性能都非常类似,因此,重要的不是你该选择使用学习算法A还是学习算法B,而更重要的是,应用这些算法时,所创建的大量数据在应用这些算法时,表现情况通常依赖于你的水平。比如:你为学习算法所设计的 特征量的选择,以及如何选择正则化参数,诸如此类的事。还有一个更加强
阅读全文