乐水悠悠

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

2021年8月3日

摘要: 用CentOS8.2挂载一个网络存储,能用ls命令查看文件信息,打开文件却报“过期的文件句柄”(stale file handle)错误,查了很多文章,都说要重启存储,但是这个存储管理员不是我,也没办法提工单。今天被同事提醒,试了不同版本的mount协议,居然可以,记录下。一开始mount命令是这样 阅读全文
posted @ 2021-08-03 21:04 乐水悠悠 阅读(525) 评论(0) 推荐(0) 编辑

2020年6月25日

摘要: 这段时间一直在做MapServer发布矢量服务后的切片缓存效率测试,简单做个记录。 切片环境: mapserver-7.0.3/gdal-2.1.2/centos 6.10 shapefile效率最高,一百多个shp共23G的面状矢量,切到16级,大约需要1小时。 filegdb效率很低,同样的sh 阅读全文
posted @ 2020-06-25 21:06 乐水悠悠 阅读(471) 评论(0) 推荐(0) 编辑

2019年9月1日

摘要: 1. 更新yum源 CentOS7默认yum源的PostgreSQL版本过低,不适合在本版本上使用。在上找到适合CentOS7的RPM源,复制其url地址,使用yum安装。 同时安装epel(Extra Packages for Enterprise Linux 7),为了稳定性,CentOS7的默 阅读全文
posted @ 2019-09-01 14:56 乐水悠悠 阅读(5061) 评论(0) 推荐(0) 编辑

2018年5月27日

摘要: 在生产中,经常会遇见有图斑重叠这种拓扑错误的矢量,大部分情况下,需要人工比对影像处理。但是如果只需要用到这些矢量的形状、面积,可以在ArcMap中用以下方法,快速消除图斑重叠错误,不必手工处理。 如下图所示,两个图斑存在重叠部分。 首先,使用 Intersect 工具,得到矢量所有相交部分,这时,相 阅读全文
posted @ 2018-05-27 12:45 乐水悠悠 阅读(5880) 评论(0) 推荐(0) 编辑

2018年4月26日

摘要: nlp词性标注 与分词函数不同,jieba库和pyltp库词性标注函数上形式相差极大。 jieba的词性标注函数与分词函数相近, 函数有两个参数,sentence是一段文本。 pyltp的词性标注函数 有一个参数,words是分词模块的返回值,或者是Python原生的list类型。 nltk中的词性 阅读全文
posted @ 2018-04-26 22:45 乐水悠悠 阅读(674) 评论(0) 推荐(0) 编辑

2018年4月21日

摘要: 分词是中文自然语言处理的基础。目前常用的分词算法有 1.张华平博士的NShort中文分词算法。 2.基于条件随机场(CRF)的中文分词算法。 这两种算法的代表工具包分别是jieba分词系统和哈工大的LTP语言技术平台。下面就分别演示这两个工具的使用方法。 jieba包有两个分词函数, 和`cut_f 阅读全文
posted @ 2018-04-21 21:01 乐水悠悠 阅读(1890) 评论(0) 推荐(0) 编辑

2018年4月18日

摘要: LTP(Language Technology Platform)由哈工大社会计算与信息检索研究中心开发,提供包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等丰富、 高效、精准的自然语言处理技术。 LTP的源码是C++,也提供Java和Python版本。Python版本的安装方法是 阅读全文
posted @ 2018-04-18 22:28 乐水悠悠 阅读(674) 评论(0) 推荐(0) 编辑

2018年2月25日

摘要: 原文地址:https://www.pixalytics.com/sats-orbiting-earth-2017/ 地球轨道上有多少颗卫星? 根据联合国太空事务办公室(UNOOSA)记录,目前有4635颗卫星在地球轨道上运行,比上一年增长了8.91%。 从2017年开始到现在(2017/11/15) 阅读全文
posted @ 2018-02-25 20:56 乐水悠悠 阅读(4105) 评论(0) 推荐(0) 编辑

2017年9月24日

摘要: 用MapServer发布影像地图,需要用以下processing项设置地图的风格样式。 阅读全文
posted @ 2017-09-24 12:30 乐水悠悠 阅读(612) 评论(0) 推荐(0) 编辑

2017年6月18日

摘要: 闲暇时间喜欢看小说,就想着给小说做词云,展示小说的主要内容。开发语言是Python,主要用到的库有wordcloud、jieba、scipy。代码很简单,首先用jieba.cut()函数做分词,生成以空格分割的字符串,然后新建WordCloud类,保存为图片。 结果如下 得到的结果很不理想,一是角色 阅读全文
posted @ 2017-06-18 07:18 乐水悠悠 阅读(7198) 评论(0) 推荐(0) 编辑