上一页 1 2 3 4 5 6 7 ··· 10 下一页
摘要: NFTS总体结构如下 MFTMirr只备份前四个对象,但其位置相对不固定,通过Boot区确定其位置 Boot区 Boot区最多占16个扇区。第1个扇区是带有“引导”代码的引导扇区(DBR),接下来的15个扇区是引导扇区的初始程序加载器。在NTFS分区的最后一个扇区留有DBR备份。第一个扇区结构如下: 阅读全文
posted @ 2022-04-26 21:52 启林O_o 阅读(830) 评论(0) 推荐(1) 编辑
摘要: EXT主要有EXT2,EXT3,EXT4,主要介绍EXT2与EXT4。由于时间仓促,很多自己也不理解,可能有很多错误。 基本概念 首先介绍EXT中的基本概念: 块:EXT用块管理分区空间,每一个块所占大小,常见的有1KB,2KB,4KB,8KB 块组:几个块又被组成一个块组进行管理,一个块组含有的块 阅读全文
posted @ 2022-04-22 20:23 启林O_o 阅读(251) 评论(0) 推荐(0) 编辑
摘要: 参考文档:Virtual Disk Format 5.0 虚拟磁盘格式:VMDK vmware设计VMDK的文件格式来模拟物理磁盘,使得虚拟机的操作系统读写虚拟磁盘时使用与物理磁盘相应的接口 虚拟磁盘作为一个或多个文件存储在主机或远程设备上 在vmware workstation或mware pus 阅读全文
posted @ 2022-04-18 21:26 启林O_o 阅读(1317) 评论(0) 推荐(0) 编辑
摘要: 在磁盘及分区介绍了如何分区,现在到达第三阶段,如何格式化这些分区,本节介绍FAT格式 FAT格式主要有三种:FAT2,FAT16,FAT32 FAT 文件系统之所以有 12,16,32 不同的版本之分,其根本在于FAT表用来记录任意一簇链接的二进制位数,这里主要介绍FAT16和FAT32 当把一部分 阅读全文
posted @ 2022-04-18 21:24 启林O_o 阅读(392) 评论(0) 推荐(0) 编辑
摘要: 物理硬盘结构 机械硬盘 主要的结构是多个盘面和磁头。 磁道:一个磁盘被分为多个磁道(同心圆圈)。 扇区:每个磁道被分为多个扇区,每个扇区存储的数据量相同,靠里的扇区面积小,所以存储数据密度大,靠外的扇区密度小,所以存储数据密度小。 柱面:多个盘面相同位置的磁道组成一个柱面(上图中所有黄圈为一个柱面) 阅读全文
posted @ 2022-04-18 21:21 启林O_o 阅读(324) 评论(0) 推荐(0) 编辑
摘要: ERNIE 相关链接:ERNIE官方使用介绍,ERNIE项目地址 基于transformer的encoder,主要思想是将文本中已有的知识融入到模型训练中,因此采用实体mask的方式(实体指人名,地名等词) 预训练 模型结构图如下所示 文本中已有的知识主要有人名,地名等实体,这些词本来就蕴含一些信息 阅读全文
posted @ 2022-04-08 11:19 启林O_o 阅读(1208) 评论(0) 推荐(0) 编辑
摘要: 预训练模型 预训练是一种迁移学习的思想,在一个大数据集上训练大模型,之后可以利用这个训练好的模型处理其他任务。预训练模型的使用方法一般有: 用作特征提取:利用预训练模型提取数据特征,再将这些特征用作自己模型的训练,如word2vec,GLOVE 使用模型结构参数:使用预训练模型的结构和参数,再输入自 阅读全文
posted @ 2022-04-08 11:13 启林O_o 阅读(599) 评论(0) 推荐(0) 编辑
摘要: transformer 参考: https://www.cnblogs.com/erable/p/15072941.html https://www.cnblogs.com/xiximayou/p/13978859.html 在论文Attention Is All You Need中提出了trans 阅读全文
posted @ 2022-04-08 10:58 启林O_o 阅读(457) 评论(0) 推荐(0) 编辑
摘要: 本节内容有些抽象,自己也可能理解不到位,可能有些错误,请批判性参考 seq2seq 分为encoder和decoder两部分,如下图所示,每一个部分可以使用CNN,RNN,LSTM等模型,输入2针对不同情况可有可无,模型在翻译,文本摘要生成等方面有广泛应用。 在编码器encoder中可以对输入内容编 阅读全文
posted @ 2022-04-08 10:31 启林O_o 阅读(550) 评论(0) 推荐(0) 编辑
摘要: 循环卷积神经网络RCNN 1、CNN与RNN缺点 CNN通过窗口获取特征,窗口尺寸不合适就会捕获不到好特征,窗口也不能太大,这样就捕获不到全局的特征,所以它类似于传统的N-gram RNN使用最后的输出作为特征,使得序列后的词会比前面的词更加重要,从而影响捕获准确的特征 2、CNN与RNN优点 CN 阅读全文
posted @ 2022-04-08 10:29 启林O_o 阅读(117) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 10 下一页