12 2021 档案
摘要:确切来说BERT这种预训练模型属于自监督学习,将一句话屏蔽掉一分部分token,输入到模型中。然后让模型预测整句话,让模型学习数据集的上下文关系。 数据没有通过人工标记label,勉强可看成无监督式学习吧。 MLM可看作 加噪自编码
阅读全文
摘要:在GitHub copy项目的.git链接 在colab中输入下行命令 !git clone https://github.com/XXX/XXX.git # https链接
阅读全文
摘要:在 Notebook 中添加一个 Section 命名为「安装环境」。然后在这个 Section 中做一些数据复制、解压,以及安装第三方包的工作。实例代码如下: zip文件解压 !mkdir ./data # 在实例中创建文件夹 data !cp /content/drive/MyDrive/pap
阅读全文
摘要:进入自定义文件夹 import os path="/content/drive/My Drive/Project" os.chdir(path) os.listdir(path) 运行目录下的.py文件(执行系统命令,需要在命令前加感叹号) !python run.py
阅读全文
摘要:cmd管理者运行 mklink /d "[Onedrive的Documents路径(新建文件夹,否则会提示文件夹已存在)]" "[想同步的文件夹路径]"
阅读全文
摘要:第a维坐标为b的数据 [:,:,...:b]-共a个 import numpy as np # 3维 a = np.array([[[1,2],[3,4]]]) a[:,:,1] output: array([[2, 4]]) input:a[:,1,:] output: array([[3, 4]
阅读全文

浙公网安备 33010602011771号