2023年11月28日
摘要: 自然语言处理领域中,"embedding"(嵌入)通常指将高维的数据映射到低维空间的过程。在自然语言处理中,最常见的是词嵌入(word embeddings) 词袋模型,词嵌入等等等等。都需要构建词汇表,个人能力是很有限,根本不可能构建一个效果好的。所以我不使用这些 小型效果也不好,得到96维度的向 阅读全文
posted @ 2023-11-28 18:02 黑逍逍 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 二维张量(矩阵): 假设你有一个形状为 [m, n] 的二维张量(可以想象成一个矩阵,有 m 行和 n 列): dim=0 指的是行的方向(从上到下)。如果你在一个函数中指定 dim=0,那么操作将沿着每一列进行,对每一列中的行元素进行处理。 dim=1 指的是列的方向(从左到右)。如果你在一个函数 阅读全文
posted @ 2023-11-28 17:17 黑逍逍 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 将张量从GPU移到CPU上 import torch # 创建一个张量并将其放在GPU上 tensor_gpu = torch.randn((3, 3)).cuda() # 将张量从GPU移动到CPU tensor_cpu = tensor_gpu.cpu() 阅读全文
posted @ 2023-11-28 16:38 黑逍逍 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 在深度学习中,通常使用自动微分(Autograd)来计算梯度,以便进行反向传播和优化。 在这个过程中,PyTorch会构建一个计算图,用于跟踪张量之间的计算关系。这个计算图是由各个张量之间的运算所构成的,以便在进行反向传播时计算梯度。 .detach()方法的作用是创建一个新的张量,与原始张量共享相 阅读全文
posted @ 2023-11-28 16:31 黑逍逍 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 张量的梯度信息 张量的梯度信息是指张量相对于某个或多个变量的导数。梯度表示了函数在某一点的变化率,它是一个向量,其中每个元素对应于函数相对于输入变量的偏导数 在深度学习中,我们通常使用梯度来更新模型参数,以便最小化或最大化某个损失函数。梯度下降是一种常见的优化算法,它使用梯度信息来沿着损失函数的负梯 阅读全文
posted @ 2023-11-28 16:15 黑逍逍 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 数学运算: a = torch.tensor([[1, 2, 3], [4, 5, 6]]) b = torch.tensor([[7, 8, 9], [10, 11, 12]]) tensor([[1, 2, 3], [4, 5, 6]]) tensor([[ 7, 8, 9], [10, 11, 阅读全文
posted @ 2023-11-28 15:02 黑逍逍 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 拼接tensor torch.cat(tensors, dim): 沿指定维度拼接张量。 tensor1 = torch.tensor([[1, 2, 3], [4, 5, 6]]) tensor2 = torch.tensor([[7, 8, 9], [10, 11, 12]]) # dim=0 阅读全文
posted @ 2023-11-28 15:01 黑逍逍 阅读(16) 评论(0) 推荐(0) 编辑
摘要: # 检测是不是空值 df.isnull() # 检测是不是有值,两个函数一样 df.notnull() df.notna() # 删除包含缺失值的行 df.dropna(inplace=True) inplace=True 表示直接在原始 DataFrame 上进行修改如果没有这个必须要有接收对象 阅读全文
posted @ 2023-11-28 12:55 黑逍逍 阅读(7) 评论(0) 推荐(0) 编辑
摘要: groupby() 方法通常用于对数值数据进行分组和聚合,例如 sum()、count()、max()、min() 等等。但它也可以用于对非数值数据进行分组 # 创建一个示例 DataFrame data = { 'City': ['New York', 'Chicago', 'San Franci 阅读全文
posted @ 2023-11-28 11:37 黑逍逍 阅读(9) 评论(0) 推荐(0) 编辑