会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
csjywu01
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
9
10
11
12
13
14
15
下一页
2024年8月29日
负对数似然(NLL)和困惑度(PPL)
摘要: 让我们通过一个简单的例子来演示这段代码的计算过程,包括负对数似然(NLL)和困惑度(PPL)的计算。为了简化,我们将假设一个非常小的模型输出和数据。 假设: 我们有两个样本(即 batch size 为 2)。 每个样本有 3 个可能的类别,S_logits 是模型输出的 logits。 smask
阅读全文
posted @ 2024-08-29 20:34 GraphL
阅读(466)
评论(0)
推荐(0)
2024年8月28日
平滑处理
摘要: 当然,我可以通过一个简化的例子来解释你提供的代码中的平滑处理操作。 假设和设定 类别数 num_aa_type:假设有 3 个类别(氨基酸类型)。 嵌入向量维度 embed_size:假设每个类别的嵌入向量的维度是 2。 smooth_prob:假设对于一个样本的概率分布为 [0.1, 0.7, 0
阅读全文
posted @ 2024-08-28 16:41 GraphL
阅读(33)
评论(0)
推荐(0)
2024年6月9日
Diffusion模型
摘要: 参数说明 beta_schedule = np.linspace(0.0001, 0.02, 1000) # 示例 beta schedule alpha_hat = np.cumprod(1 - beta_schedule) # 计算 alpha_hat 具体例子 让我们通过一个具体的例子展示如何
阅读全文
posted @ 2024-06-09 21:33 GraphL
阅读(60)
评论(0)
推荐(0)
2024年6月2日
指标学习
摘要: 这些数值看起来是合理的,但是否合理还需要根据具体的应用场景和数据集来评估。以下是对这些指标的简要解释和合理性分析: 指标分析 AUROC (Area Under the ROC Curve): 0.891 解释: AUROC 是衡量分类模型性能的指标,值在 0.5 到 1 之间,越接近 1 表示模型
阅读全文
posted @ 2024-06-02 17:53 GraphL
阅读(52)
评论(0)
推荐(0)
Diffusion模型
摘要: 扩散模型的工作原理大致如下: 正向扩散过程(Forward Diffusion Process): 这是一个将数据逐渐破坏的过程,通常通过添加噪声来实现。这个过程可以看作是一个马尔可夫链,从原始数据分布开始,每一步都增加一些噪声,直到数据完全变成纯噪声。 反向扩散过程(Reverse Diffusi
阅读全文
posted @ 2024-06-02 17:25 GraphL
阅读(88)
评论(0)
推荐(0)
2024年5月11日
计算NCE损失
摘要: 让我们通过一个简化的示例来理解NCE损失的计算方法。假设我们有3个节点,每个节点都有与自己和其他节点的相似度计算,分别对应于三个相似度矩阵:sim_matrix_one、sim_matrix_two、和sim_matrix_three。 假设相似度矩阵和计算结果如下: 初始相似度矩阵(示例值) 假设
阅读全文
posted @ 2024-05-11 20:59 GraphL
阅读(92)
评论(0)
推荐(0)
2024年4月28日
Github管理代码学习
摘要: 版本冲突 github代码管理学习。关于版本控制,假如有两个人合作,合作者a修改了合作者b的代码,并在服务器中更新。而合作者b感觉更新的内容是错的,想基于未更新版本进行修改。这种情况该怎么解决 在使用GitHub进行代码管理时,如果出现你描述的情况,合作者B可以采取以下几个步骤来解决问题: 检查提交
阅读全文
posted @ 2024-04-28 17:00 GraphL
阅读(30)
评论(0)
推荐(0)
2024年4月27日
网络frozen
摘要: 参考网页 https://blog.csdn.net/Orientliu96/article/details/104705912 device = torch.device("cuda" ) #Try to load models model = DGCNN(args) print(str(mode
阅读全文
posted @ 2024-04-27 07:26 GraphL
阅读(26)
评论(0)
推荐(0)
2024年3月18日
BSLTR-梯度下降代码的处理
摘要: 是否更新x取决于其是否被定义为nn.Parameter。这里是什么意思? 在PyTorch中,是否将一个张量(x)更新(在训练过程中通过梯度下降算法调整其值)依赖于它是否被定义为nn.Parameter。nn.Parameter是Tensor的一个子类,专门用于定义模型参数,这些参数是可训练的,也就
阅读全文
posted @ 2024-03-18 09:51 GraphL
阅读(27)
评论(0)
推荐(0)
2024年3月16日
BSLTR-规则的层次化挖掘
摘要: 根据提供的描述,我们可以明确三种简单顺序约束和三种链式顺序约束,以及它们之间的层次关系,用于在数据集中挖掘有意义的活动模式。下面,我将基于这些描述,为每种约束类型提供一个具体的挖掘逻辑实现。 简单顺序约束 Response(a, b): 最后一个b出现在最后一个a之后。 Precedence(a,
阅读全文
posted @ 2024-03-16 18:02 GraphL
阅读(18)
评论(0)
推荐(0)
上一页
1
···
9
10
11
12
13
14
15
下一页
公告