上一页 1 ··· 61 62 63 64 65 66 67 68 69 ··· 329 下一页
摘要: 把tif文件拖住到这里 可以看到提示: 以virtual stack的方式打开tif 阅读全文
posted @ 2022-04-29 15:05 bH1pJ 阅读(29) 评论(0) 推荐(0) 编辑
摘要: import networkx as nx #计算网络的度分布 d = nx.degree(G) print("网络的度分布为:{}".format(d)) #整个网络的平均距离 nspl = nx.average_shortest_path_length(G) print("网络的平均距离:{}" 阅读全文
posted @ 2022-04-28 16:37 bH1pJ 阅读(112) 评论(0) 推荐(0) 编辑
摘要: networkx根据连接矩阵,构建一个复杂网络 创建图的几种方法: import numpy as np >>> A = np.array([[1, 1], [2, 1]]) >>> G = nx.from_numpy_array(A) >>> G.edges(data=True) EdgeData 阅读全文
posted @ 2022-04-28 16:14 bH1pJ 阅读(94) 评论(0) 推荐(0) 编辑
摘要: local_efficiency # 局部效率,节点的邻居构成的子图的平均全局效率; # 有点抽象,可以这么理解:去掉给定节点后,其相邻节点组成的网络的全局效率,量化了网络对小规模故障的抵抗力。如果网络的局部效率很高,说明对小规模故障不敏感,网络具有代偿能力。如果局部效率很低,说明对小故障很敏感,意 阅读全文
posted @ 2022-04-28 10:29 bH1pJ 阅读(148) 评论(0) 推荐(0) 编辑
摘要: cv2.imshow("window_name", combineImg),cv2.waitKey(0) 阅读全文
posted @ 2022-04-27 17:49 bH1pJ 阅读(2) 评论(0) 推荐(0) 编辑
摘要: code如下; 地址如下: pytorch-examples/rnn-lstm-gru at master · python-engineer/pytorch-examples · GitHub import torch import torch.nn as nn import torchvisio 阅读全文
posted @ 2022-04-27 17:10 bH1pJ 阅读(19) 评论(0) 推荐(0) 编辑
摘要: Input and hidden tensors are not the same dtype, found input tensor with Double and hidden tensor with Float (* ̄︶ ̄) 阅读全文
posted @ 2022-04-27 17:08 bH1pJ 阅读(241) 评论(0) 推荐(0) 编辑
摘要: Pytorch 加载数据集的几种方法 总结 坑 方案1: 方案2: train_dataset = torchvision.datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True 阅读全文
posted @ 2022-04-26 17:06 bH1pJ 阅读(96) 评论(0) 推荐(0) 编辑
摘要: 如何理解梯度爆炸和梯度消失 何为梯度消失,产生的原因是什么? 梯度消失的最核心原因是,选择的优化方法不能很好的应对多层结构。在利用链式法则,求导的过程中导致梯度逐层衰减,最后消失。反之如果每次求导之后,梯度的值大于1,通过累乘就会产生爆炸的结果,即梯度爆炸。 梯度消失带来的后果是:较深的神经元中的梯 阅读全文
posted @ 2022-04-26 14:42 bH1pJ 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 机器学习和深度学习之间的联系和区别 人工智能 > 机器学习 > 深度学习 , 阅读全文
posted @ 2022-04-26 12:09 bH1pJ 阅读(2) 评论(0) 推荐(0) 编辑
上一页 1 ··· 61 62 63 64 65 66 67 68 69 ··· 329 下一页