摘要:
把tif文件拖住到这里 可以看到提示: 以virtual stack的方式打开tif 阅读全文
摘要:
import networkx as nx #计算网络的度分布 d = nx.degree(G) print("网络的度分布为:{}".format(d)) #整个网络的平均距离 nspl = nx.average_shortest_path_length(G) print("网络的平均距离:{}" 阅读全文
摘要:
networkx根据连接矩阵,构建一个复杂网络 创建图的几种方法: import numpy as np >>> A = np.array([[1, 1], [2, 1]]) >>> G = nx.from_numpy_array(A) >>> G.edges(data=True) EdgeData 阅读全文
摘要:
local_efficiency # 局部效率,节点的邻居构成的子图的平均全局效率; # 有点抽象,可以这么理解:去掉给定节点后,其相邻节点组成的网络的全局效率,量化了网络对小规模故障的抵抗力。如果网络的局部效率很高,说明对小规模故障不敏感,网络具有代偿能力。如果局部效率很低,说明对小故障很敏感,意 阅读全文
摘要:
cv2.imshow("window_name", combineImg),cv2.waitKey(0) 阅读全文
摘要:
code如下; 地址如下: pytorch-examples/rnn-lstm-gru at master · python-engineer/pytorch-examples · GitHub import torch import torch.nn as nn import torchvisio 阅读全文
摘要:
Input and hidden tensors are not the same dtype, found input tensor with Double and hidden tensor with Float (* ̄︶ ̄) 阅读全文
摘要:
Pytorch 加载数据集的几种方法 总结 坑 方案1: 方案2: train_dataset = torchvision.datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True 阅读全文
摘要:
如何理解梯度爆炸和梯度消失 何为梯度消失,产生的原因是什么? 梯度消失的最核心原因是,选择的优化方法不能很好的应对多层结构。在利用链式法则,求导的过程中导致梯度逐层衰减,最后消失。反之如果每次求导之后,梯度的值大于1,通过累乘就会产生爆炸的结果,即梯度爆炸。 梯度消失带来的后果是:较深的神经元中的梯 阅读全文
摘要:
机器学习和深度学习之间的联系和区别 人工智能 > 机器学习 > 深度学习 , 阅读全文