摘要:
背景: 最近在学习d2l的时候,运行for X, y in train_iter:的时候,总是报错。查看报错的内容: RuntimeError: DataLoader worker (pid 41847) exited unexpectedly with exit code 1. Details a 阅读全文
摘要:
一、FrameLayout 目的:FrameLayout是一个设计用来存放单个子项的简单容器。它通常被用来堆叠视图,即将多个元素重叠在一起。 布局:子视图堆叠在一起,默认情况下都是放置在左上角,但可以通过android:layout_gravity属性改变子视图的位置。 性能:由于FrameLayo 阅读全文
摘要:
一、grad `grad`是指梯度的缩写。梯度在深度学习中非常重要,因为它们是使用反向传播算法进行网络训练时所需要计算的。PyTorch通过自动微分引擎Autograd提供了自动计算梯度的功能。每个`Tensor`对象都有一个`.grad`属性,这个属性会保存该`Tensor`的梯度。 二、与gra 阅读全文
摘要:
一、norm 这个是计算范式 对应的公示是: 正常没有指定p的值的时候默认是2 如下所示 a = torch.arange(1, 6, dtype=torch.float32) print(torch.norm(a)) # 这里p没有指定,则默认是2 print(torch.norm(a, 1)) 阅读全文
摘要:
一、降维 1、求和 对一个n维数组进行求和,如果指定沿哪一个轴来通过求和降低维度。如下是降低0维: A = torch.arange(20, dtype=torch.float32).reshape(5,4) print(A) print(A.sum(axis=0)) /* tensor([[ 0. 阅读全文
摘要:
一、广播机制 两个张量进行运算(加减乘除幂等) 如果两个张量形状相同则很容易进行运算,如果两个张量不同的时候该如何进行运算呢? 1、a张量竖为1,b张量横为1 比如:a = torch.arange(3).reshape((3, 1)), b = torch.arange(2).reshape((1 阅读全文
摘要:
一、这六个的函数 // 扩展函数run public inline fun <T, R> T.run(block: T.() -> R): R { return block() } // 扩展函数let public inline fun <T, R> T.let(block: (T) -> R): 阅读全文
摘要:
JVM上的泛型一般是通过类型的擦除实现,就是泛型类实例的类型实参在运行时不保留。 但是可以通过声明为inline函数使其类型实参不被擦除 那么对类型擦除有啥好处呢?应用程序使用的内存总量较小,因为要保存在内存中的类型信息更少。 一、类型检查和转换 1、类型检查 因为类型会被擦除,那么需要知道是否包含 阅读全文
摘要:
一、泛型函数 如下是泛型函数的一种构造 在fun函数标记的右边增加该函数要使用的类型形参 fun <T> List<T>.slice(indices: IntArray): List<T> { val ret = mutableListOf<T>() for (v in indices) { ret 阅读全文
摘要:
一、lambda表达式是否可以使用return 1、非内联函数的lambda表达式中使用return是不被允许 2、内联函数是允许使用return,它会从调用该lambda的函数中返回 fun lookForAlice(people: List<String>) { people.forEach { 阅读全文