李沫深度学习
与工业界相比:更大的数据规模和模型复杂度的区别
mxnet 爱慕斯奈特
y = nd.array(x) # numpy -> mxnet
z = y.asnumpy() # mxnet -> numpy
把结果通过[:]写到一个开好的数组里:
z = nd.zeros_like(x) before = id(z) z[:] = x + y # x+y的结果写回z id相同 但还是为x+y创建了临时空间 id(z) == before
nd.elemwise_add(x,y,out=z) #最省内存
map使用
>>>def square(x) : # 计算平方数 ... return x ** 2 ... >>> map(square, [1,2,3,4,5]) # 计算列表各个元素的平方 [1, 4, 9, 16, 25] >>> map(lambda x: x ** 2, [1, 2, 3, 4, 5]) # 使用 lambda 匿名函数 [1, 4, 9, 16, 25] # 提供了两个列表,对相同位置的列表数据进行相加 >>> map(lambda x, y: x + y, [1, 3, 5, 7, 9], [2, 4, 6, 8, 10]) [3, 7, 11, 15, 19]
生成器:一边循环一边计算的机制
generator_ex = (x*x for x in range(10)) for i in generator_ex: print(i)
斐波那契数列:
#fibonacci数列 def fib(max): n,a,b =0,0,1 while n < max: a,b =b,a+b n = n+1 print(a) return 'done' a = fib(10) print(fib(10))
def
fib(
max
):
n,a,b
=
0
,
0
,
1
while
n <
max
:
yield
b
a,b
=
b,a
+
b
n
=
n
+
1
return
'done'
a
=
fib(
10
)
print
(fib(
10
))
print
(a.__next__())
print
(a.__next__())
print
(a.__next__())
print
(
"可以顺便干其他事情"
)
print
(a.__next__())
print
(a.__next__())
Flatten层:将输入数据转化成batch_size x ? 的矩阵
weight_decay:
w=w-lr*grad-wd*w
posted on 2019-11-09 18:19 、Discipline 阅读(354) 评论(0) 编辑 收藏 举报