摘要:
10.8 学习广义后缀自动机,学习了单调队列优化01背包。 10.9 学习了广义后缀自动机、霍尔定理,做线段树题。学了NOIP初赛知识。做了一些后缀自动机题,学了矩阵的逆。 10.10 考试复习了CDQ分治、树套树、点分树,学习了T3。学习了dsu on tree。复习了线段树合并、splay合并、 阅读全文
摘要:
信息熵=$-\sum p_i\log p_i$ 交叉熵(p,q)=$-\sum p_i\log q_i$ KL散度=交叉熵-信息熵,大于等于0。 阅读全文
摘要:
こんとん 混沌 れいわ 令和 てらす 照らす(照る) ひとすじ 一筋 でんし 電子 漂(ただよ)う えがお へいわ 平和 そううつ 躁鬱 こうりん 降臨、後輪 薄暗(うすぐら)い 青白(あおじろ)い 浴(あ)びる ぜんぶうえ 全部上 じょうほうかた 情報過多 見抜(みる)ける ぼうそう 暴走 壊(こ 阅读全文
摘要:
首先学习了argparse是什么。 然后学习ast是什么。 eval可以把"[1,2,3]"变成[1,2,3],也可以把"1+1"变成2。 字符串前加r意思是raw string,不会转义。如r"\n"不是换行,相当于"\n"。 ast.literal_eval不可以计算,只能"[1,2,3]"-> 阅读全文
摘要:
from keras.losses import * 以下是正文。 方差 MSE mean_squared_error 方差。 (差点忘了方差是什么,丢死人。) 注重单个巨大偏差。 平均绝对差 MAE mean_absolute_error 差的绝对值的平均数。 平均对待每个偏差。 平均误差百分数 阅读全文
摘要:
Dense 全连接层 输入一堆特征的分数,输出一堆特征(不会变多)的分数。每个输出与每个输入有关。 一般采用ReLU。如果要把分数压到0~1,使用Sigmoid。 Embedding 嵌入层 输入一串数,每个数代表一个单词。把每个单词学习成一个向量,然后输出这串数对应的所有向量。(输出增加一个维度, 阅读全文
摘要:
np.random.rand(SHAPE) 返回随机数[0,1) np.random.randn(SHAPE) 返回标准正态分布 np.random.randint(RANGE, size=SHAPE) 返回随机整数 np.random.random_sample(SHAPE) 相当于rand np 阅读全文
摘要:
1.打开cmd 2.输入activate tensorflow 3.输入python -m pip install matplotlib 阅读全文
摘要:
本博客近期将发布一些与深度学习有关的内容。 我们写solution的目的的本质,正是要对于问题给出答案。不同的问题和答案模式对应不同的方法。 神经网络其实相当于是在解善于学习的人能解的问题。 经典模拟退火问题是给定一个未知连续函数,求极值点。其实似乎并不适用神经网络。 人脸识别,适用神经网络。 围棋 阅读全文
摘要:
Machiparo Cinvo Sudio Mosudio Podo Worwas Ondo Imlangiparo Golimino Hilnaviaso 阅读全文
摘要:
我他吗每天都在干什么??? 夏令营都完了一个月了啊!!!!!!!!!!! 我一盘游戏都没打过啊! 我在干什么? 狗儿lin吗? 怪那个哦!!! 时间不够??? 时间哪里不够了? 在你觉得时间不够的时候时间才会不够呢!! 日!操!日! 我 不管 听好了今天我逼我开了一盘群星 必须要在取广州之前打完! 阅读全文