摘要:
Codeforces 1120E (很难的暴力) 1156G(模拟) lyd书上的DP优化部分 LCT 计算几何 整体分治 cdq分治 (不熟) kd-tree fft 莫比乌斯反演(不熟) 模拟退火与爬山法 https://blog.csdn.net/u013733326/article/deta 阅读全文
摘要:
该论文主要讲述了多智能体通信。 简介中提出,很多多智能体任务需要通信,所以提出了两种算法RIAL和DIAL。论文中考虑的任务是完全合作,部分观测,顺序多智能体决策的任务。所有的智能体的目标是相同的,最大化累计折扣奖励。没用智能体能观察到完整的马尔可夫状态,智能体之间可以通过有限离散的信道交流,智能体 阅读全文
摘要:
文章介绍了一种提高多智能体之间通信效率的方法(得到最适合的通信带宽)。 首先介绍了多智能体强化学习模型ACML: 算法跟MADDPG是有点类似的,增加了信息生成网络和信息协调网络,actor产生决策的时候还要考虑协调后的信息,变相得到了全局的信息。 但是这种信息可能是冗余的,下面考虑优化: 在生成网 阅读全文
摘要:
直接在GitHub上下载:https://github.com/nltk/nltk_data 之后将其中的packages文件夹中的文件,放在nltk_data目录下就行 阅读全文
摘要:
目前以自己的能力只能过medium baseline。 simple baseline过很简单,每行数据不做任何处理,直接作为网络的输入就行,网络也不用优化。 medium baseline需要加一些优化。 首先前面表示州的one-hot向量过于稀疏,所以我直接忽略。 由于输入数据全是正数,而且我使 阅读全文
摘要:
出不了验证码:https://blog.csdn.net/m0_62128864/article/details/123927150 邮箱收不到邮件:https://blog.csdn.net/tsy_0827/article/details/122693553 阅读全文
摘要:
逻辑斯谛分布的分布函数是S型曲线,以(μ,1/2)为中心。 常用的模型是二项逻辑斯谛回归模型,即进行二分类。逻辑斯谛回归模型的对数几率是输入x的线性函数,也就是说可以将线性函数w*x转化为概率,这样线性函数的值越接近正无穷,概率值就越接近1。 逻辑斯谛回归模型可以用极大似然估计来估计模型参数,从而得 阅读全文
摘要:
梯度下降法是通过计算某一点的梯度,然后向梯度的反方向进行迭代。 牛顿法考虑某一点的二阶泰勒展开,用黑塞矩阵的逆矩阵求解。 牛顿法相比梯度下降法收敛速度更快,但是每轮迭代的时间更长。牛顿法要求Hk的逆矩阵,过程比较复杂,而且Hk不一定正定(甚至可能不可逆)所以采用拟牛顿法来改进。 拟牛顿法是思路有两种 阅读全文
摘要:
决策树是对实例进行分类的树形结构,是条件概率模型。 决策树的思想和kd树有点相似。 kd_tree中,是依次扫描每一维特征,选取其中的中位数作为空间划分。 决策树要先选择哪一维最优,之后再进行划分。选取的标准是判断以哪一维作为划分标准可以让熵下降的最多(信息增益),也就是确定性增加。划分之前的熵是数 阅读全文
摘要:
朴素贝叶斯法通过先验概率P(Y=ck)和条件概率P(X=x|Y=ck)来学习联合概率分布P(X,Y)。 朴素贝叶斯法作了条件概率独立性的假设(就是特征向量各个维度之间是相互独立的),分类器为通过计算概率最大的那一个。 后验概率最大化等价于期望风险最小化,采用极大似然估计估先验概率和条件概率。、 求P 阅读全文
摘要:
给定一个训练集,假设实例的类别已定,给定一个新的实例,根据离其最近的k个实例的类别,通过多数表决的方式来确定新实例的类别。 k邻近模型: 在k邻近算法中,当训练集,距离度量,k值以及决策规则(如欧式距离)确定后,对于任意一个新输入的实例,它所属的类是唯一确定的。 距离度量:主要有三种度量方法(参考第 阅读全文