摘要:
本文重点: 和一般形式的文本处理方式一样,并没有特别大的差异,文章的重点在于提出了一个相似度矩阵 计算过程介绍: query和document中的首先通过word embedding处理后获得对应的表示矩阵 利用CNN网络进行处理获得各自的feature map,接着pooling后获得query对 阅读全文
2018年11月2日
2018年4月29日
摘要:
www.sohu.com/a/159976204_717210 生成模型:基于联合概率~共生关系判别模型:基于条件概率~因果关系 生成模型之学习数据分布:1)概率密度函数估计 2)数据样本生成 模型目标:训练模型,生成样本模型,学习过程是让两者接近解决问题: 数据缺失-因为可以用生成模型自己生成数据 阅读全文
2018年4月21日
2018年4月20日
摘要:
1、# Path to Shapes trained weightsSHAPES_MODEL_PATH = os.path.join(ROOT_DIR, "mask_rcnn_shapes.h5") https://blog.csdn.net/u011574296/article/details/7 阅读全文
2018年4月18日
摘要:
https://blog.csdn.net/chaipp0607/article/details/75577305 https://blog.csdn.net/leastsq/article/details/54374909 tf.logging.set_verbosity(tf.logging.I 阅读全文
摘要:
QA即图像问答:覆盖最全面的AI,ai完备性 动态模型:不同任务需要不同模型 or 不同细分任务需要不同模型参数 数据集: 1)VQA,显示图片+抽象场景;每个问题给10个不同答案;含有无图片答案(考察图片和问题的客观性) 为了降低语言偏置、不均衡(language priors)-》一个问题对应2 阅读全文
2018年4月17日
摘要:
2018-04-25朴素rcnn - 梯度消失严重LSTM长短时记忆模型,有效捕捉长时记忆包含四个神经元组:一个记忆神经元三个控制门神经元:输入、忘记、输出 注意:输入调制门、输出调制门 3个输入:前一时刻的隐藏状态h、前一时刻的记忆状态c、当前时刻的输入x2个输出:当前时刻的隐含状态h,当前时刻的 阅读全文
2018年4月16日
摘要:
显著性检测:1)显著性物体检测-最能引起视觉注意的物体区域2)注视点预测:人类视觉注意机制 视觉注意机制的两种机制:1)自底而上基于数据驱动的注意机制,如颜色、边缘 2)自上而下基于任务驱动的目标的注意机制,如认知因素钟的只是、预期、兴趣 物体分割:Gragh Cuts分割~最小割最大流算法优化Gr 阅读全文
2018年4月14日
摘要:
%mkdir的做法glob('.jpg')np.random.permutation(图片)np.random.rename(,)#save_array:utils中,连接每个btch得到的数组#keras.predict_generatorbatches,preds = vgg.test(,)fi 阅读全文
摘要:
R-CNN: 2014,cnn为Alexnet 训练流程: 1)在imagenet上对cnn模型pre-train 2)使用所有ss生成区域对1)进行fine-tune ~softmax改为21维度 ground-truth:标记的真正的框~lou,阈值0.5~32个正样本,96个负样本 3)在2) 阅读全文