上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 33 下一页
摘要: 分布式基础设施上的可扩展深度学习:挑战、技术和工具 摘要 深度学习 (DL) 在最近取得了巨大成功,在图像识别和自然语言处理等各个领域取得了最先进的成果。这一成功的原因之一是 DL 模型的规模不断扩大以及可用的大量训练数据的激增。为了不断提高深度学习的性能,增加深度学习系统的可扩展性是必要的。在本次 阅读全文
posted @ 2022-09-16 13:07 jasonzhangxianrong 阅读(419) 评论(0) 推荐(0) 编辑
摘要: 摘要 本文提出了一种进化灰箱模型辨识方法,该方法充分利用具有被研究物理系统全局结构表示的透明箱模型的先验知识,同时结合实际系统的不可测和局部非线性的精确黑箱模型。将进化技术应用于局部参数调谐的主导结构识别,在存在噪声的情况下不需要可微的性能指标。结果表明,进化技术具有良好的拟合性能,能够适应多个目标 阅读全文
posted @ 2022-09-11 19:48 jasonzhangxianrong 阅读(292) 评论(0) 推荐(0) 编辑
摘要: Data-Driven Evolutionary Optimization: An Overview and Case Studies 数据驱动的进化优化。纵览 概述和案例研究 摘要 Abstract—Most evolutionary optimization algorithms assume 阅读全文
posted @ 2022-07-04 17:33 jasonzhangxianrong 阅读(449) 评论(0) 推荐(0) 编辑
摘要: K-means与K-means++: 原始K-means算法最开始随机选取数据集中K个点作为聚类中心, 而K-means++按照如下的思想选取K个聚类中心: 假设已经选取了n个初始聚类中心(0<n<K),则在选取第n+1个聚类中心时:距离当前n个聚类中心越远的点会有更高的概率被选为第n+1个聚类中心 阅读全文
posted @ 2022-03-11 15:22 jasonzhangxianrong 阅读(226) 评论(0) 推荐(0) 编辑
摘要: 准备工作 首先需要在pycharm中安装好python_speech_features和librosa两个包。建议先安装anaconda,然后在anaconda中创建一个虚拟环境,用于安装Pycharm的所有需要的包,然后再在pycharm中导入在anaconda中创建的虚拟环境即可。(同时使用co 阅读全文
posted @ 2022-02-22 18:30 jasonzhangxianrong 阅读(1190) 评论(0) 推荐(0) 编辑
摘要: 引子 问&答 是人和人之间非常重要的沟通方式,其关键在于:我们要理解对方的问题,并给出他想要的答案。设想这样一个场景,当你的女朋友or老婆大人在七夕前一晚,含情脉脉地跟你说 亲爱的,七夕快到了,可以给我换个新手机吗? 而此时沉迷王者峡谷的你,也许会不假思索地回答 好啊亲爱的~ 昨天刚看到拼多多九块九 阅读全文
posted @ 2022-02-21 16:09 jasonzhangxianrong 阅读(201) 评论(0) 推荐(0) 编辑
摘要: BERT-flow来自论文《On the Sentence Embeddings from Pre-trained Language Models》,中了EMNLP 2020,主要是用flow模型校正了BERT出来的句向量的分布,从而使得计算出来的cos相似度更为合理一些。由于笔者定时刷Arixv的 阅读全文
posted @ 2022-02-21 15:51 jasonzhangxianrong 阅读(417) 评论(0) 推荐(0) 编辑
摘要: 一、项目目录 二、data_clean生成数据 from common.root_path import root import os import pandas as pd class DataMerge(object): def __init__(self): self.data_path = 阅读全文
posted @ 2022-02-18 14:40 jasonzhangxianrong 阅读(915) 评论(1) 推荐(0) 编辑
摘要: 一、理论学习 1、胶囊结构 胶囊可以看成一种向量化的神经元。对于单个神经元而言,目前的深度网络中流动的数据均为标量。例如多层感知机的某一个神经元,其输入为若干个标量,输出为一个标量(不考虑批处理);而对于胶囊而言,每个神经元输入为若干个向量,输出为一个向量(不考虑批处理)。前向传播如下所示: 其中I 阅读全文
posted @ 2022-02-10 16:41 jasonzhangxianrong 阅读(1342) 评论(1) 推荐(0) 编辑
摘要: 中文字、词Bert向量生成利用Bert预训练模型生成中文的字、词向量,字向量是直接截取Bert的输出结果;词向量则是把词语中的每个字向量进行累计求平均(毕竟原生Bert是基于字符训练的),Bert预训练模型采用的是科大讯飞的chinese_wwm_ext_pytorch,网盘下载地址: 链接:htt 阅读全文
posted @ 2021-12-28 09:51 jasonzhangxianrong 阅读(875) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 33 下一页