深度学习杂七杂八
深度学习杂七杂八
国内外优秀的计算机视觉团队汇总
转自极市平台https://bbs.cvmart.net/articles/481/outstanding-Computer-Vision-Team
国内高校研究团队
北京
清华大学:龙明盛,黄高,艾海舟,张长水(Big eyes laboratory 大眼睛实验室),丁贵广(Multimedia Intelligence Group)。
北京大学:林宙辰,查红彬,施柏鑫,曾刚 (zeng@pku.edu.cn),刘家瑛,穆亚东
中科院:跨媒体计算研究组
中科院计算所:高文(VIPL 视觉信息处理与学习研究组),陈熙霖,山世光
中科院自动化所:谭铁牛(智能感知与计算研究中心),李子青(生物识别与安全技术研究中心),模式识别重点实验室
中科院信工所:王蕊
中科院深圳先进院:乔宇
北京交通大学:信息科学研究所
北京航空航天大学:王蕴红(智能识别与图像处理实验室),黄迪,李甲,刘祥龙,刘偲(CoLab可乐实验室),陆峰(感知交互增强智能 研究室)
哈尔滨
哈尔滨工业大学:左旺孟
大连
大连理工大学:卢湖川
天津
南开大学: 程明明(南开大学媒体计算实验室) ,杨巨峰(计算机视觉实验室)
天津大学:计算机视觉实验室
南京
南京大学:吴建鑫,王利民,曹汛(CITE),马展(VISION LAB),岳涛
南京理工大学:智能媒体分析实验室,杨健
南京信息工程大学:刘青山
上海
上海交通大学:卢策吾,严骏驰(SJTU-ThinkLab 上海交通大学思维工场实验室),张拳石,计算机视觉实验室
复旦大学:薛向阳,姜育刚
上海科技大学:高盛华( SVIP LAB )
杭州
浙江大学:蔡登,何晓飞,宋明黎( VIPA 视觉智能与模式分析组 ),朱建科,李玺,章国锋,周晓巍,廖子承
武汉
华中科技大学:白翔,王兴刚
武汉大学:杜博(地学智能感知与机器学习研究组),姚剑( CVRS Lab 计算机视觉与遥感实验室 )
厦门
厦门大学:纪荣嵘(媒体分析与计算实验室)
深圳
南方科技大学:张建国,于仕琪、郑锋
香港中文大学(深圳):韩晓光
香港
香港城市大学:视频检索小组
香港中文大学:多媒体实验室
国外高校研究团队
美国
加州大学伯克利分校:机器视觉小组
加州大学洛杉矶分校 :VCLA研究小组
加州大学河滨分校:视频计算小组
加州大学圣塔芭芭拉分校:视觉研究实验室
加州大学圣地亚哥分校:视觉与机器人研究实验室,机器视觉实验室,
加州大学尔湾分校:机器视觉实验室
加州大学圣克鲁兹分校:认知科学实验室
加州理工学院:计算视觉实验室
南加州大学:机器视觉小组
德雷塞尔大学:生物医学计算小组
卡耐基梅隆大学:机器人学院
麻省理工学院:计算机科学与人工智能实验室,机器视觉实验室,生物与机器学习实验室,媒体实验室,认知科学实验室
佐治亚理工学院:机器人技术与智能机器实验室,计算感知实验室
佛罗里达大学:计算机视觉实验室
科罗拉多州立大学:机器视觉实验室
哥伦比亚大学:机器视觉实验室
康奈尔大学:计算机视觉小组,机器人实验室
佐治亚大学:视觉与并行计算实验室
伊利诺伊大学芝加哥分校:机器人实验室
马里兰大学:自动化研究中心
麻省大学:机器视觉实验室
密歇根大学安娜堡分校:人工智能实验室
内华达大学雷诺分校:机器视觉实验室
俄勒冈州立大学:医学工程医学图像研究组
宾夕法尼亚大学:机器人自动化感知实验室,医学图像处理小组
宾州州立大学:视觉感知,动作和认知实验室
普渡大学机器人视觉实验室,视频和图像处理实验室
斯坦福大学:视觉与图像科学实验室,视觉实验室
德克萨斯大学奥斯汀分校:图像和视频工程实验室
犹他大学:计算科学与图像学院
威斯康星大学:机器视觉小组
波士顿大学:图像与视频计算小组
感慨一下,整理信息的时候,愈发觉得美国太强了,世界名校这么多!
加拿大
多伦多大学:机器视觉小组
不列颠哥伦比亚大学:人工智能实验室
巴西
巴西圣保罗大学:视觉控制实验室
英国
伦敦玛丽女王大学:机器视觉小组
剑桥大学:视觉与机器人研究小组
伦敦大学学院:视觉和图像研究小组
邓迪大学:机器视觉与图像处理小组
约克大学:视觉图像与机器人实验室,视觉研究中心
雷丁大学:计算视觉小组
普利茅斯大学:机器人与智能系统小组
西英格兰大学:机器视觉中心
曼切斯特大学:图像科学实验室
牛津大学:视觉集合团队
伦敦帝国学院:视觉研究小组
爱尔兰
都柏林城市大学:视觉系统小组
德国
达姆施塔特工业大学:机器视觉研究小组
莱布尼茨大学:信息处理所
柏林工业大学:机器视觉与遥感小组
亚琛工业大学:语言与模式识别实验室
瑞士
苏黎世联邦理工学院:机器视觉实验室
荷兰
阿姆斯特丹大学:智能系统实验室
乌得勒支大学:图像科学学院
瑞典
林雪平大学:机器视觉实验室
瑞典皇家理工学院:机器视觉与行动感知实验室
奥地利
格拉茨技术大学:计算机图形与视觉实验室
西班牙
马德里理工大学:机器视觉小组
意大利
帕维亚大学:视觉与多媒体实验室
维罗纳大学:视觉与图像处理实验室
澳大利亚
阿德莱德大学:视觉技术实验室
以色列
以色列魏茨曼科技大学:机器视觉实验室
企业研究团队
微软亚洲研究院:计算机视觉研究组
微软剑桥研究院:ML与CV研究组
微软:交互式视觉媒体研究组
IBM研究院
谷歌研究院
三菱电子研究实验室
Adobe研究院
迪士尼研究院
Facebook:FAIR 人工智能实验室
旷视研究院
商汤科技研究院
腾讯:AI Lab
字节跳动:人工智能实验室
360人工智能研究院
调参经验: 关于deep learning(rnn、cnn)
作者:时间旅客
https://www.zhihu.com/question/41631631/answer/1129785528
-
不管什么模型,先在一个较小的训练集上train和test,看看它能不能过拟合。如果不能过拟合,可能是学习率太大,或者代码写错了。先调小学习率试一下,如果还不行就去检查代码,先看dataloader输出的数据对不对,再看模型每一步的size是否符合自己期待。
-
看train/eval的loss曲线,正常的情况应该是train loss呈log状一直下降最后趋于稳定,eval loss开始时一直下降到某一个epoch之后开始趋于稳定或开始上升,这时候可以用early stopping保存eval loss最低的那个模型。如果loss曲线非常不正常,很有可能是数据处理出了问题,比如label对应错了,回去检查代码。
-
不要一开始就用大数据集,先在一个大概2w训练集,2k测试集的小数据集上调参。
-
尽量不要自己从头搭架子(新手和半新手)。找一个已经明确没有bug能跑通的其它任务的架子,在它的基础上修改。否则debug过程非常艰难,因为有时候是版本迭代产生的问题,修改起来很麻烦。
-
优化器优先用adam,学习率设1e-3或1e-4,再试Radam(LiyuanLucasLiu/RAdam)。不推荐sgdm,因为很慢。
-
参数初始化,用he或xavier。
Xavier初始法论文:http://jmlr.org/proceedings/papers/v9/glorot10a/glorot10a.pdf
He初始化论文:https://arxiv.org/abs/1502.01852
-
uniform均匀分布初始化:
w = np.random.uniform(low=-scale, high=scale, size=[n_in,n_out]) -
- Xavier初始法,适用于普通激活函数(tanh,sigmoid):scale = np.sqrt(3/n)
- He初始化,适用于ReLU:scale = np.sqrt(6/n)
-
normal高斯分布初始化:
w = np.random.randn(n_in,n_out) * stdev # stdev为高斯分布的标准差,均值设为0 -
- Xavier初始法,适用于普通激活函数 (tanh,sigmoid):stdev = np.sqrt(n)
- He初始化,适用于ReLU:stdev = np.sqrt(2/n)
-
-
激活函数用relu一般就够了,也可以试试leaky relu。
-
batchnorm和dropout可以试,放的位置很重要。优先尝试放在最后输出层之前,以及embedding层之后。RNN可以试layer_norm。有些任务上加了这些层可能会有负作用。
-
batchsize设置小一点通常会有一些提升,某些任务batchsize设成1有奇效。
-
weight decay可以试一下,我一般用1e-4。
-
有CNN的地方就用shortcut。CNN层数加到某一个值之后对结果影响就不大了,这个值作为参数可以调一下。
-
看论文时候不要全信,能复现的尽量复现一下,许多论文都会做低baseline,但实际使用时很多baseline效果很不错。
-
对于大多数任务,数据比模型重要。面对新任务时先分析数据,再根据数据设计模型,并决定各个参数。例如nlp有些任务中的padding长度,通常需要达到数据集的90%以上,可用pandas的describe函数进行分析。
-
激活函数选择:
常用的激活函数有relu、leaky-relu、sigmoid、tanh等。对于输出层,多分类任务选用softmax输出,二分类任务选用sigmoid输出,回归任务选用线性输出。而对于中间隐层,则优先选择relu激活函数。