上一页 1 ··· 25 26 27 28 29 30 31 32 33 ··· 79 下一页
摘要: 作者|GUEST BLOG 编译|VK 来源|Analytics Vidhya 介绍 “事实是每个人都相信的简单陈述。也就是事实是没有错的,除非它被人发现了错误。假设有一个没人愿意相信的建议,那么它要直到被发现有效的时候才能成为事实。” –爱德华·泰勒 我们正在应对一场空前规模的流行病。全世界的研究 阅读全文
posted @ 2020-06-16 21:23 人工智能遇见磐创 阅读(1412) 评论(0) 推荐(0) 编辑
摘要: 作者|Ajit Rajasekharan 编译|VK 来源|Towards Data Science 从文档中获取的句子片段的嵌入可以作为该文档的提取摘要方面,并可能加速搜索,特别是当用户输入是一个句子片段时。这些片段嵌入不仅比传统的文本匹配系统产生更高质量的结果,也是问题的内在驱动的搜索方法。现代 阅读全文
posted @ 2020-06-16 00:10 人工智能遇见磐创 阅读(302) 评论(0) 推荐(0) 编辑
摘要: 作者|Anuj Shrivastav 编译|VK 来源|Medium 介绍 监督学习描述了一类问题,涉及使用模型来学习输入示例和目标变量之间的映射。如果存在分类问题,则目标变量可以是类标签,如果存在回归问题,则目标变量是连续值。一些模型可用于回归和分类。我们将在此博客中讨论的一种这样的模型是支持向量 阅读全文
posted @ 2020-06-15 12:02 人工智能遇见磐创 阅读(1887) 评论(0) 推荐(0) 编辑
摘要: 作者|MOHD SANAD ZAKI RIZVI 编译|VK 来源|Analytics Vidhya 概述 由AI生成的假新闻(神经假新闻)对于我们的社会可能是一个巨大的问题 本文讨论了不同的自然语言处理方法,以开发出对神经假新闻的强大防御,包括使用GPT-2检测器模型和Grover(AllenNL 阅读全文
posted @ 2020-06-14 12:18 人工智能遇见磐创 阅读(1270) 评论(0) 推荐(0) 编辑
摘要: 作者|facebookresearch 编译|Flin 来源|Github detectron2.config package class detectron2.config.CfgNode(init_dict=None, key_list=None, new_allowed=False) 源代码: 阅读全文
posted @ 2020-06-13 11:59 人工智能遇见磐创 阅读(1072) 评论(0) 推荐(0) 编辑
摘要: 作者|FAIZAN SHAIKH 编译|VK 来源|Analytics Vidhya 介绍 深入学习中最具争议的话题之一是如何解释和理解一个经过训练的模型——特别是在医疗等高风险行业的背景下。“黑匣子”一词经常与深度学习算法联系在一起。如果我们不能解释模型是如何工作的,我们怎么能相信模型的结果呢?这 阅读全文
posted @ 2020-06-12 12:07 人工智能遇见磐创 阅读(1961) 评论(0) 推荐(0) 编辑
摘要: 作者|PURVA HUILGOL 编译|VK 来源|Analytics Vidhya 介绍 我们正站在语言和机器的交汇处,这个话题我很感兴趣。机器能像莎士比亚一样写作吗?机器能提高我自己的写作能力吗?机器人能解释一句讽刺的话吗? 我肯定你以前问过这些问题。自然语言处理(NLP)也致力于回答这些问题, 阅读全文
posted @ 2020-06-10 19:25 人工智能遇见磐创 阅读(2011) 评论(0) 推荐(0) 编辑
摘要: 作者|facebookresearch 编译|Flin 来源|Github detectron2.checkpoint软件包 class detectron2.checkpoint.Checkpointer(model: torch.nn.modules.module.Module, save_di 阅读全文
posted @ 2020-06-08 20:04 人工智能遇见磐创 阅读(1413) 评论(0) 推荐(0) 编辑
摘要: 这篇文章主要是基于我自己的经验,侧重于计算机视觉学习资源的介绍,如果大家按照这个路线去学,相信这将在很大程度上促进提高你的计算机视觉知识水平。 在开始学习计算机视觉之前,我们先来了解有关机器学习和python基础知识。 框架(Frameworks) 虽然你不必从一开始就去考虑选择何种框架,但是实践应 阅读全文
posted @ 2020-06-07 15:26 人工智能遇见磐创 阅读(892) 评论(0) 推荐(2) 编辑
摘要: 作者|Renu Khandelwal 编译|VK 来源|Towards Data Science 在本文中,你将了解: 为什么我们需要seq2seq模型的注意力机制? Bahdanua的注意力机制是如何运作的? Luong的注意力机制是如何运作的? 什么是局部和全局注意力? Bahdanua和Luo 阅读全文
posted @ 2020-06-07 15:22 人工智能遇见磐创 阅读(1104) 评论(0) 推荐(0) 编辑
上一页 1 ··· 25 26 27 28 29 30 31 32 33 ··· 79 下一页