摘要: 前言 今天提一个比较轻松的话题,简单探讨数据集大小对深度学习训练的影响。 不知道大家有没有看过这篇文章:Don't use deep learning your data isn't that big 是的,有人对深度学习的局限性提供了一个证据:那就是当你数据比较少的时候,深度学习的作用相比较于其他 阅读全文
posted @ 2021-03-01 22:25 老潘的博客 阅读(2952) 评论(0) 推荐(0) 编辑
摘要: 前言 亲,显存炸了,你的显卡快冒烟了! torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda/conda-bld/pytorch_1524590031827/work/aten/src/THC/generic/T 阅读全文
posted @ 2021-02-28 09:43 老潘的博客 阅读(1912) 评论(0) 推荐(0) 编辑
摘要: 最近闲来无事,老潘以一名普通算法工程师的角度,结合自身以及周围人的情况,理性也感性地分析一下极市平台前些天发布的2020年度中国计算机视觉人才调研报告。 以下的“计算机视觉人才”简称“人才”,感觉说人才有点怪怪的感觉?自己也算人才么?老潘只不过是一个普普通通的算法工程师罢了(逃)。 这个报告一共分为 阅读全文
posted @ 2021-02-24 22:50 老潘的博客 阅读(602) 评论(0) 推荐(1) 编辑
摘要: 前言 本篇文章可作为<利用变分自编码器实现深度换脸(DeepFake)>的知识铺垫。 自编码器是什么,自编码器是个神奇的东西,可以提取数据中的深层次的特征。 例如我们输入图像,自编码器可以将这个图像上“人脸”的特征进行提取(编码过程),这个特征就保存为自编码器的潜变量,例如这张人脸的肤色以及头发颜色 阅读全文
posted @ 2021-02-22 22:56 老潘的博客 阅读(1210) 评论(0) 推荐(1) 编辑
摘要: 前言 深度学习不不仅仅是理论创新,更重要的是应用于工程实际。 关于深度学习人工智能落地,已经有有很多的解决方案,不论是电脑端、手机端还是嵌入式端,将已经训练好的神经网络权重在各个平台跑起来,应用起来才是最实在的。 (caffe2-ios:https://github.com/KleinYuan/Ca 阅读全文
posted @ 2021-02-21 11:02 老潘的博客 阅读(705) 评论(0) 推荐(0) 编辑
摘要: 本系列为新TensorRT的第一篇,为什么叫新,因为之前已经写了两篇关于TensorRT的文章,是关于TensorRT-5.0版本的。好久没写关于TensorRT的文章了,所幸就以新来开头吧~ 接下来将要讲解的TensorRT,将会是基于7.0版本。 7版本开头的TensorRT变化还是挺大的,增加 阅读全文
posted @ 2021-02-20 23:34 老潘的博客 阅读(2739) 评论(0) 推荐(2) 编辑
摘要: 好久不见了各位! 前一阵子忍不住剁手买了M1芯片的mac mini,为了弥补自己的内疚感就卖了自己的旧的mbp2017款。数据也完全迁移到了新机器上,之前的工作也就由mbp2017彻底换成mac mini了,要换就换彻底点,不要给自己了留后路,哼。 为什么买mini而不是macbook系列,当然是为 阅读全文
posted @ 2021-02-19 22:01 老潘的博客 阅读(4268) 评论(3) 推荐(1) 编辑
摘要: 前言 过年时闲来无事,瞎翻自己的博客,偶然看到之前写的一篇文章: 一篇文章解决机器学习,深度学习入门疑惑 这篇文章原先发布于2018年中旬,那会正是深度学习、神经网络无脑火热的时候。火热到什么程度?火热到显卡一度卖脱销(不是因为挖矿),研究生导师集体推荐学生转深度学习方向、毕业论文不带“深度学习”四 阅读全文
posted @ 2021-02-18 23:29 老潘的博客 阅读(2573) 评论(0) 推荐(2) 编辑
老潘的博客,程序员眸中的fantasy life,分享AI技术干货,帮助大家少走弯路
如果你喜欢我的内容,欢迎关注和支持
如果对文章有疑问,欢迎关注「oldpan博客」公众号联系我
微信扫码关注后可获取老潘整理的AI基础以及进阶资料,一直在更新!
3d7e2c8ab80aa9da1f52fda5c8bed2fe.png
个人网站 :
https://oldpan.me/