机器学习第一次作业
1.课程的学习心得
通过前五周的学习,我明白了许多基本的定义,比如什么是模式识别,什么是机器学习。以及第二章介绍了欧式距离 d(x1,x2)=(x2−x1)T∗(x2−x1),以及基于欧式距离的med分类器,决策边界是(x−μ1)T(x−μ1)<(x−μ2)T(x−μ2)。为了克服med分类器的不足,就有了micd分类器。对特征解耦和白化后,得到的距离就是马氏距离。马氏距离d(x1,x2)=(x2−x1)TΣ−1x(x2−x1),决策边界是(x−μ1)TΣ−1x(x−μ1)<(x−μ2)TΣ−1x(x−μ2)。
第三章介绍了最大后验概率分类器map分类器,根据贝叶斯公式得到决策边界p(x|C1)p(C1)>p(x|C2)p(C2)。在map分类器的基础上加上决策风险因素,得到贝叶斯分类器。在贝叶斯决策中,求取后验概率需要事先知道每个类的先验概率和观测似然概率。这两类概率分布需要通过机器学习算法得到,常用的参数估计方法有最大似然估计和贝叶斯估计。第三章最后介绍了常用的无参数估计技术:k近邻估计,直方图估计,核密度估计。
总体来说,除了一些带矩阵的公式的推导过程,其余的大部分内容我都能理解,现在我也在回顾以前学过的线性代数的知识,以及学习一些新的线代知识。
2.人工智能领域的前沿技术介绍
深度强化学习
深度强化学习将深度学习的感知能力和强化学习的决策能力相结合,可以直接根据输入的图像进行控制,是一种更接近人类思维方式的人工智能方法。深度学习具有较强的感知能力,但是缺乏一定的决策能力;而强化学习具有决策能力,对感知问题束手无策。因此,将两者结合起来,优势互补。
2013年,谷歌DeepMind团队提出了一种DRL方法,在一些游戏上的实验效果接近或超过人类游戏玩家,成果发表在2015年的《Nature》上。2016年,相继发表了所开发的基于DRL的围棋算法AlphaGo,以5:0战胜了欧洲围棋冠军和超一流围棋选手李世石,使人工智能的水平达到了一个前所未有的高度。2017年初,AlphaGo的升级程序Master,与60名人类顶级围棋手比赛获得不败的战绩。在不完全信息博弈中,2017年初,阿尔伯塔大学采用了与AlphaGo相似的原理,开发的德州扑克人工智能DeepStack取得了骄人的胜绩,论文发表在《Science》上,标志着人工智能的又一个里程碑事件。2017年10月,DeepMind团队在《Nature》上发表的论文中提出了AlphaGo Zero,完全不用人类围棋棋谱而完胜最高水平的AlphaGo,再次刷新了人们的认识。DRL在视频游戏、博弈、自动驾驶、机器人、自然语言理解、智能医疗等领域的应用日益增多。
3.我国人工智能发展战略
2017年7月,国务院发布《新一代人工智能发展规划》,人工智能终于进入国家战略规划期,作为一项重要的国策。人工智能对各个产业的推动能力被扩大。新的人工智能一共分三步走的战略目标计划,在我国各领域展开。
第一步:中国智能制造
现在国家会将现有的传统工业系统与现代的智能化和信息化的技术进行结合,利用深度的神经网络,将传统的工业进行改革创新。
第二步:正式进入互联网+的时代
我国将会把传统的商业生产,带动全民经济,鼓励企业的创新和改造。允许不同企业在产品上进行拓展。,2018《政府工作报告》中提出:“发展壮大新动能。做大做强新兴产业集群,实施大数据发展行动,加强新一代人工智能研发应用,在医疗、养老、教育、文化、体育等多领域推进‘互联网+’。发展智能产业,拓展智能生活。运用新技术、新业态、新模式,大力改造提升传统产业。”
第三步:国家战略规划期
国家进行战略规划发展,人工智能技术的应用将会进行不断开发应用在生活的各个方面,关于人工智能的应用和科技人才的相关指导意见与落地政策纷纷颁布。各行各业也将与人工智能相互结合作为发展第一要务如何实现人工智能产业自身的创新?”,以及“如何将其应用到具体场景中?”,将会是各行业发展的关键点。