关闭

关闭

关闭

封号提示

内容

首页 (周志华)数据挖掘和机器学习.pdf

(周志华)数据挖掘和机器学习.pdf

(周志华)数据挖掘和机器学习.pdf

上传者: 佐岸佑转 2013-10-14 评分 0 0 0 0 0 0 暂无简介 简介 举报

简介:本文档为《(周志华)数据挖掘和机器学习pdf》,可适用于IT/计算机领域,主题内容包含机器学习与数据挖掘周志华南京大学计算机软件新技术国家重点实验室南京“机器学习”是人工智能的核心研究领域之一其最初的研究动机是为了让计算机系统具有人的符等。

机器学习与数据挖掘周志华南京大学计算机软件新技术国家重点实验室南京“机器学习”是人工智能的核心研究领域之一其最初的研究动机是为了让计算机系统具有人的学习能力以便实现人工智能因为众所周知没有学习能力的系统很难被认为是具有智能的。目前被广泛采用的机器学习的定义是“利用经验来改善计算机系统自身的性能”。事实上由于“经验”在计算机系统中主要是以数据的形式存在的因此机器学习需要设法对数据进行分析这就使得它逐渐成为智能数据分析技术的创新源之一并且为此而受到越来越多的关注。“数据挖掘”和“知识发现”通常被相提并论并在许多场合被认为是可以相互替代的术语。对数据挖掘有多种文字不同但含义接近的定义例如“识别出巨量数据中有效的、新颖的、潜在有用的、最终可理解的模式的非平凡过程”。其实顾名思义数据挖掘就是试图从海量数据中找出有用的知识。大体上看数据挖掘可以视为机器学习和数据库的交叉它主要利用机器学习界提供的技术来分析海量数据利用数据库界提供的技术来管理海量数据。因为机器学习和数据挖掘有密切的联系受主编之邀本文把它们放在一起做一个粗浅的介绍。无处不在随着计算机技术的飞速发展人类收集数据、存储数据的能力得到了极大的提高无论是科学研究还是社会生活的各个领域中都积累了大量的数据对这些数据进行分析以发掘数据中蕴含的有用信息成为几乎所有领域的共同需求。正是在这样的大趋势下机器学习和数据挖掘技术的作用日渐重要受到了广泛的关注。例如网络安全是计算机界的一个热门研究领域特别是在入侵检测方面不仅有很多理论成果还出现了不少实用系统。那么人们如何进行入侵检测呢?首先人们可以通过检查服务器日志等手段来收集大量的网络访问数据这些数据中不仅包含正常访问模式还包含入侵模式。然后人们就可以利用这些数据建立一个可以很好地把正常访问模式和入侵模式分开的模型。这样在今后接收到一个新的访问模式时就可以利用这个模型来判断这个模式是正常模式还是入侵模式甚至判断出具体是何种类型的入侵。显然这里的关键问题是如何利用以往的网络访问数据来建立可以对今后的访问模式进行分类的模型而这正是机器学习和数据挖掘技术的强项。实际上机器学习和数据挖掘技术已经开始在多媒体、计算机图形学、计算机网络乃至操作系统、软件工程等计算机科学的众多领域中发挥作用特别是在计算机视觉和自然语言处理领域机器学习和数据挖掘已经成为最流行、最热门的技术以至于在这些领域的顶级会议上相当多的论文都与机器学习和数据挖掘技术有关。总的来看引入机器学习和数据挖掘技术在计算机科学的众多分支领域中都是一个重要趋势。机器学习和数据挖掘技术还是很多交叉学科的重要支撑技术。例如生物信息学是一个新兴的交叉学科它试图利用信息科学技术来研究从DNA到基因、基因表达、蛋白质、基因电路、细胞、生理表现等一系列环节上的现象和规律。随着人类基因组计划的实施以及基因药物的美好前景生物信息学得到了蓬勃发展。实际上从信息科学技术的角度来看生物信息学的研究是一个从“数据”到“发现”的过程这中间包括数据获取、数据管理、数据分析、仿真实验等环节而“数据分析”这个环节正是机器学习和数据挖掘技术的舞台。正因为机器学习和数据挖掘技术的进展对计算机科学乃至整个科学技术领域都有重要意义美国NASAJPL实验室的科学家年月在《Science》上专门撰文指出机器学习对科学研究的整个过程正起到越来越大的支持作用并认为该领域将稳定而快速地发展并将对科学技术的发展发挥更大的促进作用。NASAJPL实验室的全名是美国航空航天局喷气推进实验室位于加州理工学院是美国尖端技术的一个重要基地著名的“勇气”号和“机遇”号火星机器人正是在这个实验室完成的。从目前公开的信息来看机器学习和数据挖掘技术在这两个火星机器人上有大量的应用。除了在科学研究中发挥重要作用机器学习和数据挖掘技术和普通人的生活也息息相关。例如在天气预报、地震预警、环境污染检测等方面有效地利用机器学习和数据挖掘技术对卫星传递回来的大量数据进行分析是提高预报、预警、检测准确性的重要途径在商业营销中对利用条形码技术获得的销售数据进行分析不仅可以帮助商家优化进货、库存还可以对用户行为进行分析以设计有针对性的营销策略……。下面再举两个例子。公路交通事故是人类面临的最大杀手之一全世界每年有上百万人丧生车轮仅我国每年就有约万人死于车祸。美国一直在对自动驾驶车辆进行研究因为自动驾驶车辆不仅在军事上有重要意义还对减少因酒后、疲劳而引起的车祸有重要作用。年月在美国DARPA(国防部先进研究计划局)组织的自动驾驶车辆竞赛中斯坦福大学的参赛车在完全无人控制的情况下成功地在小时分钟内走完了英里(约公里)的路程获得了冠军。比赛路段是在内华达州西南部的山区和沙漠中路况相当复杂有的地方路面只有几米宽一边是山岩另一边是百尺深沟即使有丰富驾驶经验的司机在这样的路段上行车也是一个巨大的挑战。这一结果显示出自动驾驶车辆已经不再是一个梦想可能在不久的将来就会走进普通人的生活。值得一提的是斯坦福大学参赛队正是由一位机器学习专家所领导的而获胜车辆也大量使用了机器学习和数据挖掘技术。Google、Yahoo、百度等互联网搜索引擎已经开始改变了很多人的生活方式例如很多人已经习惯于在出行前通过网络搜索来了解旅游景点的背景知识、寻找合适的旅馆、饭店等。美国新闻周刊曾经对Google有个“一句话评论”:“它使得任何人离任何问题的答案之间的距离只有点击一下鼠标这么远”。现在很少有人不知道互联网搜索引擎的用处但可能很多人并不了解机器学习和数据挖掘技术正在支撑着这些搜索引擎。其实互联网搜索引擎是通过分析互联网上的数据来找到用户所需要的信息而这正是一个机器学习和数据挖掘任务。事实上无论Google、Yahoo还是微软其互联网搜索研究核心团队中都有相当大比例的人是机器学习和数据挖掘专家而互联网搜索技术也正是机器学习和数据挖掘目前的热门研究话题之一。雄关漫道机器学习是人工智能研究发展到一定阶段的必然产物。从世纪年代到年代初人工智能研究处于“推理期”人们认为只要给机器赋予逻辑推理能力机器就能具有智能。这一阶段的代表性工作主要有ANewell和HSimon的“逻辑理论家”程序以及此后的“通用问题求解”程序等这些工作在当时取得了令人振奋的成果。例如“逻辑理论家”程序在年证明了著名数学家罗素和怀特海的名著《数学原理》中的条定理在年证明了全部的条定理而且定理甚至比罗素和怀特海证明得更巧妙。ANewell和HSimon因此获得了年图灵奖。然而随着研究向前发展人们逐渐认识到仅具有逻辑推理能力是远远实现不了人工智能的。EAFeigenbaum等人认为要使机器具有智能就必须设法使机器拥有知识。在他们的倡导下世纪年代中期开始人工智能进入了“知识期”。在这一时期大量专家系统问世在很多领域做出了巨大贡献。EAFeigenbaum作为“知识工程”之父在年获得了图灵奖。但是专家系统面临“知识工程瓶颈”简单地说就是由人来把知识总结出来再教给计算机是相当困难的。于是一些学者想到如果机器自己能够学习知识该多好!实际上图灵在年提出图灵测试的文章中就已经提到了机器学习的可能而世纪年代其实已经开始有机器学习相关的研究工作主要集中在基于神经网络的连接主义学习方面代表性工作主要有FRosenblatt的感知机、BWidrow的Adaline等。在世纪、年代多种学习技术得到了初步发展例如以决策理论为基础的统计学习技术以及强化学习技术等代表性工作主要有ALSamuel的跳棋程序以及NJNilson的“学习机器”等多年后红极一时的统计学习理论的一些重要结果也是在这个时期取得的。在这一时期基于逻辑或图结构表示的符号学习技术也开始出现代表性工作有PWinston的“结构学习系统”、RSMichalski等人的“基于逻辑的归纳学习系统”、EBHunt等人的“概念学习系统”等。年夏天在美国卡内基梅隆大学举行了第一届机器学习研讨会同年《策略分析与信息系统》连出三期机器学习专辑年Tioga出版社出版了RSMichalski、JGCarbonell和TMMitchell主编的《机器学习:一种人工智能途径》书中汇集了位学者撰写的篇文章对当时的机器学习研究工作进行了总结产生了很大反响a年《MachineLearning》创刊年《ArtificialIntelligence》出版了机器学习专辑刊发了一些当时比较活跃的研究工作其内容后来出现在JGCarbonell主编、MIT出版社年出版的《机器学习:风范与方法》一书中。总的来看世纪年代是机器学习成为一个独立的学科领域并开始快速发展、各种机器学习技术百花齐放的时期。RSMichalski等人中把机器学习研究划分成“从例子中学习”、“在问题求解和规划中学习”、“通过观察和发现学习”、“从指令中学习”等范畴而EAFeigenbaum在著名的《人工智能手册》b中则把机器学习技术划分为四大类即“机械学习”、“示教学习”、“类比学习”、“归纳学习”。机械学习也称为“死记硬背式学习”就是把外界输入的信息全部记下来在需要的时候原封不动地取出来使用这实际上没有进行真正的学习示教学习和类比学习实际上类似于RSMichalski等人所说的“从指令中学习”和“通过观察和发现学习”归纳学习类似于“从例子中学习”即从训练例中归纳出学习结果c。世纪年代以来被研究得最多、应用最广的是“从例子中学习”(也就是广义的归纳学习)它涵盖了监督学习(例如分类、回归)、非监督学习(例如聚类)等众多内容。下面我们对这方面主流技术的演进做一个简单的回顾。在世纪年代中期之前“从例子中学习”的一大主流技术是归纳逻辑程序设计(InductiveLogicProgramming)这实际上是机器学习和逻辑程序设计的交叉。它使用阶逻辑来进行知识表示通过修改和扩充逻辑表达式(例如Prolog表达式)来完成对数据的归纳。这一技术占据主流地位与整个人工智能领域的发展历程是分不开的。如前所述人工智能在世纪年代到年代经历了“推理期”和“知识期”在“推理期”中人们基于逻辑知识表示、通过演绎技术获得了很多成果而在知识期中人们基于逻辑知识表示、通过领域知识获取来实现专家系统因此逻辑知识表示很自然地受到青睐而归纳逻辑程序设计技术也自然成为机器学习的一大主流。归纳逻辑程序设计技术的一大优点是它具有很强的知识表示能力可以较容易地表示出复杂数据和复杂的数据关系。尤为重要的是领域知识通常可以方便地写成逻辑表达式因此归纳逻辑程序设计技术不仅可以方便地利用领域知识指导学习还可以通过学习对领域知识进行精化和增强甚至可以从数据中学习出领域知识。事实上机器学习在世纪年代正是被视为“解决知识工程瓶颈问题的关键”而走到人工智能主舞台的聚光灯下的归纳逻辑程序设计的一些良好特性对此无疑居功至伟d。SHMuggleton主编的书对年代中期之前归纳逻辑程序设计方面的研aMorganKaufmann出版社后来分别于年和年出版了该书的续篇编为第二卷和第三卷。b该书共卷分别由EAFeigenbaum与不同的学者合作编写而成。c“归纳学习”有狭义的解释和广义的解释。前者要求从训练数据中学得概念因此也被称为“概念学习”或“概念形成”后者则对学习结果是否是可理解的概念不做要求。d“归纳逻辑程序设计”这个名字其实是年SMuggleton才提出的。究工作做了总结。然而归纳逻辑程序设计技术也有其局限最严重的问题是由于其表示能力很强学习过程所面临的假设空间太大对规模稍大的问题就很难进行有效的学习只能解决一些“玩具问题”。因此在年代中期后归纳程序设计技术方面的研究相对陷入了低谷。世纪年代中期之前“从例子中学习”的另一大主流技术是基于神经网络的连接主义学习。连接主义学习技术在世纪年代曾经历了一个大发展时期但因为早期的很多人工智能研究者对符号表示有特别的偏爱例如HSimon曾说人工智能就是研究“对智能行为的符号化建模”因此当时连接主义的研究并没有被纳入主流人工智能的范畴。同时连接主义学习自身也遇到了极大的问题MMinsky和SPapert在年指出(当时的)神经网络只能用于线性分类对哪怕“异或”这么简单的问题都做不了。于是连接主义学习在此后近年的时间内陷入了停滞期。直到年JJHopfield利用神经网络求解TSP问题获得了成功才使得连接主义重新受到人们的关注。年DERumelhart和JLMcClelland主编了著名的《并行分布处理认知微结构的探索》一书对PDP小组的研究工作进行了总结轰动一时。特别是DERumelhart、GEHinton和RJWilliams重新发明了著名的BP算法e产生了非常大的影响。该算法可以说是最成功的神经网络学习算法在当时迅速成为最流行的算法并在很多应用中都取得了极大的成功。与归纳逻辑程序设计技术相比连接主义学习技术基于“属性值”的表示形式(也就是用一个特征向量来表示一个事物这实际上是命题逻辑表示形式)学习过程所面临的假设空间远小于归纳逻辑程序设计所面临的空间而且由于有BP这样有效的学习算法使得它可以解决很多实际问题。事实上即使在今天BP仍然是在实际工程应用中被用得最多、最成功的算法之一。然而连接主义学习技术也有其局限一个常被人诟病的问题是其“试错性”。简单地说在此类技术中有大量的经验参数需要设置例如神经网络的隐层结点数、学习率等夸张一点说参数设置上差之毫厘学习结果可能谬以千里。在实际工程应用中人们可以通过调试来确定较好的参数设置但对机器学习研究者来说对此显然是难以满意的。世纪年代中期统计学习粉墨登场并迅速独占鳌头。其实早在世纪、年代就已经有统计学习方面的研究工作统计学习理论在那个时期也已经打下了基础例如VNVapnik早在年就提出了“支持向量”的概念他和AJChervonenkis在年提出了VC维在年提出了结构风险最小化原则等但直到年代中期统计学习才开始成为机器学习的主流技术。这一方面是由于有效的支持向量机算法在年代才由BEBoser、IGuyon和VNVapnik提出而其优越的性能也是到年代中期才在TJoachims等人对文本分类的研究中显现出来另一方面正是在连接主义学习技术的局限性凸显出来之后人们才把目光转向了统计学习。事实上e实际上PWerbos在他年哈佛大学的博士学位论文中曾经发明了这个算法但由于当时正处于连接主义的“冰河期”因此没有得到应有的重视。统计学习与连接主义学习有着密切的联系例如RBF神经网络其实就是一种很常用的支持向量机。在支持向量机被普遍接受后支持向量机中用到的核(kernel)技巧被人们用到了机器学习的几乎每一个角落中“核方法”也逐渐成为机器学习的一种基本技巧。但其实这并不是一种新技术例如Mercer定理是在年发表的核技巧也早已被很多人使用过即使只考虑机器学习领域至少TPoggio在年就使用过多项式核。如果仔细审视统计学习理论就可以发现其中的绝大多数想法在以往机器学习的研究中都出现过例如结构风险最小化原则实际上就是对以往机器学习研究中经常用到的最小描述长度原则的另一个说法。但是统计学习理论把这些有用的片段整合在同一个理论框架之下从而为人们研制出泛化能力f有理论保证的算法奠定了基础与连接主义学习的“试错法”相比这是一个极大的进步。然而统计学习也有其局限例如虽然理论上来说通过把原始空间利用核技巧转化到一个新的特征空间再困难的问题也可以容易地得到解决但如何选择合适的核映射却仍然有浓重的经验色彩。另一方面统计学习技术与连接主义学习技术一样是基于“属性值”表示形式难以有效地表示出复杂数据和复杂的数据关系不仅难以利用领域知识而且学习结果还具有“黑箱性”。此外传统的统计学习技术往往因为要确保统计性质或简化问题而做出一些假设但很多假设在真实世界其实是难以成立的。如何克服上述缺陷正是很多学者正在关注的问题。需要说明的是机器学习目前已经是一个很大的学科领域而本节只是管中窥豹很多重要的内容都没有谈及。TGDietterich曾发表过一篇题为《机器学习研究:当前的四个方向》的很有影响的文章在文章中他讨论了集成学习、可扩展机器学习(例如对大数据集、高维数据的学习等)、强化学习、概率网络等四个方面的研究进展有兴趣的读者不妨一读。如前所述机器学习之所以备受瞩目主要是因为它已成为智能数据分析技术的创新源之一。但是机器学习还有一个不可忽视的功能就是通过建立一些关于学习的计算模型来帮助人们了解“人类如何学习”。例如PKanerva在世纪年代中期提出SDM(SparseDistributedMemory)模型时并没有刻意模仿人脑生理结构但后来的研究发现SDM的工作机制非常接近于人类小脑这为理解小脑的某些功能提供了帮助。自然科学研究的驱动力归结起来无非是人类对宇宙本源、物质本性、生命本质、自我本识的好奇而“人类如何学习”无疑是一个有关自我本识的重大问题。从这个意义上说机器学习不仅在信息科学中占有重要地位还有一定的自然科学色彩。与此不同数据挖掘则是一个直接为实际应用而生的学科领域。世纪年代早期的数据库问世人们开始利用计算机对数据进行管理到了年代之后随着关系数据库的出现和发展人们管理数据的能力越来越强收集存储的数据也越来越多。如果只利用数据库进行一些简单的事务处理显然没有对数据进行充分的利用从数据中挖掘出有用的知识才可以更好地实现数据的价值。f提高泛化能力(generalizationability)是机器学习中最重要的问题之一。泛化能力表征了机器学习系统对新事件的适用性简单地说泛化能力越强系统对新事件的适用能力(例如做出正确预测的能力)就越强。年月第届国际人工智能联合会议(IJCAI’)在美国底特律举行GTE实验室的GPiatetskyShapiro在JGCarbonell、WFrawley、KParsaye、JRQuinlan、MSiegel、RUthurusamy等人的支持下组织了一个名为“在数据库中发现知识”的研讨会这个研讨会后来被认为是数据挖掘成为一个领域的标志。早期人们一直称其为“数据挖掘与知识发现”但随着该领域的发展壮大越来越多的人直接称其为数据挖掘g。值得注意的是数据挖掘的对象早就不限于数据库而可以是存放在任何地方的数据甚至包括Internet上的数据。数据挖掘受到了很多学科领域的影响其中数据库、机器学习、统计学无疑影响最大。粗糙地说数据库提供数据管理技术机器学习和统计学提供数据分析技术。由于统计学界往往醉心于理论的优美而忽视实际的效用因此统计学界提供的很多技术通常都要在机器学习界进一步研究变成有效的机器学习算法之后才能再进入数据挖掘领域。从这个意义上说统计学主要是通过机器学习来对数据挖掘发挥影响而机器学习和数据库则是数据挖掘的两大支撑技术。从数据分析的角度来看绝大多数数据挖掘技术都来自机器学习领域。但能否认为数据挖掘只不过就是机器学习的简单应用呢?答案是否定的。一个重要的区别是传统的机器学习研究并不把海量数据作为处理对象很多技术是为处理中小规模数据设计的如果直接把这些技术用于海量数据效果可能很差甚至可能用不起来。因此数据挖掘界必须对这些技术进行专门的、不简单的改造。例如决策树是一种很好的机器学习技术不仅有很强的泛化能力而且学得结果具有一定的可理解性很适合数据挖掘任务的需求。但传统的决策树算法需要把所有的数据都读到内存中在面对海量数据时这显然是无法实现的。为了使决策树能够处理海量数据数据挖掘界做了很多工作例如通过引入高效的数据结构和数据调度策略等来改造决策树学习过程而这其实正是在利用数据库界所擅长的数据管理技术。实际上在传统机器学习算法的研究中在很多问题上如果能找到多项式时间的算法可能就已经很好了但在面对海量数据时可能连O(n)的算法都是难以接受的这就给算法的设计带来了巨大的挑战。另一方面作为一个独立的学科领域必然会有一些相对“独特”的东西。对数据挖掘来说这就是关联分析。简单地说关联分析就是希望从数据中找出“买尿布的人很可能会买啤酒”这样看起来匪夷所思但可能很有意义的模式h。如果在位顾客中有位购买了尿布购买尿布的位顾客中有位购买了啤酒那么就可以写成“尿布啤酒支持度=置信度=”这样的g“数据挖掘”这个词其实很久以前就在统计学界出现并略带贬义但由于数据挖掘领域的发展壮大这个词目前已经没有贬义了。h“尿布和啤酒”的故事可能是对数据挖掘最好的宣传策划。对“买尿布的人很可能会买啤酒”的一个解释是说婴儿出世后母亲在家照管孩子父亲在下班回家的路上买尿布会顺手捎几瓶啤酒回家。一条关联规则。挖掘出这样的规则可以有很多用处例如商家可以考虑把尿布展柜和啤酒展柜放到一起以促进销售。实际上在面对少量数据时关联分析并不难可以直接使用统计学中有关相关性的知识这也正是机器学习界没有研究关联分析的一个重要原因。关联分析的困难其实完全是由海量数据造成的因为数据量的增加会直接造成挖掘效率的下降当数据量增加到一定程度问题的难度就会产生质变例如在关联分析中必须考虑因数据太大而无法承受多次扫描数据库的开销、可能产生在存储和计算上都无法接受的大量中间结果等而关联分析技术正是围绕着“提高效率”这条主线发展起来的。在RAgrawal等人首先对关联规则挖掘进行研究之后大批学者投身到这方面的研究中并产生了很多成果代表性工作有RAgrawal和RSrikant的Apriori算法以及JHan等人的FPGrowth算法等有兴趣的读者可以参考一些相关书籍。坐看云起机器学习和数据挖掘在过去年经历了飞速发展目前已经成为子领域众多、内涵非常丰富的学科领域。“更多、更好地解决实际问题”成为机器学习和数据挖掘发展的驱动力。事实上过去若干年中出现的很多新的研究方向例如半监督学习、代价敏感学习、流数据挖掘、社会网络分析等都起源于实际应用中抽象出来的问题而机器学习和数据挖掘领域的研究进展也很快就在众多应用领域中发挥作用。值得指出的是在计算机科学的很多领域中成功的标志往往是产生了某种看得见、摸得着的系统而机器学习和数据挖掘则恰恰相反它们正在逐渐成为基础性、透明化、无处不在的支持技术、服务技术在它们真正成功的时候可能人们已经感受不到它们的存在人们感受到的只是更健壮的防火墙、更灵活的机器人、更安全的自动汽车、更好用的搜索引擎……由于机器学习和数据挖掘技术的重要性各国都对这方面的研究非常关注。例如美国计算机科学研究的重镇卡内基梅隆大学年宣布成立“机器学习系”。而美国DARPA从年开始启动年期的PAL(PerceptiveAssistantthatLearns)计划首期年投资即达千百万美元总投资超过亿美元。从名字就可以看出这是一个以机器学习为核心的计划。具体来说该计划包含两个子计划一个称为RADAR由卡内基梅隆大学单独承担其目标为研制出一种软件它“通过与其人类主人的交互并且通过接收明晰的建议和指令来学习”、“将帮助繁忙的管理人员处理耗时的任务”。另一个子计划称为CALO牵头单位为斯坦福国际研究院参加单位包括麻省理工学院、斯坦福大学、卡内基梅隆大学、加州大学伯克利分校、华盛顿大学、密歇根大学、德克萨斯大学奥斯汀分校、波音公司等家单位首期投资即达千百万美元。显然CALO是整个PAL计划的核心因为其参加单位不仅包含了美国在计算机科学和人工智能方面具有强大力量的主要高校以及波音公司这样的企业界巨头其经费还占据了PAL计划整个首期投资的。DARPA没有明确公布CALO的目标但从其描述可见端倪:“CALO软件将通过与为其提供指令的用户一起工作来进行学习……它将能够处理常规任务还能够在突发事件发生时提供协助”考虑到之后美国对突发事件处理能力的重视以及波音公司对该计划的参与该计划的(部分)成果很可能会用于反恐任务。DARPA还说“CALO的名字源于拉丁文calonis含义是‘战士的助手’”而且DARPA曾在网站上放置了这样一幅军官与虚拟参谋人员讨论战局的画面可以预料该计划的(部分)成果会直接用于军方。从上述情况来看美国已经把对机器学习的研究上升到国家安全的角度来考虑。如果要列出目前计算机科学中最活跃的研究分支那么机器学习和数据挖掘必然位列其中。随着机器学习和数据挖掘技术被应用到越来越多的领域可以预见机器学习和数据挖掘不仅将为研究者提供越来越大的研究空间还将给应用者带来越来越多的回报。对发展如此迅速的机器学习和数据挖掘领域要概述其研究进展或发展动向是相当困难的感兴趣的读者不妨参考近年来机器学习和数据挖掘方面一些重要会议和期刊发表的论文。在机器学习方面最重要的学术会议是NIPS、ICML、ECML和COLT最重要的学术期刊是《MachineLearning》和《JournalofMachineLearningResearch》在数据挖掘方面最重要的学术会议是SIGKDD、ICDM、SDM、PKDD和PAKDD最重要的学术期刊是《DataMiningandKnowledgeDiscovery》和《IEEETransactionsonKnowledgeandDataEngineering》。此外人工智能领域的顶级会议如IJCAI和AAAI、数据库领域的顶级会议如SIGMOD、VLDB、ICDE以及一些顶级期刊如《ArtificialIntelligence》、《JournalofArtificialIntelligenceResearch》、《IEEETransactionsonPatternAnalysisandMachineIntelligence》、《NeuralComputation》等也经常发表机器学习和数据挖掘方面的论文。参考文献TMMitchellMachineLearning,NewYork:McGrawHill,UFayyad,GPiatetskyShapiro,RSmythKnowledgediscoveryanddatamining:TowardsaunifyingframeworkIn:ProcKDD’,Portland,OR,EMjolsness,DDeCosteMachinelearningforscience:StateoftheartandfutureprospectsScience,,():RSMichalski,JGCarbonell,TMMitchell,edsMachineLearning:AnArtificialIntelligenceApproach,PaloAlto,CA:TiogaPublishingCo,JGCarbonell,edMachineLearning:ParadigmsandMethods,Cambridge,MA:MITPress,PRCohen,EAFeigenbaum,edsTheHandbookofArtificialIntelligence,vol,NewYork:WilliamKaufmann,SHMuggleton,edInductiveLogicProgramming,London:AcademicPress,DERumelhart,JLMcClelland,edsParallelDistributedProcessing:ExplorationsintheMicrostructureofCognition,Cambridge,MA:MITPress,VNVapnik,StatisticalLearningTheory,NewYork:Wiley,TGDietterichMachinelearningresearch:FourcurrentdirectionsAIMagazine,,():JHan,MKamber,DataMining:ConceptsandTechniques,ndedition,Singapore:Elsevier,ZHZhouThreeperspectivesofdataminingArtificialIntelligence,,():PNTan,MSteinbach,VKumar,IntroductiontoDataMining,Reading,MA:AddisonWesley,DARPANewsReleaseDARPA,JulCALOOverviewDARPA,作者介绍:周志华南京大学计算机科学与技术系教授博士生导师教育部长江学者特聘教授。年于南京大学计算机科学与技术系获博士学位。中国计算机学会人工智能与模式识别专业委员会副主任。主要研究领域为人工智能机器学习数据挖掘等。

热点搜索换一换

用户评论(0)

0/200

精彩专题

上传我的资料

每篇奖励 +2积分

资料评价:

/10
1下载券 下载 加入VIP, 送下载券

意见
反馈

立即扫码关注

爱问共享资料微信公众号

返回
顶部