人工智能复习大纲课件

上传人:痛*** 文档编号:241035022 上传时间:2024-05-26 格式:PPTX 页数:59 大小:11.71MB
返回 下载 相关 举报
人工智能复习大纲课件_第1页
第1页 / 共59页
人工智能复习大纲课件_第2页
第2页 / 共59页
人工智能复习大纲课件_第3页
第3页 / 共59页
点击查看更多>>
资源描述
人工智能复习大纲人工智能复习大纲马少平,朱小燕编著马少平,朱小燕编著课程简介课程简介通过人工智能课程的学习,了解人工智能通过人工智能课程的学习,了解人工智能的发展概况、人工智能与人类智能之间的的发展概况、人工智能与人类智能之间的联系、人工智能的应用领域、机器学习、联系、人工智能的应用领域、机器学习、神经计算、遗传算法、专家系统等基本概神经计算、遗传算法、专家系统等基本概念,掌握知识表示方式和推理、搜索推理、念,掌握知识表示方式和推理、搜索推理、消解原理等人工智能原理的基本理论、方消解原理等人工智能原理的基本理论、方法及其应用技术,注重培养综合运用人工法及其应用技术,注重培养综合运用人工智能原理的知识解决问题的能力。智能原理的知识解决问题的能力。课程重点章节介绍课程重点章节介绍本教材共分本教材共分7章,其中第章,其中第0.1,0.4,0.6,1.21.4,第,第2章,章,3.2,3.3,4.14.4,6.1,6.36.5,7.4为重点章节。为重点章节。本课程重点和难点内容简介本课程重点和难点内容简介第第0章章人工智能的定义,人工智能三种主要学派人工智能的定义,人工智能三种主要学派及其主要观点,人工智能的应用领域及其主要观点,人工智能的应用领域人工智能的定义人工智能的定义定义定义1智能思考机器智能思考机器能够像人一样进行一些与心智能力相关的思能够像人一样进行一些与心智能力相关的思维活动。维活动。定义定义2智能行动机器智能行动机器能够像人一样执行某些需要智能才能完成的能够像人一样执行某些需要智能才能完成的功能。功能。目前人工智能的主要学派目前人工智能的主要学派符号主义符号主义认为人工智能源于数理逻辑。认为人工智能源于数理逻辑。连接主义连接主义认为人工智能源于仿生学,特别是人脑模型的研认为人工智能源于仿生学,特别是人脑模型的研究。究。行为主义行为主义认为人工智能源于控制论。认为人工智能源于控制论。第第1章章搜索问题搜索问题图搜索的一般技术图搜索的一般技术回溯策略;无信息图搜索技术,包括深回溯策略;无信息图搜索技术,包括深度优先、宽度优先搜索;启发式图搜索技度优先、宽度优先搜索;启发式图搜索技术,包括爬山法、分支界限法、动态规划术,包括爬山法、分支界限法、动态规划法法(均一代价法均一代价法)、最佳优先搜索、最佳优先搜索、A*算法算法等的计算。等的计算。图搜索的一般过程图搜索的一般过程开始开始把把S S放入放入OPENOPEN表表OPENOPEN表为空表?表为空表?把第一个节点把第一个节点(n)(n)从从OPENOPEN表移至表移至CLOSEDCLOSED表表n n为目标节点吗?为目标节点吗?把把n n的后继节点放入的后继节点放入OPENOPEN表的末表的末端,提供返回节点端,提供返回节点n n的指针的指针修改指针方向修改指针方向重排重排OPENOPEN表表失败失败成功成功是是是是否否否否图搜索技术的分类图搜索技术的分类按照在搜索过程中,是否使用了中间结按照在搜索过程中,是否使用了中间结果给出的提示信息,可将搜索策略分为果给出的提示信息,可将搜索策略分为盲目搜索盲目搜索(未使用启发性信息未使用启发性信息),和,和启发启发式搜索式搜索(使用了启发信息使用了启发信息)两大类。两大类。盲目搜索盲目搜索搜索过程无须对搜索过程无须对OPEN表进行重排,如:表进行重排,如:宽度优先搜索、深度优先搜索。宽度优先搜索、深度优先搜索。深度优先搜索深度优先搜索深度优先搜索优先扩展新产生的节点,如深度优先搜索优先扩展新产生的节点,如示意图示意图。宽度优先搜索宽度优先搜索宽度优先搜索逐层进行,如示意图。宽度优先搜索逐层进行,如示意图。宽度优先搜索与深度优先搜宽度优先搜索与深度优先搜索的主要区别索的主要区别每次新生成节点时,宽度优先搜索总是将每次新生成节点时,宽度优先搜索总是将其插入其插入OPEN表的末尾,而深度优先搜索总表的末尾,而深度优先搜索总是将其插入到是将其插入到OPEN表的前头。表的前头。宽度优先搜索与深度优先搜宽度优先搜索与深度优先搜索的其他区别索的其他区别:只要问题有解,宽度优先搜索总是能找到,只要问题有解,宽度优先搜索总是能找到,并且找到的总是搜索路径最短的解;而深并且找到的总是搜索路径最短的解;而深度优先搜索却因为可能陷入一条度优先搜索却因为可能陷入一条“花园小花园小径径”,不一定能够找到解,并且找到的解,不一定能够找到解,并且找到的解也不一定是搜索路径最短的解。也不一定是搜索路径最短的解。启发式图搜索启发式图搜索搜索过程需要对搜索过程需要对OPEN表重排,如:爬山法、表重排,如:爬山法、分支界限法、动态规划法分支界限法、动态规划法(均一代价法均一代价法)、最佳优先搜索法、最佳优先搜索法、A*算法等。算法等。爬山法爬山法爬山法是一种局部搜索方法,模仿瞎子爬山的过爬山法是一种局部搜索方法,模仿瞎子爬山的过程:从立足处用明杖向前一试,觉得高些,就向程:从立足处用明杖向前一试,觉得高些,就向前一步,如果前面不高,向左一试,高就向左一前一步,如果前面不高,向左一试,高就向左一步,不高再试后面,高就退一步,不高再试右面,步,不高再试后面,高就退一步,不高再试右面,高就向右走一步,四面都不高,就原地不动高就向右走一步,四面都不高,就原地不动.总之,总之,高了就走一步,就这样一步一步地走,就走上了高了就走一步,就这样一步一步地走,就走上了山顶。山顶。这个向各方向的测试这个向各方向的测试“步步”,就是,就是“爬山法爬山法”的估价函数的估价函数h(n)。登山法算法步骤:登山法算法步骤:设定初始节点设定初始节点n n;如果如果n n是目标,则成功退出;是目标,则成功退出;扩展扩展n n,得到其子节点集合;,得到其子节点集合;从该集合中选取从该集合中选取h(n)h(n)为最小的节点为最小的节点nn;将将nn设为设为n n,返回第,返回第步。步。分支界限法分支界限法分支界限法则以宽度优先或以最小耗费优分支界限法则以宽度优先或以最小耗费优先的方式,搜索满足约束条件的一个解,先的方式,搜索满足约束条件的一个解,或是在满足约束条件的解中找出在某种意或是在满足约束条件的解中找出在某种意义下的最优解。义下的最优解。缺点:要存储很多分支结点的界限和对应缺点:要存储很多分支结点的界限和对应的耗费矩阵,花费很多内存空间。的耗费矩阵,花费很多内存空间。具有动态规划原理的分支界限法具有动态规划原理的分支界限法具有动态规划原理的分支界限法,根据分具有动态规划原理的分支界限法,根据分支界限法得出的各种可能的局部解,根据支界限法得出的各种可能的局部解,根据最小耗散值原则,舍弃那些肯定不能得到最小耗散值原则,舍弃那些肯定不能得到最优解的局部解,在每一步都经过筛选,最优解的局部解,在每一步都经过筛选,以每一步都是最优解来保证全局是最优解。以每一步都是最优解来保证全局是最优解。这种方法,也可称为均一代价法或等代价这种方法,也可称为均一代价法或等代价法。法。耗散值的概念及应用耗散值的概念及应用搜索图中,在任意两节点弧线间移动付出搜索图中,在任意两节点弧线间移动付出的代价,叫弧线耗散值。的代价,叫弧线耗散值。而一条路径的耗散值等于,连接这条路径而一条路径的耗散值等于,连接这条路径各节点间所有弧线耗散值的总和。各节点间所有弧线耗散值的总和。分支界限法、动态规划法(均一代价法、分支界限法、动态规划法(均一代价法、等代价搜索法)中,均采用路径耗散值作等代价搜索法)中,均采用路径耗散值作为评价函数,即每次扩展优先选择具有最为评价函数,即每次扩展优先选择具有最小路径耗散值的节点进行,记做小路径耗散值的节点进行,记做f(n)=g*(n)。最佳优先搜索算法最佳优先搜索算法是是“爬山法爬山法”的推广,但它是对的推广,但它是对OPENOPEN表中表中所有节点的所有节点的h(n)h(n)进行比较,按从小到大的进行比较,按从小到大的顺序重排顺序重排OPENOPEN表,因此是一种全局寻优法。表,因此是一种全局寻优法。其算法效率类似于深度优先搜索算法,但其算法效率类似于深度优先搜索算法,但使用了当前节点与目标的估测距离使用了当前节点与目标的估测距离h(n)h(n)函函数,来确定下一步待扩展的节点,因此是数,来确定下一步待扩展的节点,因此是一种启发式搜索方法。一种启发式搜索方法。A算法算法最佳优先算法有时无法得到最优解,因为最佳优先算法有时无法得到最优解,因为它的估价函数它的估价函数f f的选取时,忽略了从初始节的选取时,忽略了从初始节点到目前节点的代价值。所以,可考虑每点到目前节点的代价值。所以,可考虑每个节点个节点n n的估价函数的估价函数f(n)f(n)分为两个分量:从分为两个分量:从起始节点到节点起始节点到节点n n的代价的代价g(n)g(n)以及从节点以及从节点n n到达目标节点代价的估算值到达目标节点代价的估算值h(n)h(n)。f(n)=g(n)+h(n)f(n)=g(n)+h(n)f(n)f(n)节点节点n n的估价函数;的估价函数;g(n)g(n)从初始节点从初始节点S S到到n n节点的实际代价;节点的实际代价;h(n)h(n)从从n n到目标节点到目标节点S Sg g最佳路径的估计代价。最佳路径的估计代价。这里这里h(n)h(n)体现了搜索的启发信息,因为体现了搜索的启发信息,因为g(n)g(n)是已是已知的。如果说详细点,知的。如果说详细点,g(n)g(n)代表了搜索的宽度优代表了搜索的宽度优先趋势。但是当先趋势。但是当h(n)h(n)g(n)g(n)时,可以省略时,可以省略g(n),g(n),而提高效率。而提高效率。A A算法的引入:算法的引入:g(n)g(n)的计算方法:的计算方法:g(n)g(n)就就是是在在搜搜索索树树中中从从S S到到n n这这段段路路径径的的代代价价,这这一一代代价价可可以以由由从从n n到到S S寻寻找找指指针针时时,把把所所遇遇到到的的各各段段弧弧线线的的代代价价加加起起来来给给出出(这这条条路路径径就就是是到到目目前前为为止止用用搜搜索索算法找到的从算法找到的从S S到到n n的最小代价路径的最小代价路径)。h(n)h(n)的计算方法:的计算方法:h(n)h(n)依依赖赖于于有有关关问问题题的的领领域域的的启启发发信信息息。这这种种信信息息与与当当前前节节点点到到目目标标的的差差距距有有关关,h(n)h(n)叫做启发函数。叫做启发函数。A A*算法的定义:算法的定义:在图搜索的过程中,如果重排在图搜索的过程中,如果重排OPENOPEN表是依表是依据据f f*(n)=g(n)=g*(n)+h(n)+h*(n)(n)进行的,则称该过程进行的,则称该过程为为A A*算法。算法。其中,其中,g g*(n)(n)实际代价函数实际代价函数g(n)g(n)的最优值,的最优值,即即g*(n)g*(n)g(n)g(n)。对右图所示的状态空对右图所示的状态空间图进行:间图进行:1)1)深度优先搜索深度优先搜索;2)2)宽度优先搜索;宽度优先搜索;3)3)均一均一(等等)代价搜索;代价搜索;4)4)最佳优先搜索;最佳优先搜索;5)A5)A*搜索。搜索。其中其中A A为起始节点,为起始节点,E E为目标节点,各节点为目标节点,各节点的启发值表示在括号的启发值表示在括号内。内。FGHECADB42348243385(15)(14)(10)(2)(11)(9)(5)(0)1)1)深度优先搜索算法深度优先搜索算法FGHEAB1234CD搜索出的路径为:搜索出的路径为:ABCDE5OPEN:B,HCLOSED:AOPEN:C,HCLOSED:A,BOPEN:D,G,HCLOSED:A,B,COPEN:E,F,G,HCLOSED:A,B,C,DOPEN:F,G,HCLOSED:A,B,C,D2)2)宽度优先搜索算法宽度优先搜索算法FGHEAB1234CD567搜索到的路径为:搜索到的路径为:ABC DE8OPEN:B,HCLOSED:AOPEN:H,CCLOSED:A,BOPEN:C,GCLOSED:A,B,HOPEN:G,DCLOSED:A,B,H,COPEN:D,FCLOSED:A,B,H,C,GOPEN:F,ECLOSED:A,B,H,C,G,DOPEN:ECLOSED:A,B,H,C,G,D,FOPEN:CLOSED:A,B,H,C,G,D,F3)3)均一均一(等等)代价搜索算法代价搜索算法FGHEA B1234CD567搜索出的路径为:搜索出的路径为:AHGFDE,整条路径的代价和为,整条路径的代价和为15。8OPEN:B(3),H(4)CLOSED:A(0)OPEN:H(4),C(7)CLOSED:A(0),B(3)OPEN:G(6),C(7)CLOSED:A(0),B(3),H(4)OPEN:C(7),F(10),D(14)CLOSED:A(0),B(3),H(4),G(6)OPEN:F(10),D(14)CLOSED:A(0),B(3),H(4),G(6),C(7)OPEN:D(1413)CLOSED:A(0),B(3),H(4),G(6),C(7),F(10)OPEN:E(15)CLOSED:A(0),B(3),H(4),G(6),C(7),F(10),D(1413)OPEN:CLOSED:A(0),B(3),H(4),G(6),C(7),F(10),D(13)4)4)最佳优先搜索算法最佳优先搜索算法FGHEAB1234CD搜索出的路径为:搜索出的路径为:AHGDE,整条路径的代价和为,整条路径的代价和为16。OPEN:H(11),B(14)CLOSED:A(15)OPEN:G(9),B(14)CLOSED:A(15),H(11)OPEN:D(2),F(5),C(10),B(14)CLOSED:A(15),H(11),G(9)OPEN:E(0),F(5),C(10),B(14)CLOSED:A(15),H(11),G(9),D(2)5OPEN:F(5),C(10),B(14)CLOSED:A(15),H(11),G(9),D(2)5)A5)A*算法算法FGHEAB1234CD5搜索出的路径为:搜索出的路径为:AHGDE,整条路径的代价和为,整条路径的代价和为15。6OPEN:H(15),B(17)CLOSED:A(15)OPEN:G(15),B(17)CLOSED:A(15),H(15)OPEN:F(15),D(16),B(17),C(19)CLOSED:A(15),H(15),G(15)OPEN:D(1615),B(17),C(19)CLOSED:A(15),H(15),G(15),F(15)OPEN:E(15),B(17),C(19)CLOSED:A(15),H(15),G(15),F(15),D(1615)OPEN:B(17),C(19)CLOSED:A(15),H(15),G(15),F(15),D(1615)第第2章章与或图搜索问题与或图搜索问题与或图的定义,与或图的定义,k-连接符的表示方法,与或连接符的表示方法,与或图解图的耗散值计算方法,能解和不能解图解图的耗散值计算方法,能解和不能解节点的定义,与或图的启发式搜索算法节点的定义,与或图的启发式搜索算法AO*的应用等;的应用等;博弈树的极大极小搜索过程,博弈树的极大极小搜索过程,、参数的参数的定义,定义,-剪枝法的定义及应用。剪枝法的定义及应用。与或图表示的问题与或图表示的问题在用某一中方法求解问题时,可能需要求在用某一中方法求解问题时,可能需要求解几个子问题,这些子问题必须全部求解,解几个子问题,这些子问题必须全部求解,才能用该方法求解原始问题。这些才能用该方法求解原始问题。这些“子子”问题间的关系,就是问题间的关系,就是“与与”的关系,此类的关系,此类问题可用与或图来表示。问题可用与或图来表示。目标目标初始节点sabck-连接符的定义连接符的定义.K个解图耗散值的计算解图耗散值的计算k(n,N)=Cn+k(n1,N)+k(ni,N)其中:其中:N为终节点集;为终节点集;Cn为连接符的耗散值,在单连接符为单位耗为连接符的耗散值,在单连接符为单位耗散的情况下,散的情况下,k-连接符的耗散值为连接符的耗散值为k;n1,ni为节点为节点n的子节点,的子节点,k(ni,N)表表示子节点示子节点ni的耗散值,可用启发值的耗散值,可用启发值h(ni)代替。代替。能解节点能解节点终节点是能解节点终节点是能解节点若非终节点有若非终节点有“或或”子节点时,当且仅当子节点时,当且仅当其子节点至少有一能解时,该非终节点才其子节点至少有一能解时,该非终节点才能解。能解。若非终节点有若非终节点有“与与”子节点时,当且仅当子节点时,当且仅当其子节点均能解时,该非终节点才能解。其子节点均能解时,该非终节点才能解。不能解节点不能解节点没有后裔的非终节点是不能解节点。没有后裔的非终节点是不能解节点。若非终节点有若非终节点有“或或”子节点,当且仅当所子节点,当且仅当所有子节点均不能解时,该非终节点才不能有子节点均不能解时,该非终节点才不能解。解。若非终节点有若非终节点有“与与”子节点时,当至少有子节点时,当至少有一个子节点不能解时,该非终节点才不能一个子节点不能解时,该非终节点才不能解。解。AO*算法算法评估函数采用解图的耗散值评估函数采用解图的耗散值k(n,N),即每,即每次扩展选择解图耗散值最小的节点进行。次扩展选择解图耗散值最小的节点进行。搜索的两个过程:搜索的两个过程:图生成过程,即扩展节点图生成过程,即扩展节点从最优的局部图中选择一个节点扩展从最优的局部图中选择一个节点扩展计算耗散值的过程计算耗散值的过程对当前的局部图重新计算耗散值对当前的局部图重新计算耗散值AO*算法举例算法举例其中:其中:h(n0)=3 h(n1)=2 h(n2)=4 h(n3)=4 h(n4)=1 h(n5)=1 h(n6)=2 h(n7)=0 h(n8)=0设:设:k连接符连接符的耗散值为的耗散值为k目标目标目标目标初始节点初始节点n0n1n2n3n4n5n6n7n8目标目标目标目标初始节点初始节点n0n1n2n3n4n5n6n7n8初始节点初始节点n0n1(2)n4(1)n5(1)红色:红色:4黄色:黄色:3目标目标目标目标初始节点初始节点n0n1n2n3n4n5n6n7n8初始节点初始节点n0n4(1)n5(1)红色:红色:4黄色:黄色:6n1n2(4)n3(4)5目标目标目标目标初始节点初始节点n0n1n2n3n4n5n6n7n8红色:红色:5黄色:黄色:6初始节点初始节点n0n4(1)n5(1)n1n2(4)n3(4)5n6(2)n7(0)n8(0)2目标目标目标目标初始节点初始节点n0n1n2n3n4n5n6n7n8红色:红色:5黄色:黄色:6初始节点初始节点n0n4(1)n5(1)n1n2(4)n3(4)5n6(2)n7(0)n8(0)21极小极大搜索过程极小极大搜索过程模拟人类下棋的方法,尤其是初学者,走模拟人类下棋的方法,尤其是初学者,走一步,看看对方的反应,思考应对的方法一步,看看对方的反应,思考应对的方法再走一步,再走一步,。所谓高手,就是能对几。所谓高手,就是能对几个,甚至几十个棋步后,有较准确的局面个,甚至几十个棋步后,有较准确的局面预测。预测。对目前的局部解图进行评价,选择评价值对目前的局部解图进行评价,选择评价值最好的子节点最好的子节点(对对Max节点节点),或评价值最,或评价值最差的子节点差的子节点(对对Min节点节点),作为下一步的走,作为下一步的走法,即选择棋步的极大极小法。法,即选择棋步的极大极小法。极大极小法的评估函数极大极小法的评估函数评估函数:以我方为标准设定。例如,在评估函数:以我方为标准设定。例如,在一字棋的情况下,一字棋的情况下,Max方赢的评估值设为方赢的评估值设为+,Max方输的评估值设为方输的评估值设为-,平局的评,平局的评估值设为估值设为0,此外根据与,此外根据与Max方赢局相关的方赢局相关的棋子数目,可以设为棋子数目,可以设为1,2,3,。极小极大过程极小极大过程05-333-3022-30-23541-30689-30-33-3-3-21-36-30316011极大极大极小极小ab-剪枝法的剪枝法的引入引入在极小极大法中,必须求出所有终端节点在极小极大法中,必须求出所有终端节点的评估值,当预先考虑的棋步比较多时,的评估值,当预先考虑的棋步比较多时,计算量会大大增加。为了提高搜索的效率,计算量会大大增加。为了提高搜索的效率,引入了通过对评估值的上下限进行估计,引入了通过对评估值的上下限进行估计,从而减少需进行评估的节点范围的从而减少需进行评估的节点范围的-剪枝剪枝法。法。MAX节点的评估下限值节点的评估下限值 作为正方出现的作为正方出现的MAX节点,取它的第一个节点,取它的第一个MIN子节点的评估值子节点的评估值。当有其它子节点的。当有其它子节点的评估值超过评估值超过,则该,则该MAX节点会取新值作为节点会取新值作为自己的评估值;如果没有,则该自己的评估值;如果没有,则该MAX节点节点的评估值就是的评估值就是。总之,该总之,该MAX节点的评估值不会低于节点的评估值不会低于,这个,这个 就称为该就称为该MAX节点的评估下限值。节点的评估下限值。MIN节点的评估上限值节点的评估上限值 作为作为反方反方出现的出现的MIN节点,取它的第一个节点,取它的第一个MAX子节点的评估值子节点的评估值。当有其它子节点。当有其它子节点的评估值低于的评估值低于,则该,则该MIN节点会取新值节点会取新值作为自己的评估值;如果没有,则该作为自己的评估值;如果没有,则该MIN节点的评估值就是节点的评估值就是。总之,该总之,该MIN节点的评估值不会高过节点的评估值不会高过,这个,这个 就称为该就称为该MIN节点的评估上限节点的评估上限值。值。-剪枝剪枝极大节点的下界为极大节点的下界为。极小节点的上界为极小节点的上界为。剪枝的条件:剪枝的条件:后辈节点的后辈节点的 值值祖先节点的祖先节点的 值时,值时,剪枝剪枝后辈节点的后辈节点的 值值祖先节点的祖先节点的 值时,值时,剪枝剪枝简记为:简记为:极小极小极大,极大,剪枝剪枝极大极大极小,极小,剪枝剪枝86-31453-350-剪枝(续)剪枝(续)3-3022-30-2309-300-303305411-31661abcdefghijkmn 0=0 03 剪枝剪枝=0 0=3 3 剪枝剪枝=0=0 0 5=2 2 5=5=2=2 2 剪枝剪枝=0 0 5=1 13 剪枝剪枝=1=1 15=5=55 剪枝剪枝=1 1=2=2=2=2=1 1=3 33 剪枝剪枝=3=3 31=220 0=0=0=0=3 3 4=4=4=4 4 剪枝剪枝1=1=113=33=2=2=2=2=2=1第第3章章谓词逻辑与归结原理谓词逻辑与归结原理谓词基本概念,包括一阶谓词公式中的各谓词基本概念,包括一阶谓词公式中的各参数、辖域、约束等概念的含义;谓词公参数、辖域、约束等概念的含义;谓词公式化式化skolem子句集,置换与合一的实现,子句集,置换与合一的实现,消解反演的证明及计算;消解反演的证明及计算;H域及原子集的域及原子集的定义,定义,Herbrand封闭语义树的构造及封闭语义树的构造及Herbrand定理。定理。第第4章章知识表示知识表示三种主要知识表示方法(产生式表示、三种主要知识表示方法(产生式表示、语义网络和框架表示方法)。语义网络和框架表示方法)。第第5章章不确定性推理方法不确定性推理方法知识的不确定性表示方法的定义,包括证知识的不确定性表示方法的定义,包括证据、规则、推理结论的不确定性等的含义;据、规则、推理结论的不确定性等的含义;不确定性推理方法的分类。不确定性推理方法的分类。第第6章章机器学习机器学习机器学习的基本概念,包括其定义、任务,机器学习的基本概念,包括其定义、任务,研究意义以及分类方法等;基于实例的归研究意义以及分类方法等;基于实例的归纳学习方法,包括纳学习方法,包括Winston拱,变形空间法拱,变形空间法等;解释学习的基本步骤及与归纳学习的等;解释学习的基本步骤及与归纳学习的比较;决策树学习的应用及计算;神经网比较;决策树学习的应用及计算;神经网络的数学模型及分类,单层感知机的学习络的数学模型及分类,单层感知机的学习算法等。算法等。结束语当你尽了自己的最大努力时,失败也是伟大的,所以不要放弃,坚持就是正确的。When You Do Your Best,Failure Is Great,So DonT Give Up,Stick To The End感谢聆听不足之处请大家批评指导Please Criticize And Guide The Shortcomings演讲人:XXXXXX 时 间:XX年XX月XX日
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 管理文书 > 施工组织


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!