湘潭大学 人工智能课件 机器学习

上传人:y****3 文档编号:22007402 上传时间:2021-05-17 格式:PPT 页数:75 大小:2.69MB
返回 下载 相关 举报
湘潭大学 人工智能课件 机器学习_第1页
第1页 / 共75页
湘潭大学 人工智能课件 机器学习_第2页
第2页 / 共75页
湘潭大学 人工智能课件 机器学习_第3页
第3页 / 共75页
点击查看更多>>
资源描述
Artificial Intelligence (AI)人工智能第七章:机器学习 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 阿 法 狗 通 过 神 经 网 络 学 习 所 有 高 水 平 围棋 棋 谱 , 大 概 是 历 史 上 有 的 20万 个 左 右 职 业 棋谱 , 从 而 获 得 了 在 盘 面 上 如 何 落 子 的 直 觉 。 类 似 的 深 度 学 习 是 在 近 几 年 出 现 的 ,目 前 , 这 项 科 技 也 有 了 一 些 应 用 , 最 简 单 的例 子 就 是 通 过 深 度 学 习 识 别 猫 。 通 过 这 项 识别 验 证 , 已 经 引 申 出 了 更 多 具 有 实 际 意 义 的应 用 , 比 如 识 别 某 一 个 图 片 中 是 否 有 癌 细 胞, 某 一 个 铁 路 沿 线 上 的 轨 道 是 否 存 在 磨 损 ,甚 至 军 事 作 战 中 , 对 方 的 视 线 中 是 否 有 坦 克, 都 可 以 通 过 深 度 学 习 实 现 。 谷 歌 的 自 动 驾驶 , 其 中 很 重 要 的 就 是 识 别 道 路 、 交 通 信 号灯 、 路 标 等 , 这 都 是 通 过 深 度 学 习 获 得 。 阿 法 狗 走 的 是 通 用 学 习 的 道 路 。 它 的 估 值 函 数, 不 是 专 家 攻 关 捣 哧 出 来 的 。 它 的 作 者 只 是 搭 了 一个 基 本 的 框 架 ( 一 个 多 层 的 神 经 网 络 ) , 除 了 围 棋最 基 本 的 规 则 外 , 没 有 任 何 先 验 知 识 。 你 可 以 把 它想 象 成 一 个 新 生 儿 的 大 脑 , 一 张 白 纸 。 然 后 , 直 接用 人 类 高 手 对 局 的 3000万 个 局 面 训 练 它 , 自 动 调节 它 的 神 经 网 络 参 数 , 让 它 的 行 为 和 人 类 高 手 接 近。 这 样 , 阿 法 狗 就 具 有 了 基 本 的 棋 感 , 看 到 一 个 局面 大 致 就 能 知 道 好 还 是 不 好 。 阿 法 狗 的 核 心 技 术 还 包 括 策 略 网 络 的 训 练 和蒙 特 卡 洛 树 搜 索 。 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 机 器 学 习 是 人 工 智 能 的 核 心 , 通 过 使 机 器模 拟 人 类 学 习 行 为 , 智 能 化 地 从 过 去 的 经 历 中获 得 经 验 , 从 而 改 善 其 整 体 性 能 , 重 组 内 在 知识 结 构 , 并 对 未 知 事 件 进 行 准 确 的 推 断 。 机 器学 习 在 科 学 和 工 程 诸 多 领 域 都 有 着 非 常 广 泛 的应 用 , 例 如 金 融 分 析 、 数 据 挖 掘 、 生 物 信 息 学、 医 学 诊 断 等 。 生 活 中 常 见 的 一 些 智 能 系 统 也广 泛 使 用 机 器 学 习 算 法 , 例 如 电 子 商 务 、 手 写输 入 、 邮 件 过 滤 等 。 人 类 的 未 来 生 活 和 工 作 , 还 将 有 机 器 人 参 与 。 机 器 人 的 自 主 学习 , 更 离 不 开 人 脸 识 别 技 术 。 2015年 3月 16日 , 马 云 在 德 国 参 加 活 动 时 , 为 嘉 宾 演 示 了 一项 “ Smile to Pay”的 扫 脸 技 术 。 在 网 购 后 的 支 付 认 证 阶 段 , 通过 扫 脸 取 代 传 统 的 密 码 , 实 现 “ 刷 脸 支 付 ” 。 机器学习的基本概念n 机 器 学 习 的 两 大 学 派 机 器 学 习 : 人 工 智 能 的 重 要 分 支p 构 造 具 有 学 习 能 力 的 智 能 系 统p 知 识 、 推 理 、 学 习 p 手 段 : 统 计 , 逻 辑 , 代 数 统 计 机 器 学 习p 从 大 量 样 本 出 发 , 运 用 统 计 方 法 , 发 现 统 计 规 律p 有 监 督 学 习 、 无 监 督 学 习 、 半 监 督 学 习p 问 题 : 分 类 , 聚 类 , 回 归 机器学习的基本概念n 机 器 学 习 的 定 义 西 蒙 ( Simon,1983) : 学 习 就 是 系 统 中 的 适 应 性变 化 , 这 种 变 化 使 系 统 在 重 复 同 样 工 作 或 类 似 工 作时 , 能 够 做 得 更 好 。 明 斯 基 ( Minsky,1985) : 学 习 是 在 人 们 头 脑 里( 心 理 内 部 ) 有 用 的 变 化 。 学 习 是 一 个 有 特 定 目 的 知 识 获 取 和 能 力 增 长 过 程 ,其 内 在 行 为 是 获 得 知 识 、 积 累 经 验 、 发 现 规 律 等 ,其 外 部 表 现 是 改 进 性 能 、 适 应 环 境 、 实 现 自 我 完 善等 。 机 器 学 习 是 研 究 如 何 使 用 机 器 来 模 拟 人 类 学 习 活 动的 一 门 学 科 。 机器学习的基本概念n 机 器 学 习 的 任 务 根 据 有 限 样 本 集 Q , 推 算 这 个 世 界 W 的 模型 , 使 得 其 对 这 个 世 界 为 真 。 机器学习的基本概念n 机 器 学 习 的 三 要 素 一 致 性 假 设 : 假 设 世 界 W与 样 本 集 Q具 有 某 种相 同 性 质 机 器 学 习 的 条 件 。 样 本 空 间 划 分 : 将 样 本 集 放 到 一 个 n维 空 间 , 寻找 一 个 决 策 面 (等 价 关 系 ), 使 得 问 题 决 定 的 不同 对 象 被 划 分 在 不 相 交 的 区 域 。 泛 化 能 力 : 从 有 限 样 本 集 合 中 获 得 的 规 律 是 否对 学 习 集 以 外 的 数 据 仍 然 有 效 。 泛 化 能 力 决 定模 型 对 世 界 的 有 效 性 。 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 机器学习策略与基本结构n 机 器 学 习 的 主 要 策 略 : 按 照 学 习 中 使 用 推 理 的多 少 , 机 器 学 习 所 采 用 的 策 略 大 体 上 可 分 为 4种 机 械 学 习 : 记 忆 学 习 方 法 , 即 把 新 的 知 识 存 储 起 来 ,供 需 要 时 检 索 调 用 , 而 不 需 要 计 算 和 推 理 。 示 教 学 习 : 外 界 输 入 知 识 与 内 部 知 识 的 表 达 不 完 全一 致 , 系 统 在 接 受 外 部 知 识 时 需 要 推 理 、 翻 译 和 转化 。 类 比 学 习 : 需 要 发 现 当 前 任 务 与 已 知 知 识 的 相 似 之处 , 通 过 类 比 给 出 完 成 当 前 任 务 的 方 案 。 示 例 学 习 : 需 要 从 一 组 正 例 和 反 例 中 分 析 和 总 结 出一 般 性 的 规 律 , 在 新 的 任 务 中 推 广 、 验 证 、 修 改 规律 。 机器学习策略与基本结构n 学 习 系 统 的 基 本 结 构n 影 响 学 习 系 统 设 计 的 要 素 环 境 : 环 境 向 系 统 提 供 信 息 的 水 平 ( 一 般 化 程 度 )和 质 量 ( 正 确 性 ) 知 识 库 : 表 达 能 力 , 易 于 推 理 , 容 易 修 改 , 知 识 表示 易 于 扩 展 。环 境 学 习 知 识 库 执 行 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 归纳学习n 归 纳 学 习 ( Induction Learning) 归 纳 学 习 是 应 用 归 纳 推 理 进 行 学 习 的 一 种 方 法 。 归 纳 学 习 的 模 式 : 解 释 过 程 实 例 空 间 规 则 空 间 规 划 过 程 实 验 规 划 过 程 通 过 对 实 例 空 间 的 搜 索 完 成 实 例 选 择 , 并 将 这 些 选 中拿 到 的 活 跃 实 例 提 交 给 解 释 过 程 。 解 释 过 程 对 实 例 加 以 适 当 转 换 , 把 活跃 实 例 变 换 为 规 则 空 间 中 的 特 定 概 念 , 以 引 导 规 则 空 间 的 搜 索 。 归纳学习n 归 纳 学 习 ( Induction Learning) 归 纳 学 习 是 目 前 研 究 得 最 多 的 学 习 方 法 , 其 学 习 目的 是 为 了 获 得 新 概 念 、 构 造 新 规 则 或 发 现 新 理 论 。 根 据 归 纳 学 习 有 无 教 师 指 导 , 可 把 它 分 为 p 示 例 学 习 : 给 学 习 者 提 供 某 一 概 念 的 一 组 正 例 和反 例 , 学 习 者 归 纳 出 一 个 总 的 概 念 描 述 ( 规 则 ) ,并 使 这 个 描 述 适 合 于 所 有 的 正 例 , 排 除 所 有 的 反例 。p 观 察 发 现 学 习 :p 概 念 聚 类 : 按 照 一 定 的 方 式 和 准 则 分 组 , 归 纳 概 念p 机 器 发 现 : 从 数 据 和 事 例 中 发 现 新 知 识 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 类比学习n 类 比 推 理 和 类 比 学 习 方 式 类 比 学 习 ( learning by analogy) 就 是 通 过 类 比 ,即 通 过 对 相 似 事 物 加 以 比 较 所 进 行 的 一 种 学 习 。 类 比 学 习 是 利 用 二 个 不 同 领 域 ( 源 域 、 目 标 域 ) 中的 知 识 相 似 性 , 可 以 通 过 类 比 , 从 源 域 的 知 识 ( 包括 相 似 的 特 征 和 其 它 性 质 ) 推 导 出 目 标 域 的 相 应 知识 , 从 而 实 现 学 习 。 例 如 :p 1. 一 个 从 未 开 过 truck的 司 机 , 只 要 他 有 开 car的 知 识 就 可完 成 开 truck的 任 务 。p 2. 若 把 某 个 人 比 喻 为 消 防 车 , 则 可 通 过 观 察 消 防 车 的 行 为 ,推 断 出 这 个 人 的 性 格 。 类比学习n 类 比 推 理 和 类 比 学 习 方 式 类 比 学 习 系 统 可 以 使 一 个 已 有 的 计 算 机 应 用系 统 转 变 为 适 应 于 新 的 领 域 , 来 完 成 原 先 没有 设 计 的 相 类 似 的 功 能 。 类 比 推 理 过 程 : p 回 忆 与 联 想 : 找 出 当 前 情 况 的 相 似 情 况p 选 择 : 选 择 最 相 似 的 情 况 及 相 关 知 识p 建 立 对 应 关 系 : 建 立 相 似 元 素 之 间 的 映 射p 转 换 : 求 解 问 题 或 产 生 新 的 知 识 类比学习n 类 比 学 习 研 究 类 型 问 题 求 解 型 的 类 比 学 习 : 求 解 一 个 新 问 题 时 ,先 回 忆 以 前 是 否 求 解 过 类 似 问 题 , 若 是 , 则以 此 为 依 据 求 解 新 问 题 。 预 测 推 理 型 的 类 比 学 习 p 传 统 的 类 比 法 : 用 来 推 断 一 个 不 完 全 确 定 的事 物 可 能 还 有 的 其 他 属 性p 因 果 关 系 型 : 已 知 因 果 关 系 S1:A-B, 如 果有 A A, 则 可 能 有 B满 足 A-B 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 解释学习n 解 释 学 习 (Explanation-based learning, EBL) 解 释 学 习 兴 起 于 20世 纪 80年 代 中 期 , 根 据 任 务所 在 领 域 知 识 和 正 在 学 习 的 概 念 知 识 , 对 当 前实 例 进 行 分 析 和 求 解 , 得 出 一 个 表 征 求 解 过 程的 因 果 解 释 树 , 以 获 取 新 的 知 识 。 例 如 : 学 生 根 据 教 师 提 供 的 目 标 概 念 、 该 概 念的 一 个 例 子 、 领 域 理 论 及 可 操 作 准 则 , 首 先 构造 一 个 解 释 来 说 明 为 什 么 该 例 子 满 足 目 标 概 念 ,然 后 将 解 释 推 广 为 目 标 概 念 的 一 个 满 足 可 操 作准 则 的 充 分 条 件 。 解释学习n 解 释 学 习 过 程 和 算 法 米 切 尔 提 出 了 一 个 解 释 学 习 的 统 一 算 法 EBG, 建 立了 基 于 解 释 的 概 括 过 程 , 并 用 知 识 的 逻 辑 表 示 和 演绎 推 理 进 行 问 题 求 解 。 其 一 般 性 描 述 为 : 给 定 : p 领 域 知 识 DTp 目 标 概 念 TCp 训 练 实 例 TEp 操 作 性 准 则 OC 找 出 : 满 足 OC的 关 于 TC的 充 分 条 件目 标 概 念 新 规 则操 作 准 则训 练 例 子 知 识 库 解释学习n EBG算 法 可 概 括 为 两 步 : 1.构 造 解 释 : 运 用 领 域 知 识 进 行 演 绎 , 证 明 提 供 给系 统 的 训 练 实 例 为 什 么 是 满 足 目 标 概 念 的 一 个 实 例 。 例 如 : p 设 要 学 习 的 目 标 概 念 是 “ 一 个 物 体 ( Obj1) 可以 安 全 地 放 置 在 另 一 个 物 体 ( Obj2) 上 ” , 即 : Safe-To-Stack(Obj1,obj2)p 领 域 知 识 是 把 一 个 物 体 放 置 在 另 一 个 物 体 上 面 的安 全 性 准 则 : 解释学习n EBG算 法 可 概 括 为 两 步 :p 领 域 知 识 :- Fragile (y) Safe-To-Stack (x ,y):如 果 y不 是 易 碎 的 , 则 x可 以 安 全 地 放 到 y的 上 面- Lighter (x, y) Safe-To-Stack (x ,y):如 果 x 比 y轻 , 则 x可 以安 全 地 放 到 y的 上 面 - Volume (p, v) Density (p, d) *(v, d, w) Weight (p, w):如 果 p的 体 积 是 v、 密 度 是 d、 v乘 以 d的 积 是 w, 则 p的 重 量是 w- Isa(p, table)Weight (p, 15) :若 p是 桌 子 , 则 p的 重 量 是 15 - Weight(p1,w1) Weight(p2,w2) Smaller(w1,w2)Lighter(p1,p2):如 果 p1的 重 量 是 w1、 p2的 重 量 是 w2、 w1比 w2小 , 则 p1比 p2轻 解释学习n EBG算 法 可 概 括 为 两 步 :p Safe-To-Stack(Obj1,obj2)解 释 结 构 :Safe-To-Stack(Obj1,obj2)Lighter(Obj1,obj2)Weight(Obj1,0.1) Weight(Obj2,15) Smaller(0.1,15)Isa(Obj2,table)Voume(Obj1,1) Density(Obj1,0.1) *(1,0.1,0.1) 解释学习n EBG算 法 可 概 括 为 两 步 : 2.获 取 一 般 性 的 知 识 :p 任 务 : 对 上 一 步 得 到 的 解 释 结 构 进 行 一 般 化 的 处理 , 从 而 得 到 关 于 目 标 概 念 的 一 般 性 知 识 。 p 方 法 : 将 常 量 换 成 变 量 , 并 把 某 些 不 重 要 的 信 息去 掉 , 只 保 留 求 解 问 题 必 须 的 关 键 信 息 。p 例 如 : Volume (O1, v1) Density (O1, d1) *(v1, d1, w1) Isa(O2,table) Smaller(w1,15) Safe-To-Stack(Obj1,obj2) 解释学习n EBG算 法 可 概 括 为 两 步 :p Safe-To-Stack(O1,O2)一 般 化 解 释 结 构Safe-To-Stack(O1,O2)Lighter(O1,O2)Weight(O1,w1) Weight(O2,15) Smaller(w1,15)Isa(O2,table)Voume(O1,v1) Density(O1,d1) *(v1,d1,w1)以 后 求 解 类 似 问 题 时 , 就 可 以 直 接利 用 这 个 知 识 进 行 求 解 , 提 到 了 系统 求 解 问 题 的 效 率 。 内容提要第 七 章 : 机 器 学 习 系 统1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.类 比 学 习5.解 释 学 习6.神 经 网 络 学 习8.其 他7.知 识 发 现 神经网络学习n 神 经 生 理 学 研 究 表 明 , 人 脑 的 神 经 元 既 是 学 习的 基 本 单 位 , 同 是 也 是 记 忆 的 基 本 单 位 。n 目 前 , 关 于 人 脑 学 习 和 记 忆 机 制 的 研 究 有 两 大学 派 : 化 学 学 派 : 认 为 人 脑 经 学 习 所 获 得 的 信 息 是 记 录 在某 些 生 物 大 分 子 之 上 的 。 例 如 , 蛋 白 质 、 核 糖 核 酸 、神 经 递 质 , 就 像 遗 传 信 息 是 记 录 在 DNA( 脱 氧 核 糖核 酸 ) 上 一 样 。 突 触 修 正 学 派 : 认 为 人 脑 学 习 所 获 得 的 信 息 是 分 布在 神 经 元 之 间 的 突 触 连 接 上 的 。 神经网络学习n 按 照 突 触 修 正 学 派 的 观 点 , 人 脑 的 学 习和 记 忆 过 程 实 际 上 是 一 个 在 训 练 中 完 成的 突 触 连 接 权 值 的 修 正 和 稳 定 过 程 。 其中 , 学 习 表 现 为 突 触 连 接 权 值 的 修 正 ,记 忆 则 表 现 为 突 触 连 接 权 值 的 稳 定 。n 突 触 修 正 假 说 已 成 为 人 工 神 经 网 络 学 习和 记 忆 机 制 研 究 的 心 理 学 基 础 , 与 此 对应 的 权 值 修 正 学 派 也 一 直 是 人 工 神 经 网络 研 究 的 主 流 学 派 。 n 突 触 修 正 学 派 认 为 , 人 工 神 经 网 络 的 学习 过 程 就 是 一 个 不 断 调 整 网 络 连 接 权 值的 过 程 。n 按 照 学 习 规 则 , 神 经 学 习 可 分 为 : Hebb学 习 、 纠 错 学 习 、 竞 争 学 习 及 随 机 学 习等 。 神经网络学习n Hebb学 习 Hebb学 习 的 基 本 思 想 : 如 果 神 经 网 络 中 某 一 神经 元 同 另 一 直 接 与 它 连 接 的 神 经 元 同 时 处 于兴 奋 状 态 , 那 么 这 两 个 神 经 元 之 间 的 连 接 强度 将 得 到 加 强 , 反 之 应 该 减 弱 。 Hebb学 习 对 连 接 权 值 的 调 整 可 表 示 为 :p wij (t+1)表 示 对 时 刻 t 的 权 值 修 正 一 次 后 所 得 到 的 新 的 权 值 ;p 取 正 值 , 称 为 学 习 因 子 , 它 取 决 于 每 次 权 值 的 修 正 量 ;p xi(t)、 xj(t)分 别 表 示 t 时 刻 第 i 个 和 第 j 个 神 经 元 的 状 态 。 )()()()1( txtxtwtw jiijij 神经网络学习n 纠 错 学 习 纠 错 学 习 的 基 本 思 想 : 利 用 神 经 网 络 的 期 望 输 出 与实 际 输 出 之 间 的 偏 差 作 为 连 接 权 值 调 整 的 参 考 , 并 最终 减 少 这 种 偏 差 。 纠 错 学 习 是 一 种 有 导 师 的 学 习 过 程 。 最 基 本 的 误 差 修 正 规 则 为 : 连 接 权 值 的 变 化 与 神 经元 希 望 输 出 和 实 际 输 出 之 差 成 正 比 。 其 联 结 权 值 的计 算 公 式 为 : p yj (t)为 神 经 元 j 的 实 际 输 出 ;p dj (t)为 神 经 元 j 的 希 望 输 出 ; )()()()()1( txtytdtwtw ijjijij 神经网络学习n 竞 争 学 习 基 本 思 想 : 网 络 中 某 一 组 神 经 元 相 互 竞 争 对 外 界 刺激 模 式 响 应 的 权 力 , 在 竞 争 中 获 胜 的 神 经 元 , 其 连接 权 会 向 着 对 这 一 刺 激 模 式 竞 争 更 为 有 利 的 方 向 发展 。n 随 机 学 习 基 本 思 想 : 结 合 随 机 过 程 、 概 率 和 能 量 ( 函 数 ) 等概 念 来 调 整 网 络 的 变 量 , 从 而 使 网 络 的 目 标 函 数 达到 最 大 ( 或 最 小 ) 。 他 不 仅 可 以 接 受 能 量 函 数 减 少( 性 能 得 到 改 善 ) 的 变 化 , 而 且 还 可 以 以 某 种 概 率分 布 接 受 使 能 量 函 数 增 大 ( 性 能 变 差 ) 的 变 化 。 n感知器学习 单层感知器学习算法 单层感知器学习的例子n BP网络学习n Hopfield网络学习神经网络学习 单层感知器学习实际上是一种基于纠错学习规则,采用迭代的思想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。 假设X(k)和W(k)分别表示学习算法在第k次迭代时输入向量和权值向量,为方便,把阈值作为权值向量W(k)中的第一个分量,对应地把“-1”固定地作为输入向量X(k)中的第一个分量。即W(k)和X(k)可分别表示如下: X(k)=-1, x1(k), x2(k), , xn(k) W(k)=(k),w1(k), w2(k), ,wn(k)即x0(k)=-1,w0(k)=(k)。 单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。 假设一个样本空间可以被划分为A、B两类,定义: 功能函数:若输入样本属于A类,输出为+1,否则其输出为-1。 期望输出:若输入样本属于A类,期望输出为+1,否则为-1。 单 层 感 知 器 学 习 算 法算 法 思 想 单 层 感 知 器 学 习 算 法 可 描 述 如 下 : (1) 设 t=0, 初 始 化 连 接 权 和 阈 值 。 即 给 wi(0)(i=1, 2, ,n)及 (0)分 别 赋 予 一 个 较 小 的 非 零 随 机 数 , 作 为 初 值 。其 中 , wi(0)是 第 0次 迭 代 时 输 入 向 量 中 第 i个 输 入 的 连 接 权 值 ; (0)是 第 0次 迭 代 时 输 出 节 点 的 阈 值 ; (2) 提 供 新 的 样 本 输 入 xi(t)(i=1, 2, , n)和 期 望 输出 d(t); (3) 计 算 网 络 的 实 际 输 出 : nittxtwfty ni ii ,.,2,1)()()()( 1 单层感知器学习算法算法描述 (4) 若 y(t)=d(t), 不 需 要 调 整 连 接 权 值 , 转 (6)。 否 则 , 需要 调 整 权 值 (5) 调 整 连 接 权 值其 中 , 是 一 个 增 益 因 子 , 用 于 控 制 修 改 速 度 , 其 值 如 果 太 大, 会 影 响 wi(t)的 收 敛 性 ; 如 果 太 小 , 又 会 使 wi(t)的 收 敛 速 度 太慢 ; (6) 判 断 是 否 满 足 结 束 条 件 , 若 满 足 , 算 法 结 束 ; 否 则 , 将t值 加 1, 转 (2)重 新 执 行 。 这 里 的 结 束 条 件 一 般 是 指 w i(t)对 一切 样 本 均 稳 定 不 变 。 若 输 入 的 两 类 样 本 是 线 性 可 分 的 , 则 该 算 法 就 一 定 会 收 敛。 否 则 , 不 收 敛 。 nitxtytdtwtw iii ,.,2,1)()()()()1( 单层感知器学习算法算法描述 例 用单层感知器实现逻辑“与”运算。 解:根据“与”运算的逻辑关系,可将问题转换为:输入向量: X1=0, 0, 1, 1 X2=0, 1, 0, 1输出向量: Y=0, 0, 0, 1 为减少算法的迭代次数,设初始连接权值和阈值取值如下: w1(0)=0.5, w2(0)=0.7, (0)=0.6并取增益因子=0.4。 算法的学习过程如下: 设两个输入为x 1(0)=0和x2(0)=0,其期望输出为d(0)=0,实际输出为: y(0)=f(w1(0)x1(0)+ w2(0)x2(0)-(0) =f(0.5*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值。 单层感知器学习的例子学习例子(1/4) 再取下一组输入:x1(0)=0和x2(0)=1, 期望输出d(0)=0,实际输出: y(0)=f(w1(0) x1(0)+ w2(0) x2(0)-(0) =f(0.5*0+0.7*1-0.6)=f(0.1)=1实际输出与期望输出不同,需要调节权值,其调整如下: (1)=(0)+(d(0)- y(0)*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(1)=w1(0)+(d(0)- y(0)x1(0)=0.5+0.4*(0-1)*0=0.5 w2(1)=w2(0)+(d(0)- y(0)x2(0)=0.7+0.4*(0-1)*1=0.3取下一组输入:x1(1)=1和x2(1)=0,其期望输出为d(1)=0,实际输出为: y(1)=f(w 1(1) x1(1)+ w2(1) x2(1)-(1) =f(0.5*1+0.3*0-1)=f(-0.51)=0实际输出与期望输出相同,不需要调节权值。 单 层 感 知 器 学 习 的 例 子学 习 例 子 (2/4) 再取下一组输入:x1(1)=1和x2(1)=1,其期望输出为d(1)=1,实际输出为: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-(1) =f(0.5*1+0.3*1-1)=f(-0.2)=0 实际输出与期望输出不同,需要调节权值,其调整如下: (2)=(1)+(d(1)- y(1)*(-1)=1+0.4*(1-0)*(-1)=0.6 w1(2)=w1(1)+(d(1)- y(1)x1(1)=0.5+0.4*(1-0)*1=0.9 w2(2)=w2(1)+(d(1)- y(1)x2(1)=0.3+0.4*(1-0)*1=0.7 取下一组输入:x1(2)=0和x2(2)=0,其期望输出为d(2)=0,实际输出为: y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值. 单层感知器学习的例子学习例子(3/4) 再取下一组输入:x1(2)=0和x2(2)=1,期望输出为d(2)=0,实际输出为: y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1 实际输出与期望输出不同,需要调节权值,其调整如下: (3)=(2)+(d(2)- y(2)*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(3)=w1(2)+(d(2)- y(2)x1(2)=0.9+0.4*(0-1)*0=0.9 w2(3)=w2(2)+(d(2)- y(2)x2(2)=0.7+0.4*(0-1)*1=0.3 实际上,由与运算的阈值条件可知,此时的阈值和连接权值以满足结束条件,算法可以结束。 对此,可检验如下: 对输入:“0 0”有y=f(0.9*0+0.3*0-1)=f(-1)=0 对输入:“0 1”有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0 对输入:“1 0”有y=f(0.9*1+0.3*0-1)=f(-0.1)=0 对输入:“1 1”有y=f(0.9*1+0.3*1-1)=f(0.2)=1单层感知器学习的例子学习例子(4/4) 多层感知器可以解决非线性可分问题,但其隐层神经元的期望输出却不易给出。 而单层感知器学习是一种有导师指导的学习过程,因此其学习算法无法直接用于多层感知器。 由于多层感知器和BP网络都属于前向网络,并能较好解决多层前馈网络的学习问题. 因此,可用BP学习来解决多层感知器学习问题。多层感知器学习问题 BP网络学习的网络基础是具有多层前馈结构的BP网络。为讨论方便,采用如下图所示的三层BP网络。BP网络学习的基础1. 三层BP网络 x1x n y1yl12mwij w jki j k1n l1三层BP网络工作信号的正向传播误差的反向传播 对 上 述 三 层 BP网 络 , 分 别 用 I,j,k表 示 输 入 层 、 隐 含 层 、 输出 层 节 点 , 且 以 以 下 符 号 表 示 : Oi, Oj, Ok分 别 表 示 输 入 层 节 点 i、 隐 含 层 节 点 j, 输 出 层 节点 k的 输 出 ; Ii , Ij ,Ik,分 别 表 示 输 入 层 节 点 i、 隐 含 层 节 点 j, 输 出 层节 点 k的 输 入 ; wij, wjk分 别 表 示 从 输 入 层 节 点 i到 隐 含 层 节 点 j, 从 隐 含 层节 点 j输 出 层 节 点 k的 输 入 节 点 j的 连 接 权 值 ; j 、 k分 别 表 示 隐 含 层 节 点 j、 输 出 层 节 点 k的 阈 值 ; 对 输 入 层 节 点 i有 : BP网络学习的基础2. 网络节点的输入/输出关系(1/2) ),.,2,1( nixOI iii (7.1) 对输出层节点有:BP网络学习的基础2. 网络节点的输入/输出关系(2/2) mj kjjkk lkOwI 1 ,.,2,1 lkIfO kk ,.,2,1)( (7.5)(7.4)mjxwOwI jni iijjini ijj ,.,2,111 ( ) 1,2,.,j jO f I j m 对隐含层节点有:(7.2)(7.3) BP网络学习的方式BP网络学习的基础BP网络的激发函数和学习方式 mj kjjkk lkOwI 1 ,.,2,1 lkIfO kk ,.,2,1)( (7.5)(7.4)mjxwOwI jni iijjini ijj ,.,2,111 ( ) 1,2,.,j jO f I j m BP网络的激发函数(7.3) 通常采用连续可微的S函数,包括单极 BP网络学习过程是一个对给定训练模式,利用传播公式,沿着减小误差的方向不断调整网络联结权值和阈值的过程。 设样本集中的第r个样本,其输出层结点k的期望输出用drk表示,实际输出用yrk表示。其中,drk由训练模式给出,yrk由7.5式计算得出。即有 yrk = Ork 如果仅针对单个输入样本,其实际输出与期望输出的误差为 BP算法的传播公式误差 上述误差定义是针对单个训练样本的误差计算公式,它适用于网络的顺序学习方式。若采用批处理学习方式,需要定义其总体误差。假设样本集中有R个样本,则对整个样本集的总体误差定义为 lk kk ydE 1 2)(21 Rr lk rkrkRr rR ydEE 1 1 21 )(21 ( 7.6) ( 7.7) 针对顺序学习方式,其联结权值的调整公式为 BP算法的传播公式权值变化量(1/2) ( 7.8) ( 7.9)式中,为增益因子,取0, 1区间的一个正数,其取值与算法的收敛速度有关; 由下式计算jkjkjk wtwtw )()1(式中,wjk (t)和wjk(t+1)分别是第t次迭代和t+1次迭代时,从结点j到结点k的联结权值;wjk是联结权值的变化量。 为了使联结权值能沿着E的梯度下降的方向逐渐改善,网络逐渐收敛,权值变化量wjk的计算公式如下: jkjk wEw jkwE jkkkjk wIIEwE ( 7.10) 根据7.2式,可得到输出层节点k的Ik为 BP算法的传播公式权值变化量(1/2) ( 7.11)( 7.12)令局部梯度( 7.13)jmj jkk OwI 1 jjmj jkjkjkk OOwwwI 1对该式求偏导数有 kk IE将7.10式、7.11式和7.12式代入7.9式有jkjkkkjkjk OwIIEwEw 对k的计算,须区分k是输出层上还是隐含层上的结点。下面分别讨论。 如果结点k是输出层上的结点,则有Ok=yk,因此 BP算法的传播公式节点k是输出层节点(1/3) ( 7.14)( 7.15)由7.6式,有即而kkkkk IyyEIE )( )()(221)(21( 1 2kk kkkkklk kkk yd yyydy ydyE )( kkk ydyE k kky f II ( 7.16) 将7.15式和7.16式代入7.14式,有BP算法的传播公式节点k是输出层节点(2/3) ( 7.17)( 7.15)由于f(Ik) = f(Ik)1-f(Ik),且f(Ik)=yk,因此有再将7.18式代入7.13式,有根据7.8,对输出层有( 7.20))()( kkkk Ifyd )1()( kkkkk yyyd ( 7.18) jkkkkjk Oyyydw )1)( ( 1) ( )( ) ( )(1 )jk jk jkjk k k k k jw t w t ww t d y y y O 如果k不是输出层结点它表示联结权值是作用于隐含层上的结点,此时,有k=j ,j按下式计算 BP算法的传播公式节点k是隐含层节点(1/3) ( 7.22)由7.3式,Oj=f (Ij-j),因此有式中,( 7.21)jjjjj IOOEIE )( jjj IfOE是一个隐函数求导问题,其推导过程为 jOE mj jjkjlk k jklk kj OwOIE OIIEOE 11 1 )( jklk k wIE )(1 由7.12式有 BP算法的传播公式节点k是隐含层节点(2/3) ( 7.24)将7.23式代入7.22式,有 它说明,低层结点的值是通过上一层结点的值来计算的。这样,我们就可以先计算出输出层上的值,然后把它返回到较低层上,并计算出各较低层上结点的值。 由于f (Ij) = f(Ij) 1-f (Ij) ,故由7.24可得( 7.23) lk jkkj wOE 1 lk jkkjj wIf 1 )( lk jkkjjj wIfIf 1)(1)( ( 7.25) 再将7.25式代入7.13式,并将其转化为隐函数的变化量,有7.3.2 BP算法的传播公式节点k是隐含层节点(3/3)再由7.1式和7.3式,有根据7.8,对隐含层有( 7.26)( 7.28)ilk jkkjjij OwIfIfw )(1)( 1 ilk jkkjjij xwOOw )(1( 1 ilk jkkjjij ijijij xwOOtw wtwtw )(1()( )()1( 1 ( 7.27) 对三层BP网络,设wij是输入层到隐层,wjk是隐层到输出层的联结权值;R是样本个数,其计数器为r;T是训练过程的最大迭代数,其计数器为t。 (1) 初始化网络及学习参数:将wij、wjk、j、k均赋以较小的随机数;设置为0,1区间的数;置训练样本计数器r=0,误差E=0、误差阈值为很小的正数。 (2) 随机输入一个训练样本,r=r+1,t=0。 (3) 按7.1-7.5式计算隐层神经元的状态和输出层每个节点的实际输出y k,按7.6式计算该样本的误差E。 BP网络学习算法算法描述 (4) 检查E ? 若是,执行下一步;否则,转(8)。 (5) t=t+1。 (6) 检查t T ?若是,执行下一步;否则,转(8)。 (7) 按7.18式计算输出层结点k的k,按7.25式计算隐层结点j的j,按 7.20式计算wjk(t+1),按 7.28式计算wij(t+1),返回(3)。其中,对阈值按联结权值的学习方式修正,即把阈值设想为神经元的联结权值,并假定其输入信号值总是为1。 (8) 检查r = R ? 若是,执行下一步;否则,转(2)。 (9) 结束。BP网络学习算法算法描述 BP网络学习算法算法流程随机输入一个训练样本,置r=r+1,t=0初始化网络及学习参数wij,wjk,j,k,R,T,置E=0,r=0 对输入样本,计算该样本的每一个yk,计算该样本的误差EE? t=t+1 tT ?计算输出层结点k的k修正各层的wjk(t),wij(t) E? 结束是否是否否是 BP网络模型是目前使用较多的一种神经网络,其主要优、缺点如下。 优点 (1)算法的优点是算法推导清楚,学习精度较高; (2)从理论上说,多层前馈网络可学会任何可学习的东西; (3)经过训练后的BP网络,运行速度极快,可用于实时处理。 缺点 (1)由于其数学基础是非线性优化问题,因此可能陷入局部最小区域; (2)算法收敛速度很慢,通常需要数千步或更长,甚至还可能不收敛; (3)网络中隐含结点的设置无理论指导。 上述缺点的解决办法 对于局部最小区域问题,通常需要采用模拟退火算法或遗传算法。 对于算法收敛慢的问题,其主要原因在于误差是时间的复杂非线性函数。为提高算法收敛速度,可采用逐次自动调整增益因子,或修改激活函数f(x)的方法来解决。BP网络学习的讨论 Hopfield网络学习 Hopfield网络学习的过程实际上是一个从网络初始状态向其稳定状态过渡的过程。而网络的稳定性又是通过能量函数来描述的。这里主要针对离散Hopfield网络讨论其能量函数和学习算法。uHopfield网络的能量函数uHopfield网络学习算法 式中,n是网络中的神经元个数,wij是神经元i和神经元j之间的连接权值,且有wij=wji; vi和vj分别是神经元i和神经元j的输出;i是神经元i的阈值。 可以证明,对Hopfield网络,无论其神经元的状态由“0”变为“1”,还是由“1”变为“0”,始终有其网络能量的变化: E0因此: nkjj kkjkkjnkjj kkjkkjk tvvtvwtvvtvwE 11 )()()1()1( )( 011 nkjj kjkjnkjj kjkj vwvw 0 kE Hopfield的能量函数能量函数定义及性质(6/7)当神经元k的输出vk由0变1时,有此时,由于神经元k的输出为0,即有:0 1 knkjj jkjvw 因此: nkjj kkjkkjnkjj kkjkkjk tvvtvwtvvtvwE 11 )()()1()1( )( )(0 1 1 nkjj kjkjnkjj kjkjvw vw 0 kE Hopfield的能量函数能量函数定义及性质(7/7) 可见,无论神经元k的状态由“1”变为“0” 时,还是由“0”变为“1” 时,都总有: 它说明离散Hopfield网络在运行中,其能量函数总是在不断降低的,最终 将趋于稳定状态。 Ek0 由于神经元k是网络中的任一神经元,因此它具有一般性,即对网络中的任意神经元都有: E0 例 如图所示的三个节点的Hopfield网络,若给定的初始状态为: V0=1,0,1各节点之间的联结权值为: w12=w21=1,w13=w31=-2,w23=w32=3各节点的阈值为 1=-1, 2=2, 3=1 请计算在此状态下的网络能量。 解:E=-(1/2)(w12v1v2+w13v1v3+w21v2v1+w23v2v3+w31v3v1+w32v3v2) + 1v1+ 2v2+ 3v3 = -(w12v1v2+w13v1v3+w23v2v3)+ 1v1+ 2v2+ 3v3 =-(110+(-2)11+301)+(-1) 1+20+11 =2 Q1Q2 Q3v1v2 v3w12 w13w23 Hopfield的能量函数计算网络能量的例子 (1) 设置联结权值其中,xis 为S型样例(即记忆模式)的第i个分量,它可以为1或0(或-1),样例类别数为m,节点数为n。 (2) 对未知类别的样例初始化其中,y i(t)为节点i时刻t的输出,yi(0)是节点的初值;xi为输入样本的第i个分量。 (3) 迭代运算其中,函数f为阈值型。重复这一步骤,直到新的迭代不能再改变节点的输出为止,即收敛为止。这时,各节点的输出与输入样例达到最佳匹配。否则 (4) 转第(2)步继续。 njiji jixxw ms sjsiij ,1,0 ,1 nixiy ii 1,)( njtywfty ni iiji 1),)()1( 1 Hopfield网络学习算法 神经学习n 单 层 感 知 器 算 法 : 感 知 器 网 络 : 单 层 前 向 网 络 学 习 算 法 : 纠 错 学 习 方 法 用 梯 度 下 降 法 调 整 网 络 连 接 权 值 , 使 总 的 输 出 误 差向 减 小 的 方 向 变 化n BP算 法 : 反 向 传 播 算 法 多 层 感 知 器 网 络 ( BP网 络 ) 学 习 算 法 收 敛 速 度 非 常 慢 , 且 随 着 训 练 样 例 维 数 增 加 , 网 络性 能 变 差 。 内容提要第 七 章 : 机 器 学 习1.机 器 学 习 的 基 本 概 念2.机 器 学 习 策 略 与 基 本 结 构3.归 纳 学 习4.决 策 树5.类 比 学 习6.解 释 学 习7.神 经 学 习8.其 他 其他机器学习方法n 其 他 机 器 学 习 方 法 迁 移 学 习 : 将 在 先 前 任 务 中 学 到 的 知 识 或 技 能 应 用 于一 个 新 的 任 务 或 新 的 领 域 增 强 机 器 学 习 : 从 变 化 环 境 中 学 习 蕴 含 在 环 境 中 的 知识 流 形 机 器 学 习 : 把 一 组 在 高 维 空 间 中 的 数 据 在 低 维 空间 中 重 新 表 示 半 监 督 机 器 学 习 : 结 合 标 记 和 非 标 记 样 本 多 实 例 机 器 学 习 : 一 个 对 象 可 能 同 时 有 多 个 描 述 Ranking机 器 学 习 : 获 得 关 于 检 索 中 “ 喜 欢 ” 顺 序 的模 型 数 据 流 机 器 学 习 : 从 数 据 流 中 发 现 知 识
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 模板表格


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!