CHAPTERFOURSYNAPTICDYNAMICS1

上传人:xx****x 文档编号:240562334 上传时间:2024-04-15 格式:PPT 页数:36 大小:330.50KB
返回 下载 相关 举报
CHAPTERFOURSYNAPTICDYNAMICS1_第1页
第1页 / 共36页
CHAPTERFOURSYNAPTICDYNAMICS1_第2页
第2页 / 共36页
CHAPTERFOURSYNAPTICDYNAMICS1_第3页
第3页 / 共36页
点击查看更多>>
资源描述
CHAPTER FOUR SYNAPTIC DYNAMICS 1:UNSUPERVISED LEARNINGvNEURAL NETWORK&FUZZY SYSTEMWang Jun 2004.104/15/20241什么是学习?学习就是对信息进行编码其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。三种学习方式:4/15/20242什么是学习?三种学习方式:4/15/20243编码是学习?激励响应?映射?使用行为(behavioristic)编码准则,如果输入激励为 ,而响应为 ,则该系统对激励响应 进行了学习。输入输出对 表示函数 的一个样本,函数f将n维矢量X映射到p维矢量Y。4/15/20244怎么理解学习过程?如果对所有的输入 都有响应 ,系统对函数进行了学习 若输入 系统就会得到响应 ,则表明系统近似或部分学习,即系统把相似的输入映射为相似的输出4/15/20245学习就会发生改变?改变1:样本数据改变系统参数,系统进行自适应或自组织的学习。改变2:神经网络中突触(权值)改变,有时神经元改变。改变的效果:当激励改变了记忆介质并使改变维持相当长一段时间后,我们就说系统学会了。4/15/20246学习时量化必要性系统只能对无穷的样本模式环境中一小部分样本进行学习。系统的存储量是有限的,系统要有新的样本模式替换旧的样本模式。4/15/20247量化定义 规则 把样本模式空间分成k个区域,某个突触点在其中移动时,系统进行学习。原型可以扩展以使矢量量子化均方误差最小或规则最优。可以估计样本模式的未知的概率分布(统计代表样本)。4/15/20248无监督和有监督学习 区别?描述样本模式在样本空间的分布概率密度函数未知,通过学习来估计。无监督学习对分布不作任何假设,可利用信息最少。其学习规则可用一阶差分或一阶微分方程来定义4/15/20249有监督学习特点?假设样本模式分组结构或 性能 还依赖于每个学习样本的分组隶属度信息,即分成:可以检查出“错误”信息。优点:精确度较高。4/15/202410在神经网络中的区别监督学习可利用突触值联系来估计依赖于未知均方性能的测度梯度,利用分组隶属度信息来确定误差信号以引导梯度下降。无监督学习只能利用神经信号的局部信息来改变参数,只能自适应分样本模式,但依赖于未知概率密度函数。4/15/202411局部信息用处?局部化使突触可以实时、异步地学习,不需要全局的误差信息局部无监督突触把信号和信号联系起来形成共轭或相关学习定律借助联想可进一步缩小函数空间学习定律中只包含神经元、突触和噪声三项。4/15/202412四种无监督学习 信号Hebbian学习 微分Hebbian学习 竞争学习 微分竞争学习 4/15/2024131、确定信号的Hebbian学习局部神经信号:若 ,第 个突触连接激活若 ,第 个突触连接抑制 :单调非减函数,把激励 转化为有界信号 4/15/2024142、确定性的竞争学习Grossberg用竞争信号调整信号-突触的差分:竞争可以归结为最近邻模式匹配的问题。度量指示器函数:4/15/202415若 ,输出的第 个神经元赢;0 则输实际中,是线性的,即,输入模式矢量 就代表了神经元场 中的输出。此时,竞争学习准则就成为线性竞争学习准则:4/15/2024163、确定性微分Hebbian学习(Kosko)学习准则 信号速度:4/15/2024174、确定性的微分竞争学习 学习法则:微分竞争,只有改变了才学习,速度 使局部奖惩强化。线性微分竞争学习法则:4/15/202418随机非监督学习定律(噪声)w一般的情况 w引理:随机突触在平衡态振动,而且至少和驱动的噪声过程的振动的一样大,突触矢量 在每个t都振动,其平均值为一常数,即围绕常值 作布朗运动。w当突触停止运动,确定的Hebbian学习就出现了随机平衡4/15/202419随机竞争学习定律 用随机竞争信号 调制随机矢量差并加上独立高斯白噪声矢量 来模型化那些未模型化的效应线性竞争学习定律以X代替线性信号矢量4/15/202420离散随机差分方程系统 常用竞争学习算法作为离散随机差分方程系统4/15/202421非监督学习非监督学习NN实例实例 神经网络基本模型 自组织映射系统SOM Neural Gas network 聚类应用4/15/202422神经元建模神经元建模 一组突触和联结,联结具有权值 W1,W2,Wm 通过加法器功能,计算输入的权值 激励函数限制神经元输出的幅度4/15/202423神经元(信息处理单元)InputsignalSynapticweightsSummingfunctionBiasbActivationfunctionLocalFieldvOutputyx1x2xmw2wmw14/15/202424感知机感知机weights nodesI1I2I3W1W2W3OI1I2I3W1W2W3O或1Activation Function4/15/202425单层前向Input layerofsource nodesOutput layerofneurons4/15/202426多层前向 InputlayerOutputlayerHidden Layer4/15/202427自组织映射系统 Kohonen非监督随机系统非监督随机系统 邻近的各个神经元之间通过相互的侧向交互作用,从而产生相竞争的过程,自适应地形成了针对特殊信息的组织结构。4/15/202428Topographic map reflects distribution of input vectors4/15/202429神经元神经元j,它的外部输入信号,它的外部输入信号Ij:它的输出Yj的活动可用微分方程表示:随外部输入,神经元权系数自适应变化-自学习过程,和输出外部输入权系数有关有关系系:4/15/202430调整权系数调整权系数Wij,使神经网络收敛于,使神经网络收敛于一种表示形态,一个神经元只对某种一种表示形态,一个神经元只对某种输入模式特别匹配或特别敏感。输入模式特别匹配或特别敏感。使神经元的权系数的形态表示可使神经元的权系数的形态表示可以间接模仿输入的信号模式。以间接模仿输入的信号模式。SOM的学习算法由两部分组成:1最优匹配神经元的选择 2网络中权系数的自组织过程4/15/202431LVQ networkInput nodesOutput Layer ofneuronsstimulusvector vmapped onto neuron:v S=argmin distance(v,ws)Neuron sneuron s is called winner or best matching unitws4/15/202432Neural Gas networkInput nodesOutput Layer ofNeurons(Si,i=1m)V:datavectorsmapped onto neurons s:V S=argmin distance(v,wi)si an v Sr,wr&all wi of Sr neighbors move towards v(wi)4/15/202433Neural Gas networkUpdate rule in each neuron:How wr&all wi of neighbors move towards v?Wi k+1=Wi k+WiNeibourhood function:4/15/202434实例实例 聚类应用4/15/202435实例实例 聚类应用1)iris data Errors Error rate PAM 15 10.0%SOM 16 10.7%Neural Gas 16 10.7%2)simulated Errors Error rate PAM 0 0%SOM 30 20%Neural Gas 0 0%4/15/202436
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 大学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!