首页 模糊

模糊

举报
开通vip

模糊null第三章 第三章 模糊系统 3.1模糊系统的架构 3.1模糊系统的架构 ■ 模糊系统(fuzzy system)已广泛地应用于自动控制、模式识别(pattern recognition)、决策分析(decesion analysis)、以及时序信号处理等方面。 ■ 模糊系统的基本架构如图3.1所示,其中主要的功能方块包括:(1)模糊化机构、(2)模糊规则库、(3)模糊推理引擎、以及(4)去模糊化机构。 图3.1:模糊系统的基本架构。 3.1模糊系统的架构 3.1模糊系统的架构 ■ 模糊化机构的...

模糊
null第三章 第三章 模糊系统 3.1模糊系统的架构 3.1模糊系统的架构 ■ 模糊系统(fuzzy system)已广泛地应用于自动控制、模式识别(pattern recognition)、决策 分析 定性数据统计分析pdf销售业绩分析模板建筑结构震害分析销售进度分析表京东商城竞争战略分析 (decesion analysis)、以及时序信号处理等方面。 ■ 模糊系统的基本架构如图3.1所示,其中主要的功能方块包括:(1)模糊化机构、(2)模糊 规则 编码规则下载淘宝规则下载天猫规则下载麻将竞赛规则pdf麻将竞赛规则pdf 库、(3)模糊推理引擎、以及(4)去模糊化机构。 图3.1:模糊系统的基本架构。 3.1模糊系统的架构 3.1模糊系统的架构 ■ 模糊化机构的功能是将明确的 (crisp) 外界输入数据转换成适当的语言式模糊信息;也就是说将明确数据模糊化成模糊信息。以下我们介绍两种模糊化机构: 1. 将明确的数值型式数据 x0 视为一个模糊单点型式的模糊集合 A: 2. 当 x= x0 时,其隶属函数值为 1;当 x 越来越远离 x0 时,其隶属函数值则递减, 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 示如下: 其中以  作为控制隶属函数递减的速率,此种模糊化方式所须之计算量较大,因此较少使用,但是假若外界的输入易被噪声干扰时,采用第二种模糊化方式则较能有效地消除由噪声引起的错误。 3.1.2 模糊规则库 (fuzzy rule base) (1 )3.1.2 模糊规则库 (fuzzy rule base) (1 ) 一、语言式模糊规则:语言式模糊规则又称为 Mamdani 模糊规则 二、函数式模糊规则: (1) 线性式模糊规则: (2) 单点式模糊规则: 三、Tsukamoto模糊规则:此模糊规则的后件 Bj 采用的是拥有单调性(monotonical)隶属函数的模糊集合,因此,每一个模糊规则经过推理后,得到的是一个明确值。 3.1.2 模糊规则库 (fuzzy rule base) (2)3.1.2 模糊规则库 (fuzzy rule base) (2) ■ 推理引擎将藉由这些模糊规则来进行推理,以决定下一步骤所要采取的决定。 ■ 三种规则的主要差别只在于模糊规则的后件有所不同而已。 ■ 至于模糊规则从何而来呢?一般说来,有两种取得模糊规则的方式:第一种方式也是最直接的方式,就是由专家来提供所须的模糊规则;第二种方式是先收集一些量测数据后,再经由特定的训练算法则来从量测数据中抽取出模糊规则。 ■ 模糊规则中前件与后件的模糊集合,其隶属函数的设定从何而来呢?假若模糊规则是由人类专家所给定的,则隶属函数就必须由人类专家一起给定。若模糊规则是由特定的训练算法则从量测数据中抽取出来的,选定合适的隶属函数型式之后,则以收集之量测数据来细调隶属函数的参数,以便提高系统的有效性。 3.1.3 模糊推理引擎 3.1.3 模糊推理引擎 ■ 模糊推理引擎是模糊系统的核心,它可以藉由近似推理或模糊推理的进行,来仿真人类的思考决策模式,以达到解决问题的目地。 前提一(premise) 1:x is A´ 前提二(premise) 2:If x is A, Then y is B ------------------------------------------------------------ 结论:y is B´ 各种不同计算方式的合成运算子: ■ 最大-最小合成: ■ 最大乘积合成 : ■ 最大边界积合成 : ■ 最大激烈积合成 : 至于模糊蕴涵的运算则如前一章所介绍的有 。 3.1.4去模糊化机构 (1)3.1.4去模糊化机构 (1) ■ 将经过模糊推理之后产生的结论,转换为一明确数值的过程,我们称之为 “去模糊化” 。 ■ 由于不同的模糊规则所采用的后件会有所不同,因此,经过模糊推理后所得到的结论,有的是以模糊集合来表示(如语言式模糊规则),而有的是以明确数值来表示。 一、推理后得到的是模糊集合:令模糊集合 C 为模糊规则经过模糊推理后所得到的结论,亦即前面所提到的 中的 。 1. 重心法 (center of gravity defuzzifier or center of area defuzzifier) (1) 当论域为连续时: (2) 当论域为离散时: 3.1.4去模糊化机构 (2)3.1.4去模糊化机构 (2)2. 最大平均法 (mean of maxima defuzzifier) 其中 3. 修正型最大平均法 (modified mean of maxima defuzzifier) 其中 4. 中心平均法 (modified center average defuzzifier) 3.1.4去模糊化机构 (3)3.1.4去模糊化机构 (3)5. 修正型重心法 (modified center average defuzzifier) 其中以 j 作为控制隶属函数递减的速率,当 j 越小,则隶属函数递减的速率越快。 二、推理后得到明确的输出值:令 j 代表第 j 个模糊规则的前件被符合的程度性,亦即“激活强度(firing strength)”,yj 为第 j 个模糊规则所推理出的结果,以下的“权重式平均法(weighted average method)”最被广泛使用: 3.2 语言式模糊规则 (1)3.2 语言式模糊规则 (1) ■ 其成效与模糊规则所使用的规则之前件与后件是否恰当很有关系,除此之外,与隶属函数之型态,合成运算子种类,模糊蕴涵采用何种计算方式,以及去模糊化 方法 快递客服问题件处理详细方法山木方法pdf计算方法pdf华与华方法下载八字理论方法下载 等,都有关系。 前提:x is x0 and y is y0 模糊规则一 :If x is A1 and y is B1Then z is C1 模糊规则二 :If x is A2 and y is B2 Then z is C2 ■ 若我们采用单点式模糊化方式将 x0 及 y0 分别模糊化成模糊集合 A´ 和 B´ ,然后根据模糊推理,我们可以得到以下的结论: 3.2 语言式模糊规则 (2) 3.2 语言式模糊规则 (2) 一、采用“最大-最小合成”及模糊蕴涵 所以 null图3.2:以“最大-最小合成”及模糊蕴涵 来进行模糊推理。 3.2 语言式模糊规则 (3) 3.2 语言式模糊规则 (3) 二、采用“最大乘积合成”及模糊蕴涵: 所以 null图3.3:以“最大乘积合成”及模糊蕴涵 例3.1:语言式模糊规则 例3.1:语言式模糊规则  ■ 假设模糊规则库中,只有以下三个模糊规则:   :If x is small Then y is large :If x is medium Then y is medium :If x is large Then y is small 图3.4:输入变量x与输出变量y的三个模糊集合。 图3.5:整体的输入与输出的函数关系。 3.3 函数式模糊规则 3.3 函数式模糊规则 ■ 此种模糊规则有时又称做 “Sugeno” 模糊规则”或“TSK模糊规则”。 ■ 此种线性式模糊规则的优点是其参数 可以很容易地从数值型数据中鉴别出来;其缺点是相较于语言式模糊规则,此种模糊规则较不具有逻辑上的意义,因此较不容易将(1)由人类专家所提供的语言式信息以及(2)从实验中得到的数值型数据,整合起来用以建立线性式模糊规则。 前提:x is x0 and y is y0 模糊规则一 :If x is A1 and y is B1 Then z is 模糊规则二 :If x is A2 and y is B2 Then z is ■ 令 代表第 i 个模糊规则的激活强度,并且 为第 i 个模糊规则经过推理后所得到的结果,最后利用“权重平均法”来去模糊化,整体最后的输出 z* 为: 例3.2:函数式模糊规则 (1) 例3.2:函数式模糊规则 (1)    If x is smallThen y = 2x If x is mediumThen y = -x +3 If x is largeThen y = x - 1 ■ 我们采用的是“权重平均法”来去模糊化。 图3.6:若用不同的方式来定义模糊集合,则会导至整体的输入/输出的函数关系会有所不同。 例3.2:函数式模糊规则 (2) 例3.2:函数式模糊规则 (2) ■ 如果我们在线性式的模糊规则中,使用(1)高斯函数作为隶属函数、(2)最大乘积合成于模糊推理、以及(3)加权式平均法来去模糊化,则 Takagi 及 Sugeno 的线性式模糊规则的输出就是: 其中 J 代表模糊规则数,以及代表第 j 条模糊规则经过推理后所得到的结果,亦即 其中 p 代表输入变量的维度,以及明确输入 ,而权重 代表输入变量 对第 j 条模糊规则的前件的激活强度, 可用下式求得: 例3.2:函数式模糊规则 (3) 例3.2:函数式模糊规则 (3) 其中 代表 对模糊集合 的隶属度,结合上两式,我们可以导出一个多变量的非线性近似器 (nonlinear approximator)。事实上,若是要以一组线性式模糊规则作为通用近似器 (universal approximator),在线性式模糊规则的后件中只需要一个常数项 即可,只要保留此常数项,所导出的系统输出为 其中 ■ 经过比较,我们发现上式将会等效于 Radial Basis Function Network (RBFN),而 RBFN 已经证明为一通用之近似器。 3.4 Tsukamoto模糊规则 (1) 3.4 Tsukamoto模糊规则 (1) ■ Tsukamoto模糊规则可以视作语言式模糊规则的一种简化,Tsukamoto把后件之模糊规则限定成只能拥有单调性(递增或递减)的隶属函数,如此一来,隶属函数的反函数便一定存在。 前提:x is x0 and y is y0 模糊规则一 R1:If x is A1 and y is B1Then z is C1 模糊规则二 R2:If x is A2 and y is B2Then z is C2 ■ 令 代表第 i 个模糊规则的激活强度,并且 zi 代表是当第 i 个模糊规则的激活强度 i 为时所推理而得到的结果,然后利用“权重平均法”来去模糊化,整体最后的输出 z* 为: null图3.7:Tsukamoto模糊规则的推理过程。 3.5 模糊控制例 (1) 3.5 模糊控制例 (1) 模糊规则一 R1:If x is A1 and y is B1Then z is C1 模糊规则二 R2:If x is A2 and y is B2Then z is C2 令 x0 与 y0 为感应器 x 与 y 之输入,模糊集合 A1、 A2、 B1 、 B2 、 C1 、以及 C2 使用下列之隶属函数: 3.5 模糊控制例 (2) 3.5 模糊控制例 (2) ■ 读入感应器输入 以及 ,接下来我们将说明如何计算最后的控制输出。 ■ 首先计算感应器输入 以及 与两条模糊规则的符合程度为: ■ 接下来,两条模糊规则的激活强度为: ■ 将 1 对映至第一条模糊规则的后件,可得到如图3.8中的灰色梯形区域 ;相同地,将 2 对映至第二条模糊规则的后件,可得到如图3.8中的黑色梯形区域 ;将此两个梯形区域以 “最大运算子 (max)” 取其最大值,可得最后的隶属函数。最后解模糊化可得: null图3.8:模糊推理过程示意图。 3.5 模糊控制例 (3) 3.5 模糊控制例 (3) (1)以连续型重心法作为解模糊化机构:首先找出 C´ 的隶属函数 为 : 因此 3.5 模糊控制例 (4) 3.5 模糊控制例 (4) (2) 以离散型重心法来解模糊化:我们将输出量化成 1,2,...,9 等 9 个离散输出,可得 (3) 以 “最大平均法” 作为解模糊化机构:在最后的隶属函数中,其量化值达到最大隶属函数值的有 3、4、以及 5,因此我们可以得到: (4) 以修正型最大平均法作为解模糊化机构: (5) 以中心平均法作为解模糊化机构: 3.6 模糊规则的建立 (1) 3.6 模糊规则的建立 (1) ■ 第一种也是最直接的方式就是经由询问人类专家而得。 1. 人类专家往往无法完整地提供所有必需的语言式模糊规则,以致于规则库的不完全。 2. 其效果则深受 (1) 规则库的完整与否,以及 (2) 所使用的隶属函数是否能正确地反应出输入/输出变量间的模糊关系所影响。 ■ 第二种取得语言式模糊规则的方式,则是经由训练法则,将数值型数据(numerical data)中取得模糊规则,此种作法往往牵涉如何分割输入及输出变量空间,以及如何建立模糊规则中前件以及后件之相对应关系,这些方法所建立起来的模糊规则,可以依照输入空间的切割方式分成两类: 1. 均匀式切割法:此种方法有两个主要缺点:(1)若输入向量的维度很高时,会导致模糊规则的数目增长得很快; (2)如果输入变量间的相关程度性 (correlation)很高,将导致输入空间被分割得相当地细致,以反应出输入变量间的相关程度。 2. 非均匀式切割法:我们其实可以直接切割整个模糊空间成多个模糊集合,而不是在每一输入维度上切割。这种方法虽然可以有效地降低所需的规则数目、以及反映出变量间的关连性,但付出的代价有二:(1)增加后续建模(modeling)工作的困难度(即规则数目的选定及隶属函数的参数之调整等工作);(2)此种模糊规则较不易解读。 null图3.10:直接切割整个模糊空间成多个模糊集合的概念 3.6 模糊规则的建立 (2) 3.6 模糊规则的建立 (2) ■ 利用类神经网络的学习特质,想办法从数值型数据中,借着链接值的调整,归纳出相关的输入/输出关系,然后,再从网络的链接值中,抽取出模糊规则来。 均匀式切割法: If Then 或 非均匀式切割法: If Then图3.11:模糊化之类神经网络 3.8 模糊化类神经网络 (1) 3.8 模糊化类神经网络 (1) ■ 均匀式切割法 : 三种最典型的「模糊化类神经网络」分别为: (1) 自适应网络架构的模糊推理系统(adaptive network-based fuzzy inference system 简称为 ANFIS) 。 (2)模糊自适应学习控制网络(fuzzy adaptive learning control network 简称为 FALCON) 。 (3) 反传模糊系统(backpropagation fuzzy system) 。 基本上,这三种网络架构中,第一层的隐藏层类神经元,所执行的是隶属函数值的运算(即兼容程度性的计算),接下来的类神经元执行『及(AND)的运算』,以便获得模糊规则的前件的激活强度,然后,有一层的类神经元执行『或(OR)』的运算,以便将所有模糊规则的前件的激活强度并集起来,最后位于输出层的类神经元便执行去模糊化的运算,以便提供明确的输出值。 ■ 非均匀切割法: 模糊化多维矩形复合式类神经网络(Fuzzy HyperRectangular Composite Neural Network 简称为 FHRCNN)[17],[18],是执行非均匀式切割法的一种典型模糊化类神经网络。 3.8.1 自适应网络架构的模糊推理系统 (1) 3.8.1 自适应网络架构的模糊推理系统 (1) ■ 我们令模糊系统只有二个输入变量,x , y、一个输出变量,z;因此,我们可以将函数式模糊规则(Sugeno模糊规则)表示如下: 模糊规则 模糊规则 图3.12:(a) 函数式模糊规则的模糊推理过程;(b) 相对应于函数式模糊规则的ANFIS架构。(本图摘自J.-S. Roger Jang et. al. [12]) 3.8.1 自适应网络架构的模糊推理系统 (2) 3.8.1 自适应网络架构的模糊推理系统 (2) ■ 第一层:第一层的类神经元执行输入与相关模糊集合的「兼容程度性」之运算,计算如下: ■ 第二层:第二层的类神经元标示为Ð,执行的式模糊规则的「激活强度」之计算,计算如下: ■ 第三层:第三层中的类神经元标示为N,执行的是将激活强度正规化之运算,计算如下: 3.8.1 自适应网络架构的模糊推理系统 (3) 3.8.1 自适应网络架构的模糊推理系统 (3) ■ 第四层:第四层的类神经元执行的是,每个模糊规则之后件该执行多少之运算,计算如下: ■ 第五层:第五层只有单一个类神经元,标示为Ó,计算前一层中类神经元输出值的总合,以作为最后网络的输出值: ■ 经由上述的说明可知,自适应网络架构的模糊推理系统(ANFIS)和以函数式模糊规则所组成之模糊系统是等效的。 ■ 其实,网络应该安排成几层的结构,以及每一层中的类神经元所执行的运算,都是可以视其需要而加以改变的,只要每一层中的类神经元所执行的运算都是有意义的模块化函数即可。 null图3.13:相对应于函数式模糊规则的另类ANFIS架构,其中最后一层执行键结值之正规化计算。(本图摘自J.-S. Roger Jang et. al. [12]) 图3.14:(a)Tsukamoto模糊规则的模糊推理过程;(b)相对应于Tsukamoto模糊规则的ANFIS架构。(本图摘自J.-S. Roger Jang et. al. [12]) 3.8.2 模糊自适应学习控制网络 (1) 3.8.2 模糊自适应学习控制网络 (1) ■ FALCON将传统的模糊控制器、以及具备分布式学习能力的类神经网络,两者整合至同一网络架构中。 ■ 在FALCON的网络架构中,输入层代表外界输入至网络之状态。输出层代表网络的输出控制信号,而隐藏层则包括了隶属函数、以及模糊规则。 图3.15:模糊系统FALCON的网络架构图。(本图摘自C.T. Lin and C.S. George Lee [14]) 3.8.2 模糊自适应学习控制网络 (2) 3.8.2 模糊自适应学习控制网络 (2) ■ 第一层:第一层是输入层,不负责实际之运算,只是将外界之输入直接导引至下一层中,也就是说: ■ 第二层:第二层所执行的功能是隶属函数值之运算起(即兼容程度性之计算)。 ■ 第三层:第三层类神经元负责模糊规则的激活强度的计算,也就是说,类神经元负责将相关之兼容程度幸用模糊交集(AND)的运算整合成激活强度,计算如下: 3.8.2 模糊自适应学习控制网络 (3) 3.8.2 模糊自适应学习控制网络 (3) ■ 第四层:第四层的类神经元有两种计算模式:(1)由下而上之传输模式;(2)由上而下之传输模式。在由下而上之传输模式中,第四层的键结值(由第三层连结至第四层的键结值)负责模糊并集(OR)之运算(采用的是边界和之运算子),以便将所有具有相同后件之模糊规则整合起来,计算如下: ■ 第五层:第五层的类神经元汉第四层的类神经元一样,也有两种计算模式:(1)由上而下的之传输模式;(2)由下而上之传输模式。在由上而下之传输模式中,也就是网络的训练时期,类神经元执行下列之运算: 3.8.3 反传模糊系统 (1) 3.8.3 反传模糊系统 (1) ■ 其目的在于实现下述之模糊系统(采用(1)高斯形式之隶属函数;(2)Rp的模糊蕴涵;(3)中心平均法去模糊化机构): 其中 p 代表输入维度,J 代表模糊规则的总数, 和 为可调整的参数。 null图3.16:「模糊逻辑系统的网络化表示法」之网络架构。(本图摘自L.-X. Wang [16]) 3.8.3 反传模糊系统 (2) 3.8.3 反传模糊系统 (2) ■ 网络训练的目标就是要使得下列式子之误差函数达到最小化: 训练网络参数 的方法为: 3.8.3 反传模糊系统 (3) 3.8.3 反传模糊系统 (3) ■ 训练网络参数 的方法为: 3.8.3 反传模糊系统 (4) 3.8.3 反传模糊系统 (4) ■ 训练网络参数 的方法为: ■ 以上所述的训练演绎法则是一个两阶段之学习演绎法则,我们首先以前向之方式来计算 、a、b、以及 f。然后以反传算法则之方式,依据上述式来修正网络参数 、 以及 之值。 3.8.4 模糊化多维矩形复合式类神经网络 (1) 3.8.4 模糊化多维矩形复合式类神经网络 (1) ■ 传统的单点式模糊规则以下之形式: 模糊规则: ■ 采用下列之模糊规则是较佳之形式: 模糊规则: ■ 网络的训练过程变得更加复杂,计算量也会大量增加,而且在网络训练完成之后,我们无法从网络的键结值当中,得到类似模糊规则的解释方式来解释网络的行为。 ■ 为了在网络的实用性与复杂性之间做一权衡,FHRCNN采用的方式,是以一组多维矩形来逼近多维之模糊集合,因此,FHRCNN采用的模糊规则形式为: 模糊规则:null图3.17:「均匀式切割法」与「非均匀式切割法」之差异 图3.18:(a)HRCNN之图形表示法;(b)FHRCNN之图形表示法。 3.8.4 模糊化多维矩形复合式类神经网络 (2) 3.8.4 模糊化多维矩形复合式类神经网络 (2) ■ 「多维矩形复合式类神经网络(HyperRectangular Composite Neural Networks 简称为HRCNNs)」,其数学表示法如下: ■ 其中 是隐藏层中第 j 个类神经元的键结值 3.8.4 模糊化多维矩形复合式类神经网络 (3) 3.8.4 模糊化多维矩形复合式类神经网络 (3) ■ 我们可以利用所谓的「监督式决定导向学习算法(supervised decision-directed learning algorithm 简称为SDDL algorithm)」来训练HRCNN,只要训数据彼此之间没有交错(overlap)的问题,此算法可以保证训练数据可以被100%分类成功。 ■ 假设网络中共有J个隐藏层类神经元(J 个模糊规则),我们可以从网络的键结值中得到下列之明确规则: 3.8.4 模糊化多维矩形复合式类神经网络 (4) 3.8.4 模糊化多维矩形复合式类神经网络 (4) ■ 基本上,「模糊化多维矩形复合式类神经网络(FHRCNN)」是将「多维矩形复合式类神经网络(HyperRectangular Composite Neural Networks 简称为HRCNNs)」模糊化之后而得到的。 ■ 采用了一个特殊的隶属函数 ,来代替硬限制器函数 f(x),以作为类神经元之活化函数,隶属函数是用来量测输入数据与多维矩形间的相似程度性,FHRCNN的数学表示法如下: 3.8.4 模糊化多维矩形复合式类神经网络 (5) 3.8.4 模糊化多维矩形复合式类神经网络 (5) ■ 网络经过充分训练之后,我们可以从键结值中抽取出以下的模糊规则: ■ 输出类神经元执行的是类似「中心平均法」之去模糊化运算。 图3.19:隶属函数可以藉由调整参数之方法
本文档为【模糊】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
is_982941
暂无简介~
格式:ppt
大小:629KB
软件:PowerPoint
页数:0
分类:工学
上传时间:2011-07-18
浏览量:81