目录
目录
第1章电子商务环境下顾客购物偏好挖掘
1.1电子商务及其发展
1.1.1电子商务的概念
1.1.2电子商务发展历程
1.1.3国内外电子商务发展现状
1.1.4我国电子商务发展面临的问题
1.2电子商务与顾客购物偏好识别
1.2.1顾客购物偏好识别的应用
1.2.2顾客购物偏好识别的数据源
1.2.3电子商务数据挖掘过程
1.3本书主要工作
1.3.1研究意义
1.3.2主要内容
1.3.3基本思路与研究方法
1.4本书的组织结构
第2章电子商务推荐系统
2.1电子商务与推荐系统
2.2电子商务推荐系统的概念
2.2.1电子商务推荐系统及构成
2.2.2电子商务个性化推荐系统的作用
2.2.3电子商务个性化推荐系统的研究内容
2.2.4推荐典型案例
2.3电子商务推荐现阶段问题
第3章电子商务推荐系统研究现状
3.1国内外研究现状
3.1.1基础评价数据的完整性研究现状
3.1.2推荐方法研究现状
3.1.3计算复杂度研究现状
3.2基于内容的推荐
3.2.1基于内容推荐的基本思想
3.2.2基于内容推荐过程
3.3协同过滤推荐
3.3.1协同过滤技术分类
3.3.2基于用户的协同过滤
3.3.3基于项目的协同过滤
3.3.4协同过滤推荐技术的优缺点
3.4混合推荐
3.5基于关联规则的推荐
3.6Web数据挖掘与电子商务推荐
3.6.1隐性数据挖掘
3.6.2隐性评价数据的处理
3.7其他推荐方法
3.8推荐相关技术评析
第4章基于Vague集理论的产品分类树
4.1Vague集相关理论介绍
4.1.1Vague集相关理论的产生背景
4.1.2Vague集理论的基本思想
4.1.3Vague集理论与电子商务推荐
4.2产品特征的提取与表示
4.2.1产品特征的提取
4.2.2项目特征的Vague值表示
4.3相似产品聚类
4.3.1常用聚类算法比较
4.3.2聚类原理与过程
4.4生成产品分类树
4.4.1用户兴趣与种子类
4.4.2产品分类树的生成
4.4.3种子类的预设
4.5项目分类结构图
第5章神经网络聚类与预测补值处理
5.1神经网络的基本原理
5.1.1神经网络的发展历史
5.1.2神经网络的特征
5.1.3神经网络基本内容
5.1.4发展趋势与应用
5.2SOM与RBF的聚类与预测
5.3SOM神经网络的相似用户聚类
5.4利用SOM对评价矩阵进行预聚类
5.4.1SOM聚类过程
5.4.2MATLAB实现
5.5RBF神经网络预测补值
5.5.1RBF神经网络
5.5.2网络的训练与设计
5.6RBF神经网络预测补值处理
5.6.1RBF神经网络预测补值过程
5.6.2MATLAB实验及分析
第6章协同过滤聚类及推荐的实施
6.1相似用户的聚类
6.2推荐的实施
6.2.1本书推荐实施的流程
6.2.2鉴定最积极与最消极邻居
6.2.3关联规则挖掘
6.2.4推荐结果集的生成
第7章推荐质量实验分析及评价
7.1实验度量指标
7.1.1召回率与精度
7.1.2F相关检测、MAE平均绝对误差
7.1.3实验方案
7.2实验过程
7.2.1实验基本内容
7.2.2MAE平均绝对误差分析
7.2.3计算复杂度分析
第8章基于信任关系改进的协同过滤推荐
8.1基于信任关系的协同过滤推荐框架
8.2推荐步骤
8.2.1确定目标用户信任用户集合
8.2.2信任用户的评分处理
8.2.3进行评分估算
8.3算例测试
8.4评价
8.4.1实验设置
8.4.2评估指标
8.4.3结果与分析
8.5方法优势
8.6帕累托主导
第9章多样性选择改进协同过滤推荐算法
9.1推荐框架
9.2模糊协同过滤
9.3多样性选择算法
9.4模糊的基于内容的过滤(模糊CBF)
9.5混合方法(模糊CFCBF)
9.6实验评价
9.6.1实验设计
9.6.2实验结果
9.7结论
第10章推荐结果与企业利润关联分析
10.1问题定义
10.2面向企业利润的多目标产品组合
10.3实验测试
10.3.1数据预处理
10.3.2实验分析
第11章结论与展望
11.1本书主要内容
11.2本书的创新点
11.3展望
参考文献
后记
摘要
第5章
神经网络聚类与预测补值处理
协同过滤推荐技术是目前应用最为广泛也是最为成功的一种技术,但协同过滤推荐需要完整的基础评价数据作支撑。随着用户数量与产品规模的扩大,目前的商务网站中用户对产品的评分值(本书称为显性评分)多为稀疏的,稀疏的基础评价数据将会严重影响协同过滤推荐的质量,针对此问题,本书提出应用SOM神经网络对稀疏的用户项目评分值进行相似用户预聚类,基于同一聚类内的用户相似性进一步应用RBF神经网络对稀疏的评分矩阵进行预测以获取未评分项目的评分值,经过神经网络预测尽可能地保证基础评分数据的完整,以获得较准确的推荐质量。本章将介绍神经网络补值处理的具体思路与过程。
5.1神经网络的基本原理
5.1.1神经网络的发展历史
神经网络最初是在1943年由心理学家W.S.McCulloch和数理逻辑学家W.Pitts建立,最早称为MP模型。实际上它是一种模拟自然界动物神经网络行为的数学模型,其核心思想为: 依据系统的不同复杂程度对内部大量连接节点之间的连接关系进行调整以进行信息处理。W.S.McCulloch和W.Pitts两位学者基于MP模型对神经元的形式化数学描述及其网络结构进行了描述,在此基础上证明了单个神经元也具有逻辑功能执行能力,在1949年有心理学家提出设想,认为神经元联系强度是可变的,他们的成果使得神经网络得到了更好的发展。20世纪60年代,神经网络进一步得到了发展,越来越多具有实际应用意义的网络模型被提出,这其中比较有名的包括自适应线性元件以及感知器等。M.Minsky等于1969年出版了Perceptron一书,指出感知器对高阶谓词问题的解决能力有限,其论点对神经网络的进一步研究产生了极大的影响,同时当时的串行计算机和人工智能也取得了非凡成就,其锋芒掩盖了发展新型计算机和人工智能的必要性,使得人工神经网络的研究出现了低潮。虽然如此,在此期间仍然有一些人工神经网络的研究者致力于这一方面的研究,提出了适应谐振理论(ART)、自组织映射等有名的模式,同时也有专家对其基础数学理论进行了进一步的拓展研究,他们的辛苦工作为神经网络的后续发展奠定了坚实的基础。J.J.Hopfield于1982年提出了Hopfield网格模型,并在该神经网络模型上引入“计算能量”的概念,以及如何判断网络稳定性的方法。继而在1984年,他又提出了基于连续时间的Hopfield模型。1986年,有学者提出了并行分布处理的相关理论,他们的工作进一步促进了神经网络技术的发展。神经网络的研究在不同阶段所取得的进展及其所取得的成绩受到了各国的重视,其中美国国会决议把1990年1月5日以后的十年定为“脑的十年”,国际研究组织号召它的成员国将“脑的十年”拓展成为全球行为。在日本的“真实世界计算(RWC)”项目中,神经网络的研究是一个重要的组成部分。
人工神经网络具有自学习的能力,其通过预先观测的输入和输出数据进行神经网络训练,将数据输入神经网络,通过网络进行分析并学习以获得输入与输出之间所蕴含的规律,最终依据学习的规律,对新输入的数据用神经网络来进行预测并输出结果,该过程在神经网络中被称为“训练过程”。
5.1.2神经网络的特征
以下四个特征是绝大部分神经网络都具备的。
(1) 非线性: 在真实的自然界,非线性关系普遍存在。人脑的思维过程就是一种典型的非线性特征现象。通常来说,神经元具有激活或抑制两种状态,实质上是一种数学上的非线性对应关系。
(2) 非局限性: 一个神经网络通常由多个神经元进行广泛连接而成并构成一个系统。系统的整体行为不仅取决于神经网络中单个神经元的特征,更主要的是由单元之间的相互连接、相互作用、相互影响所决定。通过神经元之间的大量连接来模拟生物大脑的非局限性。
(3) 非常定性: 人工神经网络能够自适应、自组织、自学习。神经网络不仅可以处理多种数据类型信息,而且在处理信息的同时,非线性系统关系本身也在不断变化。我们经常采用迭代过程描写系统的演化过程。
(4) 非凸性: 一个系统的演化方向,在一定条件下将取决于某个特定的状态函数。例如能量函数,它的极值相应于系统比较稳定的状态。非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。
在人工神经网络中,每个神经元处理单元可表示不同的对象,比如特征、字母、概念,也可以表征一些有意义的抽象模式。但神经网络中处理单元的类型通常分为3类: 输入单元、输出单元和隐藏单元。输入单元将接收经过处理后的外部世界输入的信号与数据; 输出单元实现神经网络系统处理结果的输出; 隐藏单元则处在输入单元和输出单元之间,是不能从系统外部观察到的隐藏单元。神经元之间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中,一个典型的神经网络的基本模式如图51所示。
图51神经网络的基本模式
根据学习环境的不同,神经网络的学习方式可分为监督学习和非监督学习,也称为有导师神经网络和无导师神经网络。在监督学习(有导师)神经网络中,网络输入端输入预先获得的样本输入数据,网络输出端输出数据与预先获得的样本期望输出进行比较,将差值作为误差,通过误差信号调整网络权值连接强度,经多次训练后最后会进行网络收敛,并固定为一个相对稳定的权值。面对新的环境中新的输入样本数据,网络会进一步学习并重新修改权值进行适应,以获得准确的输出。在非监督(无导师)学习神经网络中,没有给定样本的期望输出,神经网络在具体环境之中进行自学习。竞争学习神经网络是一个典型的非监督学习的神经网络,它根据输入样本数据自学习规则,并进一步调整神经元权值进而建立样本聚类。这其中自组织映射、自适应谐振理论网络等都是与竞争学习有关的典型模型。
5.1.3神经网络基本内容
人工神经网络模型主要考虑网络连接的拓扑结构、神经元的特征、学习规则等。目前,已有近40种神经网络模型,其中有反传网络、感知器、自组织映射、Hopfield网络、玻尔兹曼机、适应谐振理论等。根据连接的拓扑结构,神经网络模型可以分为:
(1) 前向网络。网络中各个神经元接收前一级的输入,并输出到下一级,网络中没有反馈,可以用一个有向无环路图表示。这种网络实现信号从输入空间到输出空间的变换,它的信息处理能力来自简单非线性函数的多次复合。网络结构简单,易于实现。反传网络是一种典型的前向网络。
(2) 反馈网络。网络内神经元间有反馈,可以用一个无向的完备图表示。这种神经网络的信息处理是状态的变换,可以用动力学系统理论处理。系统的稳定性与联想记忆功能有密切关系。Hopfield网络、玻尔兹曼机均属于这种类型。
学习是神经网络研究的一个重要内容,它的适应性是通过学习实现的。根据环境的变化,对权值进行调整,改善系统的行为。由Hebb提出的Hebb学习规则为神经网络的学习算法奠定了基础。Hebb规则认为: 学习过程最终发生在神经元之间的突触部位,突触的联系强度随着突触前后神经元的活动而变化。在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。有效的学习算法使得神经网络能够通过连接权值的调整,构造客观世界的内在表示,形成具有特色的信息处理方法,信息存储和处理体现在网络的连接中。
根据学习环境的不同,神经网络的学习方式可分为监督学习和非监督学习。在监督学习中,将训练样本的数据加到网络输入端,同时将相应的期望输出与网络输出相比较,得到误差信号,以此控制权值连接强度的调整,经多次训练后收敛到一个确定的权值。当样本情况发生变化时,经学习可以修改权值以适应新的环境。使用监督学习的神经网络模型有反传网络、感知器等。非监督学习时,事先不给定标准样本,直接将网络置于环境之中,学习阶段与工作阶段成为一体。此时,学习规律的变化服从连接权值的演变方程。非监督学习最简单的例子是Hebb学习规则。竞争学习规则是一个更复杂的非监督学习的例子,它是根据已建立的聚类进行权值调整。自组织映射、适应谐振理论网络等都是与竞争学习有关的典型模型。
研究神经网络的非线性动力学性质,主要采用动力学系统理论、非线性规划理论和统计理论来分析神经网络的演化过程和吸引子的性质,探索神经网络的协同行为和集体计算功能,了解神经信息处理机制。为了探讨神经网络在整体性和模糊性方面处理信息的可能,混沌理论的概念和方法将会发挥作用。混沌是一个相当难以准确定义的数学概念。一般而言,“混沌”是指由确定性方程描述的动力学系统中表现出的非确定性行为,或称为确定的随机性。“确定性”是因为它由内在的原因而不是外来的噪声或干扰所产生,而“随机性”是指其不规则的、不能预测的行为,只可能用统计的方法描述。混沌动力学系统的主要特征是其状态对初始条件的灵敏依赖性,混沌反映其内在的随机性。混沌理论是指描述具有混沌行为的非线性动力学系统的基本理论、概念、方法,它把动力学系统的复杂行为理解为其自身与其在同外界进行物质、能量和信息交换过程中内在的有结构的行为,而不是外来的和偶然的行为,混沌状态是一种定态。混沌动力学系统的定态包括静止、平稳量、周期性、准同期性和混沌解。混沌轨线是整体上稳定与局部不稳定相结合的结果,称为奇异吸引子。一个奇异吸引子有如下一些特征:
(1) 奇异吸引子是一个吸引子,但它既不是不动点,也不是周期解;
(2) 奇异吸引子是不可分割的,即不能分为两个以及两个以上的吸引子;
(3) 它对初始值十分敏感,不同的初始值会导致极不相同的行为。
5.1.4发展趋势与应用
人工神经网络特有的非线性适应性信息处理能力,克服了传统人工智能方法对于直觉,如模式、语音识别、非结构化信息处理方面的缺陷,使之在神经专家系统、模式识别、智能控制、组合优化、预测等领域得到成功应用。人工神经网络与其他传统方法相结合,将推动人工智能和信息处理技术不断发展。近年来,人工神经网络正在模拟人类认知的道路上更加深入发展,与模糊系统、遗传算法、进化机制等结合,形成计算智能,成为人工智能的一个重要方向,并将在实际应用中得到发展。将信息几何应用于人工神经网络的研究,为人工神经网络的理论研究开辟了新的途径。神经计算机的研究发展很快,已有产品进入市场。光电结合的神经计算机为人工神经网络的发展提供了良好条件。
神经网络的应用涉及各个领域,且取得了很大的进展。
自动控制领域: 主要有系统建模和辨识、参数整定、极点配置、内模控制、优化设计、预测控制、很优控制、滤波与预测容错控制等。
处理组合优化问题: 成功解决了旅行商问题,以及优选匹配问题、装箱问题、作业调度问题。
模式识别: 用于手写字符、汽车牌照、指纹和声音识别,还可用于目标的自动识别、目标跟踪、机器人传感器图像识别及地震信号的鉴别。
图像处理: 对图像进行边缘监测、图像分割、图像压缩和图像恢复。
机器人控制: 对机器人进行轨道控制,操作机器人眼手系统,机械手的故障诊断及排除,智能自适应移动机器人的导航。
医疗: 在乳房癌细胞分析、移植次数优化、医院费用节流、医院质量改进等方面均有应用。
5.2SOM与RBF的聚类与预测
用户对项目的评分数据是否完整将会严重影响协同过滤推荐的质量,现实的推荐系统所采用的评分数据通常是稀缺的,神经网络在项目聚类和数据预测方面已经有了比较好的应用。
此处利用SOM(自组织特征映射网络)对相似用户进行预聚类,利用同一聚类中用户兴趣特征的相似性,进行用户未评分项目的评价值预测,与文献(Xue et al,2005)提出的取用户评价均值相比提高了预测值的精度(神经网络预测方法过滤掉了与当前用户兴趣偏好偏差较大的评价值)。SOM预聚类算法采用离线处理与计算,较大数量的数据迭代计算对与其相对独立的在线推荐不会有太大影响,重要的是该方法保证了评价数据的完整性,能够适应不同的推荐场景。应用SOM进行相似用户聚类后,可进一步应用RBFN(径向基函数神经网络)对稀疏数据进行平滑处理。稀疏数据的平滑指对现有的稀疏的评价信息利用RBFN进行训练,通过神经网络学习,以期获得未评价项目的评价分值,从而得到接近评价矩阵(消除稀疏性后的矩阵)。该方法对有价值的数据尽可能保留并处理,保证了信息的完整性。
稀疏评价矩阵的平滑预测与聚类算法调用关系如图52所示。
图52神经网络补值算法调用关系图
在图52中,SOM(自组织特征映射网络)用来对相似用户进行预聚类,利用同一聚类中用户兴趣特征的相似性,进行用户未评分项目的评价值预测。依据SOM的聚类结果,应用RBF(径向基函数)来进行稀疏数据的平滑处理。其中SOM是一个无监督型神经网络,其输入为稀疏的用户对项目的评价矩阵,处理结果为若干个具有相似购物偏好的用户聚类簇。而RBF则是一个有监督型神经网络,在训练阶段其输入为稀疏的用户对项目的评价值,我们把用户所在聚类簇(SOM的结果)的评价均值作为RBF的期望输出,进而进行训练。训练好的网络可用来进一步对用户评价缺失值进行预测。
5.3SOM神经网络的相似用户聚类
SOM神经网络聚类算法最早由芬兰科学家Kohonen提出,该神经网络可以将一个N维空间平面(输入)映射到二维空间平面(输出),其思想与大脑的降维处理具有很强的理论联系。
SOM分为输入层与输出层,是一个两层的神经网络,输入层对应着高维输入向量,输出层由二维有序节点组成,输入层节点与输出层节点通过权重联系,在SOM神经网络学习过程中,获胜神经元为与之距离最短的输出层单元,并对其进行更新,同时调整其临域的神经元权重,使得输出保持输入拓扑特征。
SOM神经网络是一个层次型结构,具有竞争层。其典型结构如图53所示。
图53SOM神经网络结构
输入层: 该层接收外界输入信息,将输入模式向竞争层传递,起“观察”作用。
竞争层: 负责对输入模式进行“分析比较”,寻找规律,并归类。
1. SOM神经网络的基本原理
1) 分类与输入模式
分类和聚类是一个相对的过程,前者依据类别知识信号的指导,把神经网络不同的输入模式划分到各自相应的模式类中,聚类即是无导师的分类,其目的是将相似的输入模式划分为一类,而不是将不相似的输入模式进行分离,聚类后可以达到类内相似性的优选化和类间相似性的最小化。
自组织映射作为无导师(无监督)神经网络没有期望输出,其对于输入模式没有任何先验知识以判断其该属于哪一类。对于不同的具体输入,只能根据输入模式之间的相似程度来进行自学习,从而进行判断进行聚类,最终达到一种稳定的状态。所以,聚类依据是输入模式的相似性计算。
2) 相似性测量
向量之间的距离的衡量可以作为自组织映射的输入模式向量的相似性计算依据。通常有欧几里得距离和余弦相似性两种方法。
(1) 欧几里得距离法。
设X、Xi为两向量,其欧几里得距离可以表示为
d=‖X-Xi‖=(X-Xi)(X-Xi)T
d越小,X与Xi越接近,即相似性越高,当d=0时,X=Xi。以d=c(常数)为判据,可对相应的输入向量进行判断,进而聚类:
如图54所示,由于d12、d23、d31均小于T,d45、d56、d46均小于T,而d1i>T(i=4,5,6)、d2i>T(i=4,5,6)、d3i>T(i=4,5,6),故将输入模式X1~X6分为两个大类,分别为类1和类2。
图54基于欧几里得距离法的模式分类
(2) 余弦法。
设X、Xi为两向量,其夹角余弦可以表示为
cos=XXT‖X‖‖Xi‖
越小,X与Xi越接近,两者相似性越高; 当=0时,cos=1,X=Xi。同样以=0作为聚类分析的标准。
3) 竞争学习的基本原理
生理学中的神经细胞会具有侧抑制,这即是竞争学习的生理学基础。某个兴奋神经细胞会对其周围的神经细胞进行抑制。不错的抑制作用是竞争获胜的“唯我独兴”,这种做法称为“胜者为王”(WinnerTakeAll,WTA)。竞争学习就是从神经细胞的侧抑制现象中获得灵感进而建立的一种神经网络模式。它的学习基本步骤如下:
(1) 向量归一化。
对自组织映射网络中的输入模式向量X、竞争层中具体神经元的内星权向量Wj(j=1,2,…,m),分别做归一化处理,如图55所示,得到X^和W^j:
X^=X‖X‖,W^j=Wj‖Wj‖
图55向量归一化
(2) 计算获胜神经元。
将竞争层所有神经元的内星权向量W^j(j=1,2,…,m)与X^进行相似性计算。距离最短的神经元作为获胜神经元,权向量为W^j*:
‖X^-W^j*‖=minj∈{1,2,…,n}‖X^-W^j‖
‖X^-W^j*‖=(X^-Wj*)(X^-Wj*)T
=X^X^T-2W^j*X^T+W^j*W^Tj*=2(1-W^j*X^T)
W^j*X^T=maxj(W^jX^T)
(3) 权值调整与神经网络输出。
按WTA学习法则,获胜的神经元输出值为1,其余落败神经元输出则为0。即
yj(t+1)=1,j=j*
0,j≠j*
获胜的神经元将会进一步调整其权值Wj*。其权值具体调整公式为
Wj*(t+1)=W^j*(t)+ΔWj*=W^j*(t)+α(X^-W^j*),j=j*
Wj(t+1)=W^j(t),j≠j*
0<α≤1为学习率,α将会随着神经网络的进一步学习而变小,即调整度越来越小,最终趋向于聚类中心。
(4) 进一步归一化处理。
前面归一化后的权向量经过进一步调整后,新向量将会发生变化,变的不是单位向量,下一步工作将会对学习调整后的向量进行第二次归一化的处理,经过循环反复运算,最终学习率α将会衰减为0。
2. 自组织映射网络的拓扑结构
自组织映射网络共有两层,分别为输入层和输出层。
输入层: 将外界信息通过权向量汇集。输入层的形式与BP网相同,其节点数与样本实际的维数相等。
输出层: 输出层也是竞争层。其神经元的排列若干种形式,有一维线阵、二维平面阵以及三维栅格阵等。最经典的结构是二维平面阵,该形式更类似于大脑皮层,如图56所示。
图56二维SOM平面阵列
输出层的每个神经元将会同其周围的其他神经元进行侧向连接,最终结构如一个棋盘状,输入层的排列为单层神经元。
3. SOM权值的调整域
SOM网络采用的算法通常称为Kohonen,它是在“胜者为王”(WinnerTakeAll,WTA)学习规则的基础上改进而来的。Kohonen同WTA的主要区别如下。
WTA: 侧抑制是专享的。只有获胜的神经元才有权利调整权值,其他所有神经元都不会进行权值调整。
Kohonen算法: 获胜神经元还会对相邻的其他神经元产生影响,而且其影响程度依据邻近神经元距离获胜神经元的距离从远至近逐渐减弱,即为一个从兴奋渐变为抑制的过程。即,不但获胜的神经元要对权值调整,其邻近神经元依据距获胜神经元距离不同程度的调整权值。常见的调整方式有如下几种:
墨西哥草帽函数——当前获胜的神经元权值调整最为显著,与其邻近的神经元调整量则较小,通常由神经元与获胜的神经元距离来决定,距获胜节点越远,权值调整程度会越小,设定某一距离d0作为阈值,达到该值时不再调整权值,距离再远时,权值调整为负,若距离再更远则逐渐回归到0,如图57(a)所示。
图57权值调整函数
大礼帽函数——如图57(b)所示,其实际为墨西哥草帽函数的一种简化形式。
厨师帽函数——如图57(c)所示,它是对大礼帽函数进一步简化而来的,是一种更为精简的形式。
通常将获胜神经元作为中心,再设定一个邻域半径R,以获胜神经元为中心半径R内固定的范围作为获胜邻域。在自组织映射神经网络学习中,若神经元在获胜邻域范围内,则按其距获胜神经元的距离进行权值不同程度的调整。获胜邻域(半径)在初始阶段可以设定的较大,随着训练次数不断增加,其邻域也会不断收缩,最终邻域收缩为0。
4. SOM网络运行原理
SOM网络的实施通常分为训练阶段和实际工作阶段。在训练阶段,训练集中的样本将会随机输入网络,对输入样本中的某个输入模式,在输出层产生优选响应的作为获胜神经元。一般来说,在训练初始,输出层哪个位置的神经元对哪类输入模式产生优选响应是不能确定的。若输入模式发生改变,则二维平面的获胜神经元也会随之改变。获胜神经元临域周围的神经元因侧向相互作用也产生相互影响,其结果是获胜神经元包括其获胜邻域内的所有神经元的连接权向量均向输入方向作不同程度的调整,具体调整力度根据邻域内各神经元距离获胜神经元的远近而决定: 距离越近,调整幅度越大; 距离越远,调整幅度越小。最终通过自组织的方式,当经过大量输入模式训练后,输出层各神经元最终成为对特定输入模式类响应最敏感的神经元,该神经元对应的内星权向量最终成为各输入模式的中心向量。训练趋向于稳定后,两个模式类的属性特征相似时,代表这两类的神经元通常在位置上也是邻近的。最终的结果把输入模式转化为输出层上的样本模式类,从而完成自适应聚类的过程。
5. SOM学习方法
对应于上述运行原理,自组织映射网络采用的学习算法通常具有如下步骤:
1) 初始化
该阶段对输出层各权向量赋一个很小随机数,并对其进行归一化,得到W^j(j=1,2,…,m),建立初始获胜邻域Nj*(0)和学习率η初值。m为输出层上具体的神经元数量。
2) 接收输入
对训练集输入模式进行归一化处理,随机取某个输入模式输入网络,得到X^p(p=1,2,…,n),n为输入层具体神经元数量。
3) 计算获胜神经元
计算X^p与W^j的点积,从中找到的获胜神经元j*。
4) 计算并定义获胜神经元邻域Nj(t)
以j*作为中心确定在某个t时刻的半径,半径范围内的神经元进行权值调整,在初始阶段,邻域Nj(0)设的较大(为总神经元的40%~80%),随着其后的训练过程,Nj(t)随训练的增长而逐渐收缩,如图58所示。
图58邻域Nj*(t)的收缩
5) 调整权值
获胜邻域Nj(t)内的所有神经元均为获胜神经元,并对其进行权值调整。
Wij(t+1)=Wij(t)+α(t,N)[Xpi-Wij(t)]
i=1,2,…,n,p=1,2,…,n,j∈Nj*(t)
式中,α(t,N)是训练时间t和当前获胜神经元j*与调整邻域内第j个神经元之间的距离N的函数,该函数通常满足下述规律:
t↑→α↓,N↑→α↓; 如α(t,N)=α(t)e-N,α(t)可采用t的单调下降函数,有时也称为“退火函数”。
6) 结束判定
当满足学习率α(t)≤αmin时,训练将会结束; 若不满足该结束条件,则跳转到上述步骤2)继续训练。