概率神经网络 下载本文

内容发布更新时间 : 2024/12/28 11:28:20星期一 下面是文章的全部内容请认真阅读。

概率神经网络概述

概率神经网络(Probabilistic Neural Network,PNN)是由D. F. Specht 在1990年提出的。主要思想是贝叶斯决策规则,即错误分类的期望风险最小,在多维输入空间内分离决策空间。它是一种基于统计原理的人工神经网络,它是以Parazen窗口函数为激活函数的一种前馈网络模型。PNN吸收了径向基神经网络与经典的概率密度估计原理的优点,与传统的前馈神经网络相比,在模式分类方面尤其具有较为显著的优势。

1.1 概率神经网络分类器的理论推导 由贝叶斯决策理论:

if p(w|x)?p(w|x) ?j?i,then x?w (1-1)

iji???其中

p(w|x)?p(w)p(x|w)。

iii??一般情况下,类的概率密度函数p(wi|计如下:

x)是未知的,用高斯核的Parzen估

2???1p(x|w)??exp(?2?N2??Niik?1il2l1x?xik2?(1-2) )

?其中,xik是属于第wi类的第k个训练样本,是样本向量的维数,平滑参数,Ni是第wi类的训练样本总数。

去掉共有的元素,判别函数可简化为:

l?是

?g(x)?i?p(w)Nix?xik?2N?exp(?k?1ii2?2 ) (1-3)

1.2 概率神经元网络的结构模型

PNN的结构以及各层的输入输出关系量如图1所示,共由四层组成,当进行并行处理时,能有效地进行上式的计算。

图1 概率神经网络结构

如图1所示,PNN网络由四部分组成:输入层、样本层、求和层和竞争层。PNN的工作过程:首先将输入向量向量与训练样本向量之间的差值

x输入到输入层,在输入层中,网络计算输入

??ik?|x-x|的大小代表着两个向量之间的距离,

所得的向量由输入层输出,该向量反映了向量间的接近程度;接着,输入层的输出向量

x-xi?Mi?1??ik送入到样本层中,样本层节点的数目等于训练样本数目的总和,

N??N,其中M是类的总数。样本层的主要工作是:先判断哪些类别输入

i向量有关,再将相关度高的类别集中起来,样本层的输出值就代表相识度;然后,将样本层的输出值送入到求和层,求和层的结点个数是M,每个结点对应一个类,通过求和层的竞争传递函数进行判决;最后,判决的结果由竞争层输出,输出结

果中只有一个1,其余结果都是0,概率值最大的那一类输出结果为1。

2.基本学习算法

第一步:首先必须对输入矩阵进行归一化处理,这样可以减小误差,避免较小的值呗较大的值“吃掉”。设原始输入矩阵为:

?X?XX??????X11XXX122122?m2m1?X??X?? (2-1)

?????X?1n2nmn从样本的矩阵如式(2-1)中可以看出,该矩阵的学习样本由m个,每一个样本的特征属性有n个。在求归一化因子之前,必须先计算B矩阵:

T

?1?B???x1k?Tnk?112?x2kk?1n2??1?

?xmk??n2k?1然后计算:

Cm?n?Bm?1?11?1?1?n?Xm?n??????????x11x112Mx21Mx22?1x1n?xm1M2?xmm2M?2Mx2n1??m?xmnM2MMMm??????????CC?CC???????CC11122122m1m2?????????C?C2nmnC?1n (2-2)