因为课题需要,从入门到放弃式学习一下RBF神经网络,初衷是用其良好的未知函数逼近性能对未知干扰进行逼近,然后在控制律中进行补偿,不知是否可行,经过查阅相关文献,此方法应该是可以解决未知干扰项的逼近问题的;
一、简单了解一下,入门
RBF神经网络也是BP神经网络的一种,其区别在于RBF的隐含层和输入层之间的连接权值不是随机确定的,而是有一种固定算式,应该称其为径向基函数。输入到隐含层是非线性的,但是隐含层到输出又是线性的
什么是径向基函数
1985年,Powell提出了多变量插值的径向基函数(RBF)方法。径向基函数是一个取值仅仅依赖于离原点距离的实值函数,也就是Φ(x)=Φ(‖x‖),或者还可以是到任意一点c的距离,c点称为中心点,也就是Φ(x,c)=Φ(‖x-c‖)。任意一个满足Φ(x)=Φ(‖x‖)特性的函数Φ都叫做径向基函数,标准的一般使用欧氏距离(也叫做欧式径向基函数),尽管其他距离函数也是可以的。最常用的径向基函数是高斯核函数 ,形式为 k(||x-xc||)=exp{- ||x-xc||^2/(2*σ)^2) } 其中x_c为核函数中心,σ为函数的宽度参数 , 控制了函数的径向作用范围。https://www.cnblogs.com/pinking/p/9349695.html
简单来说,就是某个测试集样本p和某个训练集样本越接近,即欧式距离越小,那么在RBF作用后输出的值就越大。
实际上RBF是一个两层的神经网络,隐层是使用RBF作为激活函数的神经元,输出层采用线性函数的神经元,做一个线性分类。
所谓计算欧氏距离,实际上是将数据转化到高维空间,认为某个高维空间能够使得诗句在这个空间是线性可分的,,因此输出层是线性的。
中间隐含层的权值,首先第一层的权值设为输入矩阵P的转置,而第二层的权值和偏置是要通过输入参数T、以及第一层的输出来进行反推的。
其具体表达式为:
基本思想是:将数据转化到高维空间,使其在高维空间线性可分
Lazy RBF将训练集的每一个数据都当成是中心向量,但是如果训练集太大,核矩阵也会很大
就暂时学到这吧,后续还会继续更新