固定阈值的神经元网络已能够区分各种不同的复杂模式,比如表情、笔迹、口语、声呐信号和股票市场波动等信息都可以成为这种网络的分析素材。当然,这些模式都必须被妥善地安放,比如放在中心位置或置于某个基准位置,但其表现令人满意。我们现在的目的是弄清它的工作原理及局限。
要想完成模式识别的任务,这个网络必须具有层次结构:一个输入层、若干个内部层和一个输出层。在这个名为前馈神经网络的简单结构里,每个层次的神经元能使下一层次的神经元进入激发状态。那么模式识别的目标就是,当任何待识别的模式出现在输入层时,都能激发输出层的特定神经元。
在输入层,每个神经元对环境中的一些微小元素做出反应。这里的环境是指供识别的场景或波形,比如三角形。例如,一个画面可以被分解成许多呈微小正方形的像素,每个像素不是白色就是黑色(见图5-3)。每个输入神经元对应某个像素。当像素是黑色时,它就被激发。也就是说,输入层的神经元对黑色像素做出反应,发射脉冲,由此引起下一层神经元被激发并发射脉冲。这样持续下去直到脉冲到达输出层。
图5-3 用像素表示三角形
输入层的神经元通过轴突,以突触的形式与相邻的下一层神经元接触。如果下一层神经元被足够多的处于激发状态的上一层神经元所接触,那么也将被激发。这些神经元又引起下一层的神经元被激发,如此持续下去,直到脉冲到达输出层。在最简单的情况下,如果待识别的模式(三角形)确实存在,输出层就会有一个特定的神经元发射脉冲,表明模式被识别出来了。如果这个神经网络需要识别很多模式,则可以建立更多、更复杂的“经过编码”的输出脉冲。当特定的神经元发射脉冲后,我们就可以认为神经网络已识别了此模式:它在所处的环境中“看到了”此模式。
当然,也会出现模式并不存在而输出神经元错误地发射脉冲,或者模式存在而神经元没有发射脉冲的情况。这就要进行学习。前馈神经网络可以在一个“仲裁者”的帮助下进行学习,这个“仲裁者”需要指出应被激发的输出层神经元或编码。如果我们采用塞缪尔的观点,把发送一个输出信号当作一个预测,则当错误的输出层神经元被激发时,“仲裁者”将显示此预测是错误的。对于错误的预测,神经网络将对权重加以调节,从而在将来有相同的输入时得到正确的预测结果。要想完成这个调节过程,需要通过前面讲过的塞缪尔的操作过程来修正权重,只是具体细节有所不同。
神经网络权重变化的推理过程与塞缪尔的推理过程相似。在塞缪尔的推理中,权重变化用以提高国际跳棋程序识别棋局的能力,而对于前馈神经网络来说,通过权重的变化来调节神经元的激发机制,可以提高输出神经元对指定的输入模式做出正确反应的能力。