您的位置:首页 > 大数据 > 人工智能

北京理工大学人工智能第三次作业

2012-11-13 08:59 274 查看
第一题:请利用人工神经网络表示如下布尔函数:



解答:

1)首先求出输入输出映射集合



2)确定隐含层函数,得到输出层神经元映射集合

{

(1,0,0,0,0,0,0,0)->0,

(0,1,0,0,0,0,0,0)->1,

(0,0,1,0,0,0,0,0)->0,

(0,0,0,1,0,0,0,0)->1,

(0,0,0,0,1,0,0,0)->1,

(0,0,0,0,0,1,0,0)->0,

(0,0,0,0,0,0,1,0)->0,

(0,0,0,0,0,0,0,1)->1,

}

应用LMS算法在该集合上进行学习,便得到隐含层到输出层的连接权值向量为(0,1,0,1,1,0,0,1),显然这样得到的网络是满足要求的。网络结构如下:



 

批改:首先应该说明神经网络的整合函数与激活函数

 

 


 




 

批改:正确

 

第三题:应用于模式识别问题时,人工神经网络中隐含层所起的主要作用是什么?从这一点出发,说明径向基函数网络为什么能够解决非线性分类问题?

解答:

隐含层起到增加维数的作用,线性不可分问题通过增加隐含层,由原始空间映射到K维空间。在K维空间里,问题变成线性可分问题,径向基函数在线性可分的条件下就可对插值问题进行求解。

 

批改:不准确,在模式识别问题中神经网络的隐含层主要作用是提取输入特征的类别信息,从而实现模式分类。在径向基神经网络中,隐含层的每个神经元代表了一个类别的中心,输入特征向量通过距离度量可以确定其最近的神经元,从而实现模式分类。

 

 

 

第四题:利用Boltzmann机解决TSP问题。试给出相应算法伪码以及关键的数据结构。

解答:

//定义Integer s

表示网络


//s[i][j]==1时表示神经元兴奋

//s[i][j]==0时,表示神经元抑制。

 

T=T0//(较高值)

Do

{

      //按一定策略降温,减小T值

      for i=1:n

      {

           for j=1:n

           {

                 flag=0;

                 //计算网络能量E_before

                 //改变s[i][j]的状态

                 //计算网络能量E_after

                 if (E_before>E_after)

                 {

                      flag=1;

                      //跳出两重for循环

                 }

                 else

                 {

                      if (rand<1/(1+exp(-ξ/T)))

                      {

                            //跳出两重for循环

                      }

                 }

                 //改变s[i][j]的状态。

           }

      }

}while T>0 || flag==1

 

批改:正确

 

 

 

第五题:如何利用SOFM网络实现数据聚类?试举一例说明。

解答:

在自组织特征映射网中,存在输入向量和输出神经元所对应的权重向量。每一输出神经元计算输入向量和权重向量之间的距离,然后据此利用竞争学习规则对权向量进行调节,每一神经元的邻域可以是正方形、长方形或圆形,初始的邻域通常为整个网络的一半或三分之二大小,然后,随着算法的进行,邻域按一定规律缩小。在竞争学习中,胜利者和其邻域神经元使用权重调节算法对其权重进行调节,而其他神经元保持权重不变。

例如在对一些颜色不同的点进行聚类时,每次输入一个样本之后,离样本颜色最接近的点以及点附近的神经元竞争获胜,这些神经元的颜色向输入的样本点的颜色靠近。如果输入另一个颜色,另一片区域的颜色会跟输入的颜色靠拢。重复很多次之后,每个颜色会对应比较固定的一片区域,就实现了颜色的聚类。

 

批改:你们是从教学网站上下的题吗?为什么和我出的题不一样,而且很多这样的

 
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: