浅层深度学习的自然语言研究(2)
2014-09-16 09:36
204 查看
这期的主要内容就是讲下Word2Vec的原理和具体的实验过程,这次文字就少一点,主要是我做的几个PPT的图片。
首先,谈一下word2vec的原理,我这里要强调一下,开放的程序中已经做了很大的改动和简化,其实基本就没有第一层,为了加快训练速度,还做了很多其他的近似,所以看程序的时候,发觉与作者描述有出入,所以这里要强调下。
然后,讲一下主要的实验步骤,我们实验小组一直在自己下载“天涯杂谈”的数据,所以我也是用的这个数据。
最后,就要来看一下我们的实验效果了,感觉效果还可以,图片跟上:
后面是类比的结果:
首先,谈一下word2vec的原理,我这里要强调一下,开放的程序中已经做了很大的改动和简化,其实基本就没有第一层,为了加快训练速度,还做了很多其他的近似,所以看程序的时候,发觉与作者描述有出入,所以这里要强调下。
然后,讲一下主要的实验步骤,我们实验小组一直在自己下载“天涯杂谈”的数据,所以我也是用的这个数据。
最后,就要来看一下我们的实验效果了,感觉效果还可以,图片跟上:
后面是类比的结果:
相关文章推荐
- 浅层深度学习的自然语言研究(3)
- 浅层深度学习的自然语言研究(4)
- 浅层深度学习的自然语言研究(1)
- 基于大数据与深度学习的自然语言对话
- 深度学习-自然语言模型
- 李飞飞新研究:基于深度学习和视觉化语言来了解不同物体间的关系
- 应用于深度学习和自然语言处理的注意机制和记忆模型
- 深度学习和自然语言处理中的attention和memory机制
- 深度学习和自然语言处理的应用和脉络1-基础
- 深度学习和自然语言处理中的注意和记忆Attention and Memory in Deep Learning and NLP
- 深度学习(三十八)初识DL在自然语言序列标注中的应用-未完待续
- 3-深度学习-自然语言模型
- 基于大数据与深度学习的自然语言对话
- 深度学习和自然语言处理的注意机制和记忆模型
- 深度学习和自然语言处理的应用和脉络4-隐语义模型SVD,PLSA,LDA,LFM-推荐系统
- 深度学习和自然语言处理中的attention和memory机制
- 深度学习和自然语言处理的应用和脉络2-复杂模型,最大熵-隐马尔科夫模型-条件随机场
- 应用于深度学习和自然语言处理的注意机制和记忆模型
- 深度学习-自然语言模型
- 基于大数据与深度学习的自然语言对话