您的位置:首页 > 其它

从网页相关性TF-IDF到余弦定理的新闻分类的程序实现

2014-09-19 23:52 561 查看
前提:TF-IDF 模型是搜索引擎等实际应用中被广泛使用的信息检索模型,但对于 TF-IDF 模型一直存在各种疑问。本文为信息检索问题一种基于条件概率的盒子小球模型,其核心思想是把“查询串q和文档d的匹配度问题”转化为“查询串q来自于文档d的条件概率问题”。它从概率的视角为信息检索问题定义了比 TF-IDF 模型所表达的匹配度更为清晰的目标。此模型可将 TF-IDF 模型纳入其中,一方面解释其合理性,另一方面也发现了其不完善之处。另外,此模型还可以解释 PageRank 的意义,以及 PageRank
权重和 TF-IDF 权重之间为什么是乘积关系.--->引用(http://baike.baidu.com/view/1228847.htm?fr=aladdin)。

2014年9月19日23:49:07 实现IF-IDF。才30%。坑啊,后期的阈值怎么设置还是需要研究的~

package com.lean;

import java.util.ArrayList;
import java.util.Arrays;

/*
* 1.如何度量网页和查询的相关性---信息检索领域
* TF-IDF(词频-逆文本频率指数)算法:
* TF词频=(词出现的次数/文本中中单词的总数)
* IDF=log(D/DW)=log(网页总数/包含特定单词的网页)---->为什么是log(),数学之美给出的解释是“一个特定条件下关键词的概率分布的交叉熵”
* 相关性=TF1*IDF1+TF2*IDF2+TF3*IDF3+...
*
* 2.如何利用余弦定理到新闻的自动分类算法
* 计算每个新闻词汇表的IDF。
* 将每个新闻词汇表IDF当做特征向量-->数组实现,每个下标对应特定的单词
* 利用余弦公式计算新闻两两之间的夹角A,(A角度越大,相关性就越小,平行时相关性最大)
* 不断合并A<T(T代表阈值,根据经验划分)产生的小类
* 继续计算各个小类的特征向量,继续合并,直到合并为1个大类。
* 根据合并的层次大小,决定新闻分类的规模,ok
*
*
* 3.优化算法复杂度:
* 余弦定理的分子分母优化,做记忆化存储。
* 删除虚词(的,是,和,一些连词,副词,介词,只定位实词"aXb"模式)
* 位置的加权(主题的关键词权重>正文,正文首尾关键词权重>中间)
*
* 模拟算法开始啦~~~
*/
public class newCate {
int A[]={};
static int news1[]={0,1,2,3,4,5,6,7,8,9,1,2,3,4,5,1,2,3,3,3};//代表一条新闻。文字用数字代替~~~
static int news2[]={12,13,19,11,12,13,14,15,11,12,13,13,3};
static int news3[]={10,11,12,13,24,24,25,21,22,23,23,13};

static int Keys[]={3,2,8};//3个关键词,当然假设已经经过分词处理过的结果

/*
* 计算词频
*/
private double[] getTF(ArrayList<int[]> newsList ,int keys[]) {
int n=newsList.size(),m=Keys.length;
double TF[]=new double[m];//词频

for (int i = 0; i < TF.length; i++) {
TF[i]=0;
}
/*
* 可以优化到nlogn~~~懒的写了~~
*/
for (int i = 0; i < m; i++) {
for (int j = 0; j < n; j++) {
int news[]=newsList.get(j);
int K=news.length;
for (int k = 0; k <K ; k++) {
if(keys[i]==news[k]) TF[i]+=(1.0/K);
}
}
}
return TF;
}
/*
* 计算各个关键词的权重
* IDF=log(D/DW)=log(网页总数/包含特定单词的网页)
*/
private double[] getIDF(ArrayList<int[]> al,int keys[]) {
int D=al.size(),DW=0;
double IDF[]=new double[keys.length];

for (int i = 0; i < IDF.length; i++) {
DW= getDw(al,keys[i]);
IDF[i]+=Math.log(D/DW);
}
return IDF;
}

/*
* 计算出现关键词的新闻数
*/
private int getDw(ArrayList<int[]> newsList, int i) {
int cnt=0;
for (int j = 0; j < newsList.size(); j++) {
int news[]=newsList.get(j);
for (int k = 0; k < news.length; k++) {
if(news[k]==i){
cnt++;
break;
}
}
}
return cnt;
}

/*
* 词频*权重的集合
* 相关性=TF1*IDF1+TF2*IDF2+TF3*IDF3+...
*/
private double getRelate(double TF[],double IDF[]) {
int n=TF.length;
double ans=0.0;
for (int i = 0; i <n; i++) {
ans+=TF[i]*IDF[i];
}
return ans;
}

public static void main(String[] args) {
newCate nc=new newCate();

//---------------IF-IDF------------
//新闻网页集合
ArrayList<int[]> newsList=new ArrayList<int[]>();
newsList.add(news1);
newsList.add(news2);
newsList.add(news3);
newsList.add(news3);
newsList.add(news3);
newsList.add(news3);
double tf[]=nc.getTF(newsList, Keys);
double idf[]=nc.getIDF(newsList, Keys);
System.out.println("关键词词频集合="+Arrays.toString(tf));
System.out.println("关键词贡献集合="+Arrays.toString(idf));

double relate=nc.getRelate(tf, idf);
System.out.println("关键词的相关性="+relate);

//-----------news_cate-----------------------

}

}


新闻自动分类。程序貌似有点问题~~,实在是坑啊。阈值是硬伤

2014年9月20日12:28:55

package com.lean;

import java.util.ArrayList;
import java.util.Arrays;
import java.util.Collections;
import java.util.Comparator;
import java.util.Vector;

/*
* 1.如何度量网页和查询的相关性---信息检索领域
* TF-IDF(词频-逆文本频率指数)算法:
* TF词频=(词出现的次数/文本中中单词的总数)
* IDF=log(D/DW)=log(网页总数/包含特定单词的网页)---->为什么是log(),数学之美给出的解释是“一个特定条件下关键词的概率分布的交叉熵”
* 相关性=TF1*IDF1+TF2*IDF2+TF3*IDF3+...
*
* 2.如何利用余弦定理到新闻的自动分类算法
* 计算每个新闻词汇表的TF-IDF。
* 将每个新闻词汇表TF-IDF当做特征向量-->数组实现,每个下标对应特定的单词
* 利用余弦公式计算新闻两两之间的夹角A,(A角度越大,相关性就越小,平行时相关性最大)
* 不断合并A<T(T代表阈值,根据经验划分)产生的小类
* 继续计算各个小类的特征向量,继续合并,直到合并为1个大类。
* 根据合并的层次大小,决定新闻分类的规模,ok
*
*
* 3.优化算法复杂度:
* 余弦定理的分子分母优化,做记忆化存储。
* 删除虚词(的,是,和,一些连词,副词,介词,只定位实词"aXb"模式)
* 位置的加权(主题的关键词权重>正文,正文首尾关键词权重>中间)
*
* 模拟算法开始啦~~~
*/
public class newCate {
int A[]={};
static int news1[]={0,1,2,3,4,5,6,7,8,9,1,2,3,4,5,1,2,3,3,3};//代表一条新闻。文字用数字代替~~~
static int news2[]={2,12,13,19,11,12,13,14,15,11,12,13,13,3};
static int news3[]={3,10,11,12,13,24,25,21,2,2,23,13};
static int news4[]={1,11,1,13,24,25,21,22,23,23,13};
static int news5[]={10,11,12,3,24,4,25,1,22,23,23,13};

static int Keys[]={3,2,8};//3个关键词,当然假设已经经过分词处理过的结果

static final int MAXN=1<<12;//4096个常用词汇
static final int MAXN_T=1<<5;//4096个常用词汇
static double wolds[]=new double[MAXN];   //词汇表
//double A[][]=new double[MAXN_T][MAXN_T]; //i,j向量的夹角的余弦值

final static double T=0.3;   //新闻归一化设定的阈值

/*
* 计算词频集合--每个实词的词频
*/
private double[] getTF(ArrayList<int[]> newsList ,int keys[]) {
int n=newsList.size(),m=Keys.length;
double TF[]=new double[m];//词频

for (int i = 0; i < TF.length; i++) {
TF[i]=0;
}
/*
* 可以优化到nlogn~~~懒的写了~~
*/
for (int i = 0; i < m; i++) {
for (int j = 0; j < n; j++) {
int news[]=newsList.get(j);
int K=news.length;
for (int k = 0; k <K ; k++) {
if(keys[i]==news[k]) TF[i]+=(1.0/K);
}
}
}
return TF;
}
/*
* 计算各个关键词的权重集合--每个实词贡献率的集合
* IDF=log(D/DW)=log(网页总数/包含特定单词的网页)
*/
private double[] getIDF(ArrayList<int[]> al,int keys[]) {
int D=al.size(),DW=0;
double IDF[]=new double[keys.length];

for (int i = 0; i < IDF.length; i++) {
DW= getDw(al,keys[i]);
IDF[i]+=Math.log(D/DW);
}
return IDF;
}

/*
* 计算出现关键词的新闻数
*/
private int getDw(ArrayList<int[]> newsList, int i) {
int cnt=0;
for (int j = 0; j < newsList.size(); j++) {
int news[]=newsList.get(j);
for (int k = 0; k < news.length; k++) {
if(news[k]==i){
cnt++;
break;
}
}
}
return cnt;
}

/*
* 词频*权重的集合
* 相关性=TF1*IDF1+TF2*IDF2+TF3*IDF3+...
*/
private double getRelate(double TF[],double IDF[]) {
int n=TF.length;
double ans=0.0;
for (int i = 0; i <n; i++) {
ans+=TF[i]*IDF[i];
}
return ans;
}

private Vector<double[]> getWoldsByNewsList(ArrayList<int[]> newsList, int[] Keys, double[] tf, double[] idf) {
newCate nc=new newCate();
int n=newsList.size(),m=Keys.length;

Vector<double[]> v=new Vector<double[]>();//新闻向量集合

for (int i = 0; i < n; i++) {//newsList
double v_k[]=new double[MAXN_T];
for (int j = 0; j <m; j++) {//Key
int news[]=newsList.get(i);
int K=news.length;
for (int k = 0; k <K ; k++) {  //news
if(Keys[j]==news[k])v_k[Keys[j]]+=(1.0/K); ;
}

}
for (int j = 0; j <m; j++) {
v_k[j]=idf[j]*v_k[j];
}
v.add(v_k);
}
return v;
}

/*
* 每条新闻的特征向量--->计算两两之间的余弦值
*
*/
private static double[][] getAByVect(Vector<double[]> v) {
int n=v.size();
double A[][]=new double[n*n][n*n];

for (int i = 0; i <n; i++) {
for (int j = i; j <n; j++) {
double fenzi=0.0,fenmu=0.0;
double a1[]=v.get(i),a2[]=v.get(j);
int m=a1.length;
for (int k = 0; k < m; k++) {
if(a1[k]==0 || a2[k]==0)continue;
fenzi+=a1[k]*a2[k];
}
double fm_1=0.0,fm_2=0.0;
for (int k = 0; k < m; k++) {
if(a1[k]==0)
continue;
fm_1+=a1[k]*a1[k];
}
for (int k = 0; k < m; k++) {
if(a2[k]==0)
continue;
fm_2+=a2[k]*a2[k];
}
fenmu=Math.sqrt(fm_1)*Math.sqrt(fm_2);
A[i][j]=fenzi/fenmu;
}
}
return A;
}

public static void main(String[] args) {
newCate nc=new newCate();
//---------------IF-IDF------------
//新闻网页集合
ArrayList<int[]> newsList=new ArrayList<int[]>();
newsList.add(news1);
newsList.add(news2);
newsList.add(news3);
newsList.add(news4);
newsList.add(news5);
double tf[]=nc.getTF(newsList, Keys);
double idf[]=nc.getIDF(newsList, Keys);
System.out.println("关键词词频集合="+Arrays.toString(tf));
System.out.println("关键词贡献集合="+Arrays.toString(idf));
double relate=nc.getRelate(tf, idf);
System.out.println("本次查询的相关性="+relate);

//-----------news_cate-----------------------
//计算每个新闻的词汇表集合
Vector<double[]> TF_IDF_list= nc.getWoldsByNewsList(newsList,Keys,tf,idf);
for (int i = 0; i < TF_IDF_list.size(); i++) {
System.out.println(Arrays.toString(TF_IDF_list.get(i)));
}

//输出新闻之间的余弦值
double A[][]=getAByVect(TF_IDF_list);
for (int i = 0; i < 10; i++) {
for (int j = 0; j < 10; j++) {
System.out.print(A[i][j]+" ");
}
System.out.println("");
}
System.out.println("归一化新闻分类");
//设定阈值,合并新闻分类--自低向上合并,归一化
megerByA(A,T);

}

/*
* 归一化-->新闻分类合并
*
*/
private static void megerByA(double[][] A, double T) {
int n=A.length;
//NewsA na[]=new NewsA[n*(n-1)];
ArrayList<NewsA> al=new ArrayList<NewsA>();
int k=0;
for (int i = 0; i < n; i++) {
for (int j = i; j <=i; j++) {
NewsA ne=new NewsA(i,j,A[i][j]);
al.add(ne);
}
}
Collections.sort(al, new cmp());
int nn=al.size();
int r=nn-1;
double d=al.get(r).data;

/*for (int i = 0; i < nn; i++) {
System.out.println(al.get(i).data);
}*/
int cnt=1;
while(true){
System.out.println("第"+(cnt++)+"类");
double dd=d;
while(0<=r && (d-dd)<=T && dd>=0){
NewsA aa=al.get(r);
dd=aa.data;
if(dd>-0.00001 && dd<0.00001) {
r--;
continue;
}else{
if(dd>0){
System.out.println(aa.i+","+aa.j+"  "+dd);
}
}
r--;
}
d-=T;
if(d<0) break;
}

}

}
class cmp implements Comparator<NewsA>{

@Override
public int compare(NewsA o1, NewsA o2) {
if(o1.data>=o2.data){
return 1;
}
return 0;
}

}
class NewsA{
int i;
int j;
double data;
public NewsA(int i,int j,double data) {
this.i=i;
this.j=j;
this.data=data;

}
}

托坑了。本想用c语言写的。java语言突然不熟悉了。。。。也算是出坑了。

算法复杂度有点高了。我想说优化代码还木写。赶紧吃饭~~~先
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  idf 合并 数学 算法