HTMLParser(一个比较流行的html代码解析、处理开源项目)学习,总结
2007-05-11 00:33
1011 查看
主页:
http://htmlparser.sourceforge.net/
HtmlParser初步研究
bylostfire
这两天准备做一些网站编程的工作,于是对HtmlParse小研究了一下,目的是快速入手,而不是深入研究,做了一下整理,和大家共同讨论一下。
一,数据组织分析:
HtmlParser主要靠Node、AbstractNode和Tag来表达Html,因为Remark和Text相对简单,此处就将其忽略了。
Node是形成树结构表示HTML的基础,所有的数据表示都是接口Node的实现,Node定义了与页面树结构所表达的页面Page对象,定义了获取父、子、兄弟节点的方法,定义了节点到对应html文本的方法,定义了该节点对应的起止位置,定义了过滤方法,定义了Visitor访问机制。
AbstractNode是Node的一种具体的类实现,起到构成树形结构的作用,除了同具体Node相关的accetp方法,toString,toHtml,toPlainTextString方法以外,AbstractNode实现了大多基本的方法,使得它的子类,不用理会具体的树操作。
Tag是具体分析的主要内容。Tag分成composite的Tag和不能包含其他Tag的简单Tag两类,其中前者的基类是CompositeTag,其子类包含BodyTag,Div,FrameSetTag,OptionTag,等27个子类;而简单Tag有BaseHrefTag、DoctypeTag,FrameTag,ImageTag,InputTag,JspTag,MetaTag,ProcessingInstructionTag这八类。
Node分成三类:
RemarkNode:代表Html中的注释
TagNode:标签节点,是种类最多的节点类型,上述Tag的具体节点类都是TagNode的实现。
TextNode:文本节点
二,Visitor方式访问Html:
1,整体解析过程
用一个URL或页面String做一个Parser
用这个Parser做一个Visitor
使用Parser.visitAllNodeWith(Visitor)来遍历节点
获取Visitor遍历后得到的数据
2,Visit过程
做解析之前做的事情:visitor.beginParsing();
每次取到一个节点Node,让该Node接受accept该Visitor
做解析后做的事情:visitor.finishedParsing();
3,获取节点的过程:逐步遍历Html,分析出Node。此部分较为复杂,且对于我们应用来说无需很多了解,暂跳过。
4,节点访问
节点访问采用Visitor模式,Node的accept方法和具体Visitor的visit方法是关键。
首先三类Node来accept的方式各不相同:
对于所有TagNode都使用一个accept方法,即TagNode的accept方法。首先判断是否是标签结尾,如果是就visitor.visitEndTag(this);否则visitor.visitTag(this);
如果是TextNode,那就visitor.visitStringNode(this);就可以了。
如果是RemarkNode,那就visitor.visitRemarkNode(this);就可以了。
实际上NodeVisitor里边这四种visit方法都是空的,因为在不同的Visitor中对于这三类节点的处理是不同的;对于需要处理的节点,只要重载对应的visit方法就行了,如果不处理那就不理会就可以了;另外,如果用户用自己的Visitor,那么还可以灵活的处理不同类型的节点了。
系统为我们实现了下面我要介绍的8种Visitor,实际上可以看作是系统给我们演示了如何做各种各样的Visitor来访问Html,因为实际上我们要真正来用HtmlParser的话,还需要特定的Visitor,而通过简单的这些系统提供的Visitor组合是难以做成什么事情的。
三,系统Visitor功能简介:
ObjectFindingVisitor:用来找出所有指定类型的节点,采用getTags()来获取结果。
StringBean:用来从一个指定的URL获取移除了<SCRIPT></SCRIPT>和<PRE></PRE>之间代码的Html代码,也可以用做Visitor,用来移除这两种标签内部的代码,采用StringBean.getStrings()来获取结果。
HtmlPage:提取Title,body中的节点和页面中的TableTag节点。
LinkFindingVisitor:找出节点中包含某个链接的总个数。
StringFindingVisitor:找出遍历的TextNode中含有指定字符串的个数。
TagFindingVisitor:找出指定Tag的所有节点,可以指定多种类型。
TextExtractingVisitor:从网页中把所有标签去掉来提取文本,这个提取文本的Visitor有时是很实用的,只是注意在提取文本时将标签的属性也去掉了,也就是说只剩下标签之间的文本,例如<a>中的链接也去掉了。
UrlModifyingVisitor:用来修改网页中的链接。
四,Filter
如果说visitor是遍历提取信息,当然这个信息可以包括某些节点或者从节点分析出来的更有效的信息,这都取决于我们的Visitor做成什么样子,那么Filter则目标很明确,就是用来提取节点的。所以说要想用HtmlParser,首先要熟悉上面讲到的数据组织。
系统定义了17种具体的Filter,包括依据节点父子关系的Filter,连接Filter组合的Filter,依据网页内容匹配情况的filter,等等。我们也可以implementFilter来做自己的Filter来提取节点。
Filter的调用是同Visitor独立的,因为也无需先filter出一些NodeList,再用Visitor来访问。调用Filter的方法是:
NodeListnodeList=myParser.parse(someFilter);
解析之后,我们可以采用:
Node[]nodes=nodeList.toNodeArray();
来获取节点数组,也可以直接访问:
Nodenode=nodeList.elementAt(i)来获取Node。
另外,在Filter后得到NodeList以后,我们仍然可以使用NodeList的extractAllNodesThatMatch(someFilter)来进一步过滤,同时又可以用NodeList的isitAllNodesWith(someVisitor)来做进一步的访问。
这样,我们可以看到HtmlParser为我们提供了非常方便的Html解析方式,针对不同的应用可以采用visitor来遍历Html节点提取数据,也可以用Filter来过滤节点,提取出我们所关注的节点,再对节点进行处理。通过这样的组合,一定能够找出我们所需要的信息。
参考:
http://htmlparser.sourceforge.net/
http://www.blogjava.net/rocky/archive/2005/12/21/24997.aspx
http://www.westing.cn/xblog/?p=90
获取帮助:
邮件列表:http://sourceforge.net/mail/?group_id=24399主页上的sample:http://htmlparser.sourceforge.net/samples.html在发布的包里没有demo或example文件夹,但是在有些类,比如org.htmlparser.Parser
有publicstaticvoidmain(String[]args)这个方法,其中有一些该类的使用方法。
org.htmlparser.Parser.main(String[]args)中就有Parseawebpageandprintthetagsinasimpleloop的方法。这在http://htmlparser.sourceforge.net/samples.html上有说明。
特别的:一个javawebstarthttp://htmlparser.sourceforge.net/samples/filterbuilder.jnlp帮助认识和使用filter。
一些常见处理:
Togetallthetextcontentfromawebpage,usetheTextExtractingVisitor,likeso:
Ifyouwantamorebrowserlikebehaviour,usetheStringBeanlikeso:
Togetallthetextcontentfromawebpageyoualreadyhaveinastring:
HTMLParser使用
最近在研究lucene,主要做ftp搜索和网页的站内搜索。
ftp搜索比较好做,主流的FTP有两种一种是IIS的一种是Server-U的.
真对这两种FTP分别进行分析就可以得到FTP资源的文件名和路径及大小和日期
然后对其进行索引就可以了,比较简单。
网页检索可不像ftp那样了,我试着用lucene自带的htmlparser,解析纯英文的网页
没有问题,可解析中文的网页时有时会遇到编码问题。郁闷。。。
SourceForge搜到了一个开源的HTMLParser。网址是http://htmlparser.sourceforge.net
目前的版本为1.6。
测试代码为:
importjava.io.*;
importorg.htmlparser.filters.*;
importorg.htmlparser.*;
importorg.htmlparser.nodes.*;
importorg.htmlparser.tags.*;
importorg.htmlparser.util.*;
importorg.htmlparser.visitors.*;
publicclassHTMLParserTest
{
publicstaticvoidmain(Stringargs[])throwsException
{
Stringpath="D://Webdup//MyWebsites//biti//download//latest//cisco.biti.edu.cn//index.html";
StringBuffersbStr=newStringBuffer();
BufferedReaderreader=newBufferedReader(newFileReader(newFile(path)));
Stringtemp="";
while((temp=reader.readLine())!=null)
{
sbStr.append(temp);
sbStr.append("/r/n");
}
reader.close();
Stringresult=sbStr.toString();
readAll(result);
readTextAndLink(result);
readByHtml(result);
readTextAndTitle(result);
}
//按页面方式处理.解析标准的html页面
publicstaticvoidreadByHtml(Stringcontent)throwsException
{
ParsermyParser;
myParser=Parser.createParser(content,"GB2312");
HtmlPagevisitor=newHtmlPage(myParser);
myParser.visitAllNodesWith(visitor);
StringtextInPage=visitor.getTitle();
System.out.println(textInPage);
NodeListnodelist;
nodelist=visitor.getBody();
System.out.print(nodelist.asString().trim());
}
//读取文本内容和标题
publicstaticvoidreadTextAndTitle(Stringresult)throwsException
{
Parserparser;
NodeListnodelist;
parser=Parser.createParser(result,"GB2312");
NodeFiltertextFilter=newNodeClassFilter(TextNode.class);
NodeFiltertitleFilter=newNodeClassFilter(TitleTag.class);
OrFilterlastFilter=newOrFilter();
lastFilter.setPredicates(newNodeFilter[]{textFilter,titleFilter});
nodelist=parser.parse(lastFilter);
Node[]nodes=nodelist.toNodeArray();
Stringline="";
for(inti=0;i<nodes.length;i++)
{
Nodenode=nodes[i];
if(nodeinstanceofTextNode)
{
TextNodetextnode=(TextNode)node;
line=textnode.getText();
}
else
if(nodeinstanceofTitleTag)
{
TitleTagtitlenode=(TitleTag)node;
line=titlenode.getTitle();
}
if(isTrimEmpty(line))
continue;
System.out.println(line);
}
}
//分别读纯文本和链接
publicstaticvoidreadTextAndLink(Stringresult)throwsException
{
Parserparser;
NodeListnodelist;
parser=Parser.createParser(result,"GB2312");
NodeFiltertextFilter=newNodeClassFilter(TextNode.class);
NodeFilterlinkFilter=newNodeClassFilter(LinkTag.class);
OrFilterlastFilter=newOrFilter();
lastFilter.setPredicates(newNodeFilter[]{textFilter,linkFilter});
nodelist=parser.parse(lastFilter);
Node[]nodes=nodelist.toNodeArray();
Stringline="";
for(inti=0;i<nodes.length;i++)
{
Nodenode=nodes[i];
if(nodeinstanceofTextNode)
{
TextNodetextnode=(TextNode)node;
line=textnode.getText();
}
else
if(nodeinstanceofLinkTag)
{
LinkTaglink=(LinkTag)node;
line=link.getLink();
}
if(isTrimEmpty(line))
continue;
System.out.println(line);
}
}
publicstaticvoidreadAll(Stringresult)throwsException
{
Parserparser;
Node[]nodes;
parser=Parser.createParser(result,"GB2312");
nodes=parser.extractAllNodesThatAre(TextNode.class);
//读取所有的内容节点
for(inti=0;i<nodes.length;i++)
{
TextNodetextnode=(TextNode)nodes[i];
Stringline=textnode.toPlainTextString().trim();
if(line.equals(""))
continue;
System.out.println(line);
}
}
/**
*去掉左右空格后字符串是否为空
*/
publicstaticbooleanisTrimEmpty(Stringastr)
{
if((null==astr)||(astr.length()==0))
{
returntrue;
}
if(isBlank(astr.trim()))
{
returntrue;
}
returnfalse;
}
/**
*字符串是否为空:null或者长度为0.
*/
publicstaticbooleanisBlank(Stringastr)
{
if((null==astr)||(astr.length()==0))
{
returntrue;
}
else
{
returnfalse;
}
}
}
处理特定tag:
参考:http://sourceforge.net/mailarchive/message.php?msg_id=25aac9fc0704200423h78893925y72cb75136be7330%40mail.gmail.com
packagecn.yethyeth.forTest;
思路:建立一个新的NodeVisitor,在其中处理visitTag这个函数(具体原理见上面第一篇文章)
importorg.htmlparser.Parser;
importorg.htmlparser.Tag;
importorg.htmlparser.util.ParserException;
importorg.htmlparser.visitors.NodeVisitor;
publicclassHTMLParserHandleTagextendsNodeVisitor...{
publicvoidvisitTag(Tagtag)
...{
if(tag.getAttribute("class")!=null)...{
System.out.println(""+tag.getTagName()+tag.getAttribute("class"));
}
}
publicstaticvoidmain(String[]args)throwsParserException
...{
Parserparser=newParser("http://bbs.qihoo.com/ttgz/index.html");
NodeVisitorvisitor=newHTMLParserHandleTag();
parser.visitAllNodesWith(visitor);
}
}
更简单的方法:使用TagNameFilter,HasAttributeFilter,AndFilter。
TagNameFilter过滤特定名字的tag,
HasAttributeFilter过滤特定名字和值的tag,
AndFilter将多个filter组合起来。
/*
*TestFilter.java,2007-5-131:22:45.
*
*CopyRight(c)2007-2007,yethyeth,Allrightsreserved.
*
*ThisfileislicencedundertheApacheLicense.
*/
packagecom.bighai.forTest;
importorg.apache.commons.lang.StringUtils;
importorg.htmlparser.Parser;
importorg.htmlparser.Tag;
importorg.htmlparser.filters.AndFilter;
importorg.htmlparser.filters.HasAttributeFilter;
importorg.htmlparser.filters.TagNameFilter;
importorg.htmlparser.util.NodeList;
importorg.htmlparser.util.ParserException;
publicclassTestFilter{
/**
*@paramargs
*@throwsParserException
*/
publicstaticvoidmain(String[]args)throwsParserException{
//TODOAuto-generatedmethodstub
Parserparser=newParser("http://bbs.qihoo.com/ttgz/index.html");
AndFilterfilter=
newAndFilter(
newTagNameFilter("div"),
newHasAttributeFilter("class","rLCon"));
NodeListnodes=parser.parse(filter);
for(inti=0;i<nodes.size();i++){
System.out.println(
((Tag)nodes.elementAt(i)).getTagName()+"class="+
((Tag)nodes.elementAt(i)).getAttribute("class"));
}
}
}
结果:
DIVclass=rLCon
by
这两天准备做一些网站编程的工作,于是对HtmlParse小研究了一下,目的是快速入手,而不是深入研究,做了一下整理,和大家共同讨论一下。
一,数据组织分析:
HtmlParser主要靠Node、AbstractNode和Tag来表达Html,因为Remark和Text相对简单,此处就将其忽略了。
Node是形成树结构表示HTML的基础,所有的数据表示都是接口Node的实现,Node定义了与页面树结构所表达的页面Page对象,定义了获取父、子、兄弟节点的方法,定义了节点到对应html文本的方法,定义了该节点对应的起止位置,定义了过滤方法,定义了Visitor访问机制。
AbstractNode是Node的一种具体的类实现,起到构成树形结构的作用,除了同具体Node相关的accetp方法,toString,toHtml,toPlainTextString方法以外,AbstractNode实现了大多基本的方法,使得它的子类,不用理会具体的树操作。
Tag是具体分析的主要内容。Tag分成composite的Tag和不能包含其他Tag的简单Tag两类,其中前者的基类是CompositeTag,其子类包含BodyTag,Div,FrameSetTag,OptionTag,等27个子类;而简单Tag有BaseHrefTag、DoctypeTag,FrameTag,ImageTag,InputTag,JspTag,MetaTag,ProcessingInstructionTag这八类。
Node分成三类:
RemarkNode:代表Html中的注释
TagNode:标签节点,是种类最多的节点类型,上述Tag的具体节点类都是TagNode的实现。
TextNode:文本节点
二,Visitor方式访问Html:
1,整体解析过程
用一个URL或页面String做一个Parser
用这个Parser做一个Visitor
使用Parser.visitAllNodeWith(Visitor)来遍历节点
获取Visitor遍历后得到的数据
2,Visit过程
做解析之前做的事情:visitor.beginParsing();
每次取到一个节点Node,让该Node接受accept该Visitor
做解析后做的事情:visitor.finishedParsing();
3,获取节点的过程:逐步遍历Html,分析出Node。此部分较为复杂,且对于我们应用来说无需很多了解,暂跳过。
4,节点访问
节点访问采用Visitor模式,Node的accept方法和具体Visitor的visit方法是关键。
首先三类Node来accept的方式各不相同:
对于所有TagNode都使用一个accept方法,即TagNode的accept方法。首先判断是否是标签结尾,如果是就visitor.visitEndTag(this);否则visitor.visitTag(this);
如果是TextNode,那就visitor.visitStringNode(this);就可以了。
如果是RemarkNode,那就visitor.visitRemarkNode(this);就可以了。
实际上NodeVisitor里边这四种visit方法都是空的,因为在不同的Visitor中对于这三类节点的处理是不同的;对于需要处理的节点,只要重载对应的visit方法就行了,如果不处理那就不理会就可以了;另外,如果用户用自己的Visitor,那么还可以灵活的处理不同类型的节点了。
系统为我们实现了下面我要介绍的8种Visitor,实际上可以看作是系统给我们演示了如何做各种各样的Visitor来访问Html,因为实际上我们要真正来用HtmlParser的话,还需要特定的Visitor,而通过简单的这些系统提供的Visitor组合是难以做成什么事情的。
三,系统Visitor功能简介:
ObjectFindingVisitor:用来找出所有指定类型的节点,采用getTags()来获取结果。
StringBean:用来从一个指定的URL获取移除了<SCRIPT></SCRIPT>和<PRE></PRE>之间代码的Html代码,也可以用做Visitor,用来移除这两种标签内部的代码,采用StringBean.getStrings()来获取结果。
HtmlPage:提取Title,body中的节点和页面中的TableTag节点。
LinkFindingVisitor:找出节点中包含某个链接的总个数。
StringFindingVisitor:找出遍历的TextNode中含有指定字符串的个数。
TagFindingVisitor:找出指定Tag的所有节点,可以指定多种类型。
TextExtractingVisitor:从网页中把所有标签去掉来提取文本,这个提取文本的Visitor有时是很实用的,只是注意在提取文本时将标签的属性也去掉了,也就是说只剩下标签之间的文本,例如<a>中的链接也去掉了。
UrlModifyingVisitor:用来修改网页中的链接。
四,Filter
如果说visitor是遍历提取信息,当然这个信息可以包括某些节点或者从节点分析出来的更有效的信息,这都取决于我们的Visitor做成什么样子,那么Filter则目标很明确,就是用来提取节点的。所以说要想用HtmlParser,首先要熟悉上面讲到的数据组织。
系统定义了17种具体的Filter,包括依据节点父子关系的Filter,连接Filter组合的Filter,依据网页内容匹配情况的filter,等等。我们也可以implementFilter来做自己的Filter来提取节点。
Filter的调用是同Visitor独立的,因为也无需先filter出一些NodeList,再用Visitor来访问。调用Filter的方法是:
NodeListnodeList=myParser.parse(someFilter);
解析之后,我们可以采用:
Node[]nodes=nodeList.toNodeArray();
来获取节点数组,也可以直接访问:
Nodenode=nodeList.elementAt(i)来获取Node。
另外,在Filter后得到NodeList以后,我们仍然可以使用NodeList的extractAllNodesThatMatch(someFilter)来进一步过滤,同时又可以用NodeList的isitAllNodesWith(someVisitor)来做进一步的访问。
这样,我们可以看到HtmlParser为我们提供了非常方便的Html解析方式,针对不同的应用可以采用visitor来遍历Html节点提取数据,也可以用Filter来过滤节点,提取出我们所关注的节点,再对节点进行处理。通过这样的组合,一定能够找出我们所需要的信息。
参考:
获取帮助:
邮件列表:
有publicstaticvoidmain(String[]args)这个方法,其中有一些该类的使用方法。
特别的:一个javawebstart
一些常见处理:
应用HtmlParser处理含HTML标签的字符串或网页
StringExtractionTogetallthetextcontentfromawebpage,usetheTextExtractingVisitor,likeso:
importorg.htmlparser.Parser; importorg.htmlparser.util.ParserException; importorg.htmlparser.visitors.TextExtractingVisitor; publicclassStringDemo { publicstaticvoidmain(String[]args)throwsParserException { Parserparser=newParser("http://pageIwantToParse.com"); TextExtractingVisitorvisitor=newTextExtractingVisitor(); parser.visitAllNodesWith(visitor); System.out.println(visitor.getExtractedText()); } }
Ifyouwantamorebrowserlikebehaviour,usetheStringBeanlikeso:
importorg.htmlparser.beans.StringBean; publicclassStringDemo { publicstaticvoidmain(String[]args) { StringBeansb=newStringBean(); sb.setLinks(false); sb.setReplaceNonBreakingSpaces(true); sb.setCollapse(true); sb.setURL("http://pageIwantToParse.com"); System.out.println(sb.getStrings()); } }
Togetallthetextcontentfromawebpageyoualreadyhaveinastring:
importorg.htmlparser.Parser; importorg.htmlparser.Node; importorg.htmlparser.nodes.TextNode; importorg.htmlparser.util.ParserException; publicclassStringDemo { publicstaticvoidmain(String[]args)throwsParserException { ParsermyParser; Node[]nodes=null; Stringcontent=""; myParser=Parser.createParser(content,null); nodes=myParser.extractAllNodesThatAre(TextNode.class);//exceptioncouldbethrownhere for(inti=0;i<nodes.length;i++) { TextNodetextnode=(TextNode)nodes[i]; Stringline=textnode.toPlainTextString().trim(); if(line.equals(""))continue; System.out.println(line); } }http://blog.csdn.net/redez/archive/2005/11/21/534277.aspx
HTMLParser使用
最近在研究lucene,主要做ftp搜索和网页的站内搜索。
ftp搜索比较好做,主流的FTP有两种一种是IIS的一种是Server-U的.
真对这两种FTP分别进行分析就可以得到FTP资源的文件名和路径及大小和日期
然后对其进行索引就可以了,比较简单。
网页检索可不像ftp那样了,我试着用lucene自带的htmlparser,解析纯英文的网页
没有问题,可解析中文的网页时有时会遇到编码问题。郁闷。。。
SourceForge搜到了一个开源的HTMLParser。网址是
目前的版本为1.6。
测试代码为:
importjava.io.*;
importorg.htmlparser.filters.*;
importorg.htmlparser.*;
importorg.htmlparser.nodes.*;
importorg.htmlparser.tags.*;
importorg.htmlparser.util.*;
importorg.htmlparser.visitors.*;
publicclassHTMLParserTest
{
publicstaticvoidmain(Stringargs[])throwsException
{
Stringpath="D://Webdup//MyWebsites//biti//download//latest//cisco.biti.edu.cn//index.html";
StringBuffersbStr=newStringBuffer();
BufferedReaderreader=newBufferedReader(newFileReader(newFile(path)));
Stringtemp="";
while((temp=reader.readLine())!=null)
{
sbStr.append(temp);
sbStr.append("/r/n");
}
reader.close();
Stringresult=sbStr.toString();
readAll(result);
readTextAndLink(result);
readByHtml(result);
readTextAndTitle(result);
}
//按页面方式处理.解析标准的html页面
publicstaticvoidreadByHtml(Stringcontent)throwsException
{
ParsermyParser;
myParser=Parser.createParser(content,"GB2312");
HtmlPagevisitor=newHtmlPage(myParser);
myParser.visitAllNodesWith(visitor);
StringtextInPage=visitor.getTitle();
System.out.println(textInPage);
NodeListnodelist;
nodelist=visitor.getBody();
System.out.print(nodelist.asString().trim());
}
//读取文本内容和标题
publicstaticvoidreadTextAndTitle(Stringresult)throwsException
{
Parserparser;
NodeListnodelist;
parser=Parser.createParser(result,"GB2312");
NodeFiltertextFilter=newNodeClassFilter(TextNode.class);
NodeFiltertitleFilter=newNodeClassFilter(TitleTag.class);
OrFilterlastFilter=newOrFilter();
lastFilter.setPredicates(newNodeFilter[]{textFilter,titleFilter});
nodelist=parser.parse(lastFilter);
Node[]nodes=nodelist.toNodeArray();
Stringline="";
for(inti=0;i<nodes.length;i++)
{
Nodenode=nodes[i];
if(nodeinstanceofTextNode)
{
TextNodetextnode=(TextNode)node;
line=textnode.getText();
}
else
if(nodeinstanceofTitleTag)
{
TitleTagtitlenode=(TitleTag)node;
line=titlenode.getTitle();
}
if(isTrimEmpty(line))
continue;
System.out.println(line);
}
}
//分别读纯文本和链接
publicstaticvoidreadTextAndLink(Stringresult)throwsException
{
Parserparser;
NodeListnodelist;
parser=Parser.createParser(result,"GB2312");
NodeFiltertextFilter=newNodeClassFilter(TextNode.class);
NodeFilterlinkFilter=newNodeClassFilter(LinkTag.class);
OrFilterlastFilter=newOrFilter();
lastFilter.setPredicates(newNodeFilter[]{textFilter,linkFilter});
nodelist=parser.parse(lastFilter);
Node[]nodes=nodelist.toNodeArray();
Stringline="";
for(inti=0;i<nodes.length;i++)
{
Nodenode=nodes[i];
if(nodeinstanceofTextNode)
{
TextNodetextnode=(TextNode)node;
line=textnode.getText();
}
else
if(nodeinstanceofLinkTag)
{
LinkTaglink=(LinkTag)node;
line=link.getLink();
}
if(isTrimEmpty(line))
continue;
System.out.println(line);
}
}
publicstaticvoidreadAll(Stringresult)throwsException
{
Parserparser;
Node[]nodes;
parser=Parser.createParser(result,"GB2312");
nodes=parser.extractAllNodesThatAre(TextNode.class);
//读取所有的内容节点
for(inti=0;i<nodes.length;i++)
{
TextNodetextnode=(TextNode)nodes[i];
Stringline=textnode.toPlainTextString().trim();
if(line.equals(""))
continue;
System.out.println(line);
}
}
/**
*去掉左右空格后字符串是否为空
*/
publicstaticbooleanisTrimEmpty(Stringastr)
{
if((null==astr)||(astr.length()==0))
{
returntrue;
}
if(isBlank(astr.trim()))
{
returntrue;
}
returnfalse;
}
/**
*字符串是否为空:null或者长度为0.
*/
publicstaticbooleanisBlank(Stringastr)
{
if((null==astr)||(astr.length()==0))
{
returntrue;
}
else
{
returnfalse;
}
}
}
}
来源:http://htmlparser.sourceforge.net/wiki/index.php/StringExtraction
参考:http://htmlparser.sourceforge.net/
处理特定tag:
参考:http://sourceforge.net/mailarchive/message.php?msg_id=25aac9fc0704200423h78893925y72cb75136be7330%40mail.gmail.com
packagecn.yethyeth.forTest;
思路:建立一个新的NodeVisitor,在其中处理visitTag这个函数(具体原理见上面第一篇文章)
importorg.htmlparser.Parser;
importorg.htmlparser.Tag;
importorg.htmlparser.util.ParserException;
importorg.htmlparser.visitors.NodeVisitor;
publicclassHTMLParserHandleTagextendsNodeVisitor...{
publicvoidvisitTag(Tagtag)
...{
if(tag.getAttribute("class")!=null)...{
System.out.println(""+tag.getTagName()+tag.getAttribute("class"));
}
}
publicstaticvoidmain(String[]args)throwsParserException
...{
Parserparser=newParser("http://bbs.qihoo.com/ttgz/index.html");
NodeVisitorvisitor=newHTMLParserHandleTag();
parser.visitAllNodesWith(visitor);
}
更简单的方法:使用TagNameFilter,HasAttributeFilter,AndFilter。
TagNameFilter过滤特定名字的tag,
HasAttributeFilter过滤特定名字和值的tag,
AndFilter将多个filter组合起来。
/*
*TestFilter.java,2007-5-131:22:45.
*
*CopyRight(c)2007-2007,yethyeth,Allrightsreserved.
*
*ThisfileislicencedundertheApacheLicense.
*/
packagecom.bighai.forTest;
importorg.apache.commons.lang.StringUtils;
importorg.htmlparser.Parser;
importorg.htmlparser.Tag;
importorg.htmlparser.filters.AndFilter;
importorg.htmlparser.filters.HasAttributeFilter;
importorg.htmlparser.filters.TagNameFilter;
importorg.htmlparser.util.NodeList;
importorg.htmlparser.util.ParserException;
publicclassTestFilter{
/**
*@paramargs
*@throwsParserException
*/
publicstaticvoidmain(String[]args)throwsParserException{
//TODOAuto-generatedmethodstub
Parserparser=newParser("http://bbs.qihoo.com/ttgz/index.html");
AndFilterfilter=
newAndFilter(
newTagNameFilter("div"),
newHasAttributeFilter("class","rLCon"));
NodeListnodes=parser.parse(filter);
for(inti=0;i<nodes.size();i++){
System.out.println(
((Tag)nodes.elementAt(i)).getTagName()+"class="+
((Tag)nodes.elementAt(i)).getAttribute("class"));
}
}
}
结果:
DIVclass=rLCon
相关文章推荐
- Python学习总结笔记(6)-- HTML解析之HTMLParser
- [项目过程中所遇到的各种问题记录]学习篇——对工作以来的学习过的开源项目进行总结—动软代码生成工具
- ASP.NET MVC WebApi 返回数据类型序列化控制(json,xml) 用javascript在客户端删除某一个cookie键值对 input点击链接另一个页面,各种操作。 C# 往线程里传参数的方法总结 TCP/IP 协议 用C#+Selenium+ChromeDriver 生成我的咕咚跑步路线地图 (转)值得学习百度开源70+项目
- 【伯乐在线】最值得阅读学习的 10 个 C 语言开源项目代码
- OS超全开源框架、项目和学习资料汇总--数据库、缓存处理、图像浏览、摄像照相视频音频篇
- 【技术贴收集】开源项目Html Agility Pack实现快速解析Html
- BaseRecyclerViewAdapterHelper开源项目之BaseQuickAdapter源码学习BaseViewHolder扩展功能的实现代码学习(四)
- 如何更有效地学习开源项目的代码?
- 如何有效地学习开源项目代码?
- 最值得阅读学习的 10 个 C 语言开源项目代码
- 转: 如何快速学习一个开源项目源码?
- OAuth2.0学习(1-12)开源的OAuth2.0项目和比较
- 2014项目总结:一个比较成功的项目总结
- svg engine 一个处理矢量图片的开源项目
- 十个最值得阅读学习的C开源项目代码
- 介绍一个新推出的免费的用于点云的2D/3D的处理的开源项目Point Clouds Library (PCL)
- 在项目中用到datatables比较多,但是当datatables加载超过1000多的时候就会出现有点缓慢的的样子,这个时候如果继续增加数据量让datatables去处理,那会是一个让人抓狂的事情,幸
- android菜鸟学习笔记25----与服务器端交互(二)解析服务端返回的json数据及使用一个开源组件请求服务端数据
- 转: 最值得阅读学习的 10 个 C 语言开源项目代码
- 最值得学习阅读的10个C语言开源项目代码