文章目录
- Jsoup
- 导入依赖
- 获取信息
- 数据筛选
Jsoup
Jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。
爬虫可以用于搜索引擎,内容检索,数据采集分析等,十分强大,不过不要为所欲为(盗电影、音乐),要合理利用。
Jsoup官网
中文文档
导入依赖
不会maven可参考我的另一篇博客
<dependency>
<groupId>org.jsoup</groupId>
<artifactId>jsoup</artifactId>
<version>1.10.2</version>
</dependency>
获取信息
以在CSDN搜索jsoup为例,请求该URL,查看你所需信息标签的id或class,用Jsoup返回浏览器Document对象,然后可以用js的方法获取对象和操作。
package com.wzl.utils;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
import java.io.IOException;
import java.net.MalformedURLException;
import java.net.URL;
public class HtmlParseUtil {
public static void main(String[] args) throws IOException {
//获取请求(需联网)
String url="https://so.csdn.net/so/search/s.do?q=jsoup&t=&u=";
//解析网页(Jsoup返回浏览器Document对象,可以使用Js的方法)
Document document=Jsoup.parse(new URL(url),60000);//设置60s超时
Elements elements=document.getElementsByClass("search-list J_search");
for (Element el:elements) {
System.out.println(el.html());
System.out.println("=================");
}
}
}
控制台输出结果
至此就获取到了我们想要的信息。
数据筛选
然后就是对获取到的数据进一步处理和解析,比如筛选标签内的核心内容等。使用前端document对象的方法,提取标题,地址,作者等,然后可以把这些数据再封装成你自己的类等,这里直接输出演示。
查找DOM元素
方法 | 用法 |
---|---|
getElementById(String id) | 通过id来获取 |
getElementsByTag(String tagName) | 通过标签名字来获取 |
getElementsByClass(String className) | 通过类名来获取 |
getElementsByAttribute(String key) | 通过属性名字来获取 |
getElementsByAttributeValue(String key, String value) | 通过指定的属性名字,属性值来获取 |
getAllElements() | 获取所有元素 |
package com.wzl.utils;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
import java.io.IOException;
import java.net.MalformedURLException;
import java.net.URL;
public class HtmlParseUtil {
public static void main(String[] args) throws IOException {
//获取请求(需联网)
String url="https://so.csdn.net/so/search/s.do?q=jsoup&t=&u=";
//解析网页(Jsoup返回浏览器Document对象,可以使用Js的方法)
Document document=Jsoup.parse(new URL(url),60000);//设置60s超时
Elements elements=document.getElementsByClass("search-list J_search");
for (Element el:elements) {
//System.out.println(el.html());
String title=el.getElementsByTag("a").eq(0).text();//标题
String href=el.getElementsByTag("a").eq(0).attr("href");//博客地址(第一个<a>里)
String writer=el.getElementsByTag("a").eq(1).text();//作者(第二个<a>里)
String count=el.getElementsByClass("mr16").html();//浏览量
String time=el.getElementsByClass("date").html();//时间
System.out.println("标题:"+title);
System.out.println("地址:"+href);
System.out.println("作者:"+writer);
System.out.println("浏览量:"+count);
System.out.println("时间:"+time);
System.out.println("=================");
}
}
}
输出结果:
还可以用jsoup的选择器来进行筛选,也很方便:Element.select(String selector) 和 Elements.select(String selector) ,作用异曲同工,都是查找DOM元素,选择器对更复杂的筛选条件有优势。
引用官方文档介绍
Selector选择器概述
tagname: 通过标签查找元素,比如:a
ns|tag: 通过标签在命名空间查找元素,比如:可以用 fb|name 语法来查找 fb:name 元素
#id: 通过ID查找元素,比如:#logo
.class: 通过class名称查找元素,比如:.masthead
[attribute]: 利用属性查找元素,比如:[href]
[^attr]: 利用属性名前缀来查找元素,比如:可以用[^data-] 来查找带有HTML5 Dataset属性的元素
[attr=value]: 利用属性值来查找元素,比如:[width=500]
[attr^=value], [attr$=value], [attr*=value]: 利用匹配属性值开头、结尾或包含属性值来查找元素,比如:[href*=/path/]
[attr~=regex]: 利用属性值匹配正则表达式来查找元素,比如: img[src~=(?i).(png|jpe?g)]
*: 这个符号将匹配所有元素
Selector选择器组合使用
el#id: 元素+ID,比如: div#logo
el.class: 元素+class,比如: div.masthead
el[attr]: 元素+class,比如: a[href]
任意组合,比如:a[href].highlight
ancestor child: 查找某个元素下子元素,比如:可以用.body p 查找在"body"元素下的所有 p元素
parent > child: 查找某个父元素下的直接子元素,比如:可以用div.content > p 查找 p 元素,也可以用body > * 查找body标签下所有直接子元素
siblingA + siblingB: 查找在A元素之前第一个同级元素B,比如:div.head + div
siblingA ~ siblingX: 查找A元素之前的同级X元素,比如:h1 ~ p
el, el, el:多个选择器组合,查找匹配任一选择器的唯一元素,例如:div.masthead, div.logo
总结爬取数据思路:获取请求、返回页面信息、筛选所需数据。
原创不易,请支持正版。(百度发现我的好多博客被抄袭qswl )
博主首页:https://blog.csdn.net/qq_45034708
你的点赞将会是我最大的动力,关注一波