目录

XML(Extensible Markup Language):可扩展标记语言 可扩展:标签都是自定义的。
HTML和XML都是W3C(万维网联盟)制定的标准,最开始HTML的 语法过于松散,于是W3C制定了更严格的XML语法标准,希望能取 代HTML。但是程序员和浏览器厂商并不喜欢使用XML,于是现在 的XML更多的用于配置文件及传输数据等功能。
是谁造成的HTML语法松散?
浏览器厂商。最开始W3C制定HTML的时候语法还是比较严格 的。但浏览器厂商为了抢占市场,语法错误也可以解析成功 HTML,最后“内卷”到HTML即使语法非常混乱也是可以被浏览 器解析。

tips:归根到底是语法的制定者和使用者不一致造成了HTML语 法混乱,JAVA语法严格就是因为java语言的运行工具java虚拟机 也是sun公司(现在是oracle)出品的,语法不通过不让运行。
1 配置文件:在今后的开发过程当中我们会频繁使用框架(框架: 半成品软件),使用框架时,需要写配置文件配置相关的参数, 让框架满足我们的开发需求。而我们写的配置文件中就有一种文 件类型是XML。
日后编写大型项目,不可能从头到尾都是原创代码,很多功 能前人已经写好,我们只需要使用前人写好的半成品软件 (框架),再加入一些符合我们需求的配置即可完成开发。 比如我们组装一台电脑,不可能自己焊接电路板。而是先买 入一块主板,这块主板就是半成品软件。根据自己的需求加 入一些配置,比如要求流畅运行吃鸡,就需要配置i7处理 器、泰坦显卡。

2 传输数据:在网络中传输数据时并不能传输java对象,所以我们 需要将JAVA对象转成字符串传输,其中一种方式就是将对象转为 XML类型的字符串。
比如携程等旅游网站可以买火车票,但他们其实也是替 12306卖票,此时他们就需要拿到12306的票务数据。JAVA 对象不能在网络上传输,可以转为XML类型的字符串。
XML和HTML的区别
1 XML语法严格,HTML语法松散
2 XML标签自定义,HTML标签预定义

1、文件后缀名是.xml
2、第一行必须是文档声明
3、有且仅有一个根标签
4、标签必须正确关闭
5、标签名区分大小写
6、属性值必须用引号(单双都可)引起来

文档声明必须放在第一行,格式为:
属性列表: version:版本号(必须) encoding:编码方式
XML中标签名是自定义的,标签名有以下要求:
1、包含数字、字母、其他字符
2、不能以数字和标点符号开头,可以以_开头
3、不能包含空格
指令是结合css使用的,但现在XML一般不结合CSS,语法为:
"text/css" href="a.css"?>
属性值必须用引号(单双都可)引起来
如果想原样展示文本,需要设置CDATA区,格式为:

虽然XML标签是自定义的。但是作为配置文件时,也需要遵循一定 的规则。就比如在主板上硬盘口只能插硬盘,不能插入其他硬件。 约束就是定义XML书写规则的文件,约束我们按照框架的要求编写 配置文件。

我们作为框架的使用者,不需要会写约束文件,只要能够在xml中 引入约束文档,简单的读懂约束文档即可。XML有两种约束文件类 型:DTD和Schema。
DTD是一种较简单的约束技术,引入方式如下:
本地引入:
SYSTEM "dtd文件的位置">
网络引入:
PUBLIC "dtd文件的位置" "dtd文件路径">

Schema比DTD对XML的约束更加详细,引入方式如下:
1 写xml文档的根标签
2 引入xsi前缀:确定Schema文件的版本。
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
3 引入Schema文件
- xsi:schemaLocation="Schema文件定义的命名空间
- Schema文件的具体路径"
4 为Schema约束的标签声明前缀
xmlns:前缀="Schema文件定义的命名空间"
例如:
- <students
- xmlns:xsi="http://www.w3.org/2001/XMLSchemainstance"
- xsi:schemaLocation="http://www.itbaizhan.cn/xml student.xsd"
- xmlns="http://www.itbaizhan.cn/xml">

XML解析即读写XML文档中的数据。框架的开发者通过XML解析读 取框架使用者配置的参数信息,开发者也可以通过XML解析读取网 络传来的数据。XML有如下解析思想:
将标记语言文档一次性加载进内存,在内存中形成一颗dom树
优点:操作方便,可以对文档进行CRUD的所有操作
缺点:占内存

逐行读取,基于事件驱动的。
优点:不占内存,一般用于手机APP开发中读取XML
缺点:只能读取,不能增删改

1、JAXP:SUN公司提供的解析器,支持DOM和SAX两种思想
2、DOM4J:一款非常优秀的解析器
3、Jsoup:Jsoup是一款Java的HTML解析器,支持DOM思想。可直接解析某个URL地址、HTML文本 内容。它提供了一套非常省力的API,可通过CSS以及类似于jQuery的操作方法来取出和操作数据
4、PULL:Android操作系统内置的解析器,支持SAX思想

1 导入jar包
2 加载XML文档进内存,获取DOM树对象Document
3 获取对应的标签Element对象
4 获取数据
- public class Demo1 {
- // 获取XML中所有学生的姓名
- public static void main(String[] args) throws IOException {
- // 2.加载XML文档进内存。获取DOM树对象Document
- // 2.1 获取类加载器
- ClassLoader classLoader = Demo1.class.getClassLoader();
- // 2.2使用类加载器,找到XML文档的路径
- String path = classLoader.getResource("com/itbaizhan/xsd/student.xml").getPath();
- // 2.3加载XML文档进内存,并转成Document对象
- Document document = Jsoup.parse(new File(path), "utf-8");
- // 3.获取对应的标签Element对象
- Elements name = document.getElementsByTag("name");
- // 4.获取数据
- for (Element element : name) {
- String text = element.text();
- System.out.println(text);
- }
- }
- }

Jsoup:可以解析xml或html,形成dom树对象。
常用方法:
static Document parse(File in, String charsetName):解析本地文件
static Document parse(String html):解析html或xml字符串
static Document parse(URL url, int timeoutMillis):解析网页源文件
- public class Demo2 {
- // Jsoup
- public static void main(String[] args) throws IOException {
- // 解析本地XML
- String path = Demo2.class.getClassLoader().getResource("com/itbaizhan/xsd/student.xml").getPath();
- Document document = Jsoup.parse(new File(path), "utf-8");
- System.out.println(document);
- System.out.println("------------------");
- // 解析字符串
- Document document1 = Jsoup.parse("1.0\" ?>\n" +
- "
+ - " xmlns:xsi=\"http://www.w3.org/2001/XMLSchema-instance\"\n" +
- " xsi:schemaLocation=\"http://www.itbaizhan.cn/xml student.xsd\"\n" +
- " xmlns=\"http://www.itbaizhan.cn/xml\">\n" + "\n" +
- "
baizhan_0001\">\n" + - "
baizhan \n" + - "
10 \n" +" male \n"+ - " \n" +
- "
baizhan_0002\">\n" + - "
sxt \n"+ - "
11 \n" + - "
female \n" + - " \n" +
- "");
- System.out.println(document1);
- System.out.println("---------------------------------");
- // 解析网络资源
- Document document2 = Jsoup.parse(new URL("https://www.baidu.com"), 2000);
- System.out.println(document2);
- }
- }

Document:xml的dom树对象
常用方法:
Element getElementById(String id):根据id获取元素
Elements getElementsByTag(String tagName):根据标签名获取元素
Elements getElementsByAttribute(String key):根据属性获取元素
Elements getElementsByAttributeValue(String key,String value):根据属性名=属性值获取元 素。
Elements select(Sting cssQuery):根据选择器选取元素。
- public class Demo3 {
- // Document
- public static void main(String[] args) throws IOException {
- String path = Demo3.class.getClassLoader().getResource("com/itbaizhan/jsoup/student.xml").getPath();
- Document document = Jsoup.parse(new File(path), "utf-8");
- // 根据id获取元素
- Element baizhan_0001 = document.getElementById("baizhan_0001");
- System.out.println(baizhan_0001);
- System.out.println("----------------------");
- // 根据标签获取元素
- Elements age = document.getElementsByTag("age");
- for (Element element : age) {
- System.out.println(element);
- }
- System.out.println("----------------------");
- // 根据属性获取元素
- Elements english = document.getElementsByAttribute("english");
- for (Element element : english) {
- System.out.println(element);
- }
- System.out.println("----------------------");
- // 根据属性名=属性值获取元素
- Elements elementsByAttributeValue =
- document.getElementsByAttributeValue("english", "bz");
- for (Element element : elementsByAttributeValue) {
- System.out.println(element);
- }
- System.out.println("----------------------");
- // 使用CSS选择器获取元素
- Elements select = document.select("#baizhan_0001");
- System.out.println(select);
- System.out.println("----------------------");
- Elements sex = document.select("sex");
- System.out.println(sex);
- System.out.println("----------------------");
- Elements select1 = document.select(".aa");
- System.out.println(select1);
- }
- }

Element: 元素对象
常用方法:
String text():获取元素包含的纯文本。
String html():获取元素包含的带标签的文本。
String attr(String attributeKey):获取元素的属性值。
- public class Demo4 {
- // Document
- public static void main(String[] args) throws IOException {
- String path = Demo4.class.getClassLoader().getResource("com/itbaizhan/jsoup/student.xml").getPath();
- Document document = Jsoup.parse(new File(path), "utf-8");
- // 使用CSS选择器获取元素
- Elements elements = document.select("#baizhan_0001");
- Element element = elements.get(0);
- System.out.println(element.text());
- System.out.println("-----------------------");
- System.out.println(element.html());
- System.out.println("-----------------------");
- System.out.println(element.attr("id"));
- }
- }

XPath即为XML路径语言,它是一种用来确定标记语言文档中某部 分位置的语言。
使用方法:
1 导入 Xpath 的jar包 、
2 获取 Document 对象
3 将 Document 对象转为 JXDocument 对象
4 JXDocument 调用 selN(String xpath) ,获取 List 对象。
5 遍历 List ,调用 JXNode 的 getElement() ,转为 Element 对象。
6 处理 Element 对象。
- public class Demo5 {
- // Document
- public static void main(String[] args) throws IOException, XpathSyntaxErrorException
- {
- String path = Demo5.class.getClassLoader().getResource("com/itbaizhan/jsoup/student.xml").getPath();
- // 1. 获取`Document`对象
- Document document = Jsoup.parse(new File(path), "utf-8");
- //2. 将`Document`对象转为`JXDocument`对象
- JXDocument jxDocument = newJXDocument(document);
- //3. `JXDocument`调用`selN(String xpath)`,获取`List<JXNode>`对象。
- // List<JXNode> jxNodes = jxDocument.selN("//name");
- // 想拿到baizhan_0001的年龄
- List<JXNode> jxNodes = jxDocument.selN("//student[@id='baizhan_0001']/age");
- //4. 遍历`List<JXNode>`,调用`JXNode`的`getElement()`,转为`Element`对象。
- for (JXNode jxNode : jxNodes) {
- Element element = jxNode.getElement();
- //5. 处理`Element`对象。
- System.out.println(element);
- }
- }
- }

网络爬虫(web crawler):自动抓取互联网信息的程序。
比如我们要开发一个网站,在网页的右上角需要显示今日天 气,如果人工查询天气预报维护非常繁琐,我们就可以使用爬 虫程序自动爬取天气网站的程序,自动更新。
Jsoup可以通过URL获取网页的HTML源文件,源文件中包含着网站 数据,我们可以解析HTML源文件的数据来获取我们需要的信息。
爬虫步骤:
1 引入jar包。
2 使用Jsoup获取网页HTML源文件,转为Document对象
3 通过Document对象,获取需要的Element对象
4 获取Element对象的数据。
5 设置循环自动爬取
- public class CrawlerDemo {
- public static void main(String[] args) {
- int min = 9734020;
- int max = 9734346;
- // 循环爬取数据
- for (int i = min; i <= max; i++) {
- try {
- //1. 使用Jsoup获取网页HTML源文件,转为Document对象
- Document document = Jsoup.parse(new URL("http://daily.zhihu.com/story/"+i), 3000);
- // System.out.println(document);
- //2. 通过Document对象,获取需要的Element对象
- Elements headerImgEle = document.getElementsByAttributeValue("alt","头图");
- Elements titleEle = document.select(".DailyHeader-title");
- Elements authorEle = document.select(".author");
- Elements contentELe = document.select(".content");
- //3. 获取Element对象的数据。
- System.out.println(headerImgEle.get(0).attr("src"));
- System.out.println(titleEle.get(0).text());
- System.out.println(authorEle.get(0).text());
- System.out.println(contentELe.get(0).text());
- }catch (Exception e){}
- }
- }
- }
爬虫程序有一些参数需要配置,如果直接将参数写在JAVA程序中, 则修改参数非常不方便,所以此时我们将参数写在XML配置文件 中,通过解析XML文件获取参数的配置信息。
1 编写爬虫程序的XML配置文件 Crawler.xml
- <?xml version="1.0"?>
- <Crawler>
- <min>9734020</min>
- <max>9734346</max>
- </Crawler>
2 编写爬虫程序
- public class CrawlerDemo {
- public static void main(String[] args) throws IOException {
- int min = 0;
- int max = 0;
- // 解析XML配置文件
- String path = CrawlerDemo.class.getClassLoader().getResource("com/itbaizhan/crawler/Crawler.xml").getPath();
- Document document1 = Jsoup.parse(new File(path), "utf-8");
- Elements minELe = document1.getElementsByTag("min");
- Elements maxELe = document1.getElementsByTag("max");
- min = Integer.parseInt(minELe.get(0).text());
- max = Integer.parseInt(maxELe.get(0).text());
- // 循环爬取数据
- for (int i = min; i <= max; i++) {
- try {
- //1. 使用Jsoup获取网页HTML源文件,转为Document对象
- Document document = Jsoup.parse(new URL("http://daily.zhihu.com/story/"+i), 3000);
- // System.out.println(document);
- //2. 通过Document对象,获取需要的Element对象
- Elements headerImgEle = document.getElementsByAttributeValue("alt", "头图");
- Elements titleEle =document.select(".DailyHeader-title");
- Elements authorEle =document.select(".author");
- Elements contentELe =document.select(".content");
- //3. 获取Element对象的数据。
- System.out.println(headerImgEle.get(0).attr("src"));
- System.out.println(titleEle.get(0).text());
- System.out.println(authorEle.get(0).text());
- System.out.println(contentELe.get(0).text());
- }catch (Exception e){}
- }
- }
- }