目录

智能搜索引擎技术第二章信息采集自用

目录

【智能搜索引擎技术】第二章信息采集(自用)

1.扩展知识:万维网(World Wide Web)

万维网 ,通常简称为WWW ,是一个由互联网上的各种信息资源组成的系统。 它通过超文本链接将不同的网页连接在一起, 使用户能够方便地访问和浏览这些信息。万维网的核心技术包括:

  • HTML(超文本标记语言) :用于创建网页的标准标记语言。
  • HTTP(超文本传输协议) :用于在客户端和服务器之间传输网页内容的协议。
  • URL(统一资源定位符) :用于唯一标识互联网上的每个资源(如网页、图片等)。 万维网的出现使得信息的获取变得更加便捷,用户只需通过浏览器输入网址或点击链接,就可以访问全球范围内的各种信息。

2.什么是网络爬虫?

网络爬虫(Web Crawler)是一种按照一定规则自动抓取万维网信息的程序或脚本,也被称为网页蜘蛛。 它通过访问网页,获取网页内容和链接,为搜索引擎提供数据支持。可以把网络爬虫想象成搜索引擎的“眼睛”,它在互联网中不断寻找和收集网页信息,帮助搜索引擎更好地为用户提供搜索结果。


3.网络爬虫的作用

网络爬虫的主要作用是为搜索引擎提供海量的网页数据,使其能够构建全面的索引,从而为用户提供更准确、全面的搜索结果。例如,当用户在搜索引擎中输入关键词时,搜索引擎能够快速返回与该关键词相关的网页列表,这背后离不开网络爬虫的辛勤工作。


4.网络爬虫的功能特点

4.1 鲁棒性

鲁棒性是指网络爬虫在面对复杂的网络环境和可能出现的陷阱时,能够稳定运行并避免陷入无限循环。 例如,有些服务器会故意设置陷阱,生成大量网页,试图让爬虫陷入其中。具有良好鲁棒性的爬虫能够识别并避免这些陷阱,确保抓取过程的顺利进行。

4.2 礼貌性

礼貌性是指网络爬虫在访问网站时,要遵守网站的访问频率政策,避免对网站服务器造成过大压力。 许多网站会限制爬虫的访问频率,要求其在一定时间内只能访问一定数量的页面。遵守这些政策的爬虫可以更好地与网站合作,获取更多的数据,同时也不会对网站的正常运行造成影响。

4.3 性能与效率

网络爬虫需要充分利用系统资源,包括处理器、存储器和网络带宽等,以提高抓取效率。 例如,通过优化代码和采用多线程技术, 爬虫可以在短时间 内抓取更多的网页,同时减少对系统资源的占用, 提高整体性能。

4.4 质量与新鲜度

网络爬虫应优先抓取“有用 ”的网页,避免抓取大量质量低下的网页,以提高数据的可用性。同时,爬虫需要定期更新 已抓取的网页,以确保搜索引擎的索引包含最新版本 的网页。


5 网络爬虫的通用架构

5.1 网络爬虫的通用架构通常包括以下几个模块:

5.1.1 DNS 解析模块

  • 功能 :将网页的 URL 解析为 IP 地址,以便爬虫能够访问目标网页。
  • 原理 :当爬虫遇到一个 URL 时,DNS 解析模块会查询域名系统(DNS),将域名转换为对应的 IP 地址,从而确定网页所在的服务器位置。

5.1.2 网页抓取模块

  • 功能 :根据解析得到的 IP 地址,下载网页并将其存储到本地。
  • 原理 :爬虫通过发送 HTTP 请求(如 GET 请求)获取网页内容,并将其保存到本地的网页库中,以便后续的分析和处理。

5.1 3 网页分析模块

  • 功能 :提取网页中的超链接,并分析页面结构,为下一步的抓取提供线索。
  • 原理 :爬虫通过解析网页的 HTML 代码,提取其中的链接地址,这些链接将被加入到待抓取队列中,从而实现对互联网的深度遍历。

5.1.4 URL 去重模块

  • 功能 :避免爬虫重复抓取相同的网页,提高抓取效率。
  • 原理 :当爬虫发现一个新的 URL 时,URL 去重模块会检查该 URL 是否已经存在于已抓取队列或待抓取队列中。如果不存在,才会将其加入待抓取队列,从而避免重复抓取。

5.2 网络爬虫的工作流程

  1. 从种子 URL 开始 :爬虫从一组预先定义的种子 URL 开始抓取。
  2. DNS 解析 :爬虫通过 DNS 解析模块获取种子 URL 的 IP 地址。
  3. 网页抓取 :爬虫根据解析得到的 IP 地址,发送 HTTP 请求下载网页内容。
  4. 网页分析 :爬虫分析下载的网页,提取其中的超链接,并将这些链接加入待抓取队列。
  5. URL 去重 :在将新提取的链接加入待抓取队列之前,爬虫会通过 URL 去重模块检查这些链接是否已经被抓取过。
  6. 重复以上步骤 :爬虫不断重复以上步骤,直到达到预设的抓取目标或没有新的链接可抓取。https://i-blog.csdnimg.cn/direct/94effb6656e7477e9be75cca8e2270a8.png

6 网络爬虫的分类

网络爬虫可以根据不同的标准进行分类,主要包括以下几种类型:

6.1 批量型网络爬虫

批量型网络爬虫会根据预设的抓取属性,如抓取范围、时间等,进行周期性批量抓取 。适用于需要定期更新且数据量较大 的场景,如学术资源网站、新闻聚合网站等。

6.2 增量型网络爬虫

增量型网络爬虫会持续不断地抓取网页 ,及时反映互联网的变化 ,如新增、删除或更新的网页。它能够确保搜索引擎的索引始终是最新的,为用户提供最新的搜索结果。

6.3 聚焦型网络爬虫

聚焦型网络爬虫广泛应用于垂直搜索领域,如旅游、购物、招聘等,为用户提供精准的搜索结果。 它通过文本分类技术判断网页是否与特定主题 相关,只抓取与主题相关的网页。

6.4 分布式网络爬虫架构

在面对海量数据时,单机爬虫的局限性显而易见。为了提高抓取效率和处理能力,分布式爬虫架构应运而生。以下是分布式爬虫架构的详细介绍,包括其优势、主从分布式结构和对等分布式结构的特点。

6.4.1 主从分布式爬虫结构

主从分布式结构由一台控制节点(Master)和多个爬行节点(Slave)组成,控制节点负责管理和分发任务。这种架构简单易管理,适合中小规模的分布式爬虫系统。

  • 控制节点(Master)
  • 负责维护待抓取的URL列表,分配任务给各个爬行节点。
  • 监控爬行节点的状态,确保任务的顺利进行。
  • 爬行节点(Slave)
  • 接收控制节点分配的任务,执行抓取操作。
  • 将抓取结果返回给控制节点。 优点
  • 简单易管理,适合中小规模的分布式爬虫系统。
  • 控制节点集中管理任务,协调工作,便于监控和维护。 缺点
  • 控制节点成为单点故障,如果出现问题,整个系统可能受到影响。

6.4.2 对等分布式爬虫结构

在对等分布式结构中,每台服务器都独立工作,通过一定的规则(如哈希取模)确保任务分配的均匀性。这种平等分工的方式使得系统能够更好地利用集群资源,提高抓取效率。

  • 平等分工
  • 每台服务器都承担相同的抓取任务,避免了单点故障的风险。
  • 通过哈希算法将URL均匀分配到各个节点,确保负载均衡。 优点
  • 提高了系统的容错性和稳定性,任何节点的故障不会影响其他节点的工作。
  • 适合大规模数据采集,能够充分利用集群资源。 缺点
  • 扩展性问题:当需要增加或移除节点时,可能需要重新分配任务,导致短时间内的性能下降。
  • 复杂性增加:管理和协调多个节点的工作相对复杂。

6.4.3 总结

分布式网络爬虫架构通过合理的任务分配和资源利用,能够有效提高数据抓取的效率和稳定性。主从分布式结构适合中小规模的爬虫系统,而对等分布式结构则更适合大规模数据采集。


7 信息采集涉及的协议

信息采集是网络爬虫的核心功能,涉及多个协议的使用。以下是信息采集过程中涉及的主要协议及其组成部分的详细介绍。

7.1 URL 的组成

URL(统一资源定位符)是用于唯一标识互联网上资源的地址。URL的结构通常由以下几个部分组成:

7.1.1 协议方案

协议方案是URL的第一部分,指明了访问资源所使用的协议。

1.常见的协议包括:
  • HTTP(超文本传输协议) :用于在客户端和服务器之间传输网页内容。HTTP是无状态的协议,意味着每次请求都是独立的,服务器不会保存任何关于客户端的状态信息。
  • HTTPS(安全超文本传输协议) :HTTP的安全版本,通过SSL/TLS加密数据传输,确保数据的安全性和完整性,通常用于保护用户隐私和数据安全。
  • FTP(文件传输协议) :用于在网络上进行文件传输,适用于上传和下载文件。
  • mailto :用于发送电子邮件的协议,通常用于链接到电子邮件地址。
  • HTTP(超文本传输协议)

2.URL形式

说明 :用于访问网页内容,http表示使用超文本传输协议。

3.常见的协议的URL的形式:
  • HTTPS(安全超文本传输协议)
  • URL形式
  • 说明 :用于安全地访问网页内容,https表示使用安全的超文本传输协议,通常用于保护用户隐私和数据安全。
  • FTP(文件传输协议)
  • URL形式 :  
  • 说明 :用于在网络上进行文件传输,ftp表示使用文件传输协议。
  • FTPS(FTP Secure)
  • URL形式 : ftps://ftp.example.com/file.txt
  • 说明 :FTP的安全版本,通过SSL/TLS加密传输,ftps表示使用安全的文件传输协议。
  • SFTP(SSH文件传输协议)
  • URL形式 : sftp://user@ftp.example.com/file.txt
  • 说明 :基于SSH的文件传输协议,提供安全的文件传输,sftp表示使用SSH文件传输协议。
  • Mailto(电子邮件协议)
  • URL形式 : mailto:example@example.com
  • 说明 :用于发送电子邮件,mailto表示使用电子邮件协议,通常用于链接到电子邮件地址。
  • Telnet(远程登录协议)
  • URL形式 : telnet://example.com:23
  • 说明 :用于远程登录到服务器,telnet表示使用远程登录协议。
  • LDAP(轻量级目录访问协议)
  • URL形式 : ldap://ldap.example.com:389
  • 说明 :用于访问和维护分布式目录信息服务,ldap表示使用轻量级目录访问协议。
  • RTSP(实时流协议)
  • URL形式 : rtsp://media.example.com/stream
  • 说明 :用于流媒体的控制和传输,rtsp表示使用实时流协议。
  • MQTT(消息队列遥测传输)
  • URL形式 : mqtt://broker.example.com:1883
  • 说明 :用于物联网设备之间的消息传输,mqtt表示使用消息队列遥测传输协议。
  • WebSocket
  • URL形式 : ws://www.example.com/socket
  • 说明 :用于建立持久的双向通信通道,ws表示使用WebSocket协议。
  • WSS(安全WebSocket)
  • URL形式 : wss://www.example.com/socket
  • 说明 :WebSocket的安全版本,使用TLS加密,wss表示使用安全的WebSocket协议。

7.1.2 主机名(Host)

1.主机名的结构

主机名是URL的第二部分,指明了存放资源的服务器的地址。主机名通常是一个域名,能够通过DNS(域名系统)解析为IP地址。主机名的结构可以分为以下几个部分:

  • 二级域名 :通常是网站的名称,例如www
  • 顶级域名 :表示域名的类型或国家,例如.com.org.net.cn等。
2.常用主机名对应的URL:
  • 主流网站
  • 使用HTTPS协议,主机名为www.example.com,请求/index.html资源。
  • 使用HTTP协议,主机名为example.org,请求/about资源。
  • 子域名
  • 使用HTTPS协议,主机名为blog.example.com,请求/posts资源。
  • 使用HTTP协议,主机名为shop.example.net,请求/products资源。
  • 国家或地区域名
  • 使用HTTPS协议,主机名为www.example.cn,请求/index.html资源。
  • 使用HTTP协议,主机名为www.example.co.uk,请求/contact资源。
  • FTP协议
  • 使用FTP协议,主机名为ftp.example.com,请求/file.txt资源。
  • API请求
  • 使用HTTPS协议,主机名为api.example.com,请求/v1/users资源,并传递查询参数limit=10

7.1.3 资源文件名(Path)

1.示例

  • 资源文件名是URL的第三部分,指明了在服务器上存放的具体资源的路径。路径可以包含文件名、目录名和查询参数。路径的结构通常如下:
  • 目录名 :表示资源所在的文件夹。
  • 文件名 :表示具体的文件,通常包括文件扩展名(如.html.jpg.php等)。
  • 查询参数(可选) :以问号?开始,包含键值对,用于传递额外的信息给服务器。例如,?id=123&sort=asc
  • 在这个URL中,/index.html是资源文件名,表示在www.example.com服务器上存放的index.html文件。
2.结合以上部分,以下是一个完整的URL示例及其组成部分的解释:

协议方案https - 使用安全的超文本传输协议。 主机名www.example.com - 资源存放的服务器地址。 资源文件名/path/to/resource.html - 服务器上资源的具体路径。 查询参数?query=parameter - 传递给服务器的额外信息。

7.1.4 URL 的重要性

URL是互联网的基础,能够唯一标识和定位网络资源。理解URL的组成部分对于网络爬虫、网页开发和搜索引擎优化等领域至关重要。通过正确构建和解析URL,用户和程序能够高效地访问和管理网络资源。

7.2 HTTP 协议

HTTP(超文本传输协议)是网络爬虫与服务器之间进行通信的主要协议。通过HTTP协议,爬虫可以发送请求以获取网页内容,并根据服务器的响应状态码判断请求是否成功。以下是HTTP协议的基本请求类型及其示例。

7.2.1 GET请求

GET请求 用于请求获取资源。它是最常用的HTTP请求方法之一,通常用于从服务器获取数据。 示例 : GET /index.html HTTP/1.1

  • GET :这是请求方法,表示客户端希望从服务器获取资源。
  • /index.html :这是请求的资源路径,表示客户端希望获取服务器上名为index.html的文件。
  • HTTP/1.1 :这是使用的HTTP协议版本,表示客户端希望使用HTTP/1.1协议进行通信。 解释
  • 当客户端(如浏览器或爬虫)发送这个请求时,它告诉服务器:“请给我/index.html这个文件。”服务器会处理这个请求,并返回相应的内容。

7.2.2 POST请求

POST请求 用于向服务器提交数据。它通常用于提交表单数据或上传文件。 示例 : POST /submit HTTP/1.1 Content-Type: application/x-www-form-urlencoded name=John&age=30

  • POST :这是请求方法,表示客户端希望向服务器提交数据。
  • /submit :这是请求的资源路径,表示客户端希望将数据提交到服务器的/submit路径。
  • HTTP/1.1 :这是使用的HTTP协议版本。
  • Content-Type: application/x-www-form-urlencoded :这是请求头,指示服务器请求体中的数据格式为表单编码。
  • name=John &age=30:这是请求体,包含了要提交的数据,表示用户的名字是“John”,年龄是30。 解释
  • 当客户端发送这个请求时,它告诉服务器:“我想提交一些数据,具体是名字和年龄。”服务器会处理这些数据,并根据逻辑进行相应的操作(如存储数据、返回结果等)。

7.2.3 状态码

服务器在处理请求后,会返回一个状态码,用于指示请求的处理结果。状态码是三位数字,通常分为五类:

  • 200 OK :请求成功,服务器返回所请求的资源。这是最常见的状态码,表示一切正常。
  • 404 Not Found :请求的资源不存在。服务器无法找到客户端请求的文件或页面,通常是因为URL错误或资源已被删除。
  • 500 Internal Server Error :服务器内部错误,无法处理请求。这表示服务器在处理请求时遇到了意外情况,导致无法完成请求。

7.4 Robots 协议

1.定义:

Robots协议 是网站与爬虫之间的一种约定,通过robots.txt文件告知爬虫哪些页面可以抓取,哪些页面禁止抓取。这有助于保护网站资源和隐私。

  • robots.txt文件 :位于网站根目录下,包含允许或禁止爬虫访问的路径。

2.示例

User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Allow: /

  • **User-agent: *** :表示该规则适用于所有爬虫。
  • Disallow: /cgi-bin/ :禁止爬虫访问/cgi-bin/目录。
  • Disallow: /tmp/ :禁止爬虫访问/tmp/目录。
  • Allow: / :允许爬虫访问网站的所有其他部分。

3.如何查看一个网站的robots协议?

要查看一个网站的robots.txt文件,可以在浏览器中输入以下格式的URL:http://www.example.com/robots.txt

  • www.example.com替换为你想要查看的具体网站的域名。例如,要查看百度的robots.txt文件,可以输入: http://www.baidu.com/robots.txt

4.访问robots.txt文件的步骤

  1. 打开你的网页浏览器。
  2. 在地址栏中输入目标网站的URL,后面加上/robots.txt
  3. 按下回车键,浏览器将显示该网站的robots.txt文件内容。

8 页面遍历策略

页面遍历是指网络爬虫在抓取网页时,如何选择和访问不同网页的策略。选择合适的遍历策略可以提高抓取效率和数据质量。以下是三种主要的页面遍历策略:

8.1 宽度优先遍历

宽度优先遍历 (Breadth-First Search, BFS)从一个起始的种子URL(开始抓取网页的起始网页)开始,逐层抓取网页。具体过程如下:

  • 首先抓取与种子页面直接相连的所有页面。
  • 然后再抓取这些页面所链接的下一层页面。 优点
  • 能够快速覆盖大量网页,适合需要广泛搜索的场景。 适用场景
  • 适合全网搜索的爬虫,尤其是在初始阶段需要获取大量数据时。

8.2 深度优先遍历

深度优先遍历 (Depth-First Search, DFS)从种子URL开始,沿着一条路径深入抓取,直到无法再深入时再回退到上一层继续抓取。具体过程如下:

  • 从种子页面开始,抓取一个链接,然后继续抓取该链接指向的页面。
  • 一直深入,直到没有更多链接可抓取时,再回退到上一个页面,继续抓取其他链接。 优点
  • 能够深入挖掘特定路径下的网页,适合分析特定主题的内容。 缺点
  • 容易陷入过深的路径,可能导致抓取效率降低,遗漏其他重要页面。

8.3 重要度优先遍历

重要度优先遍历 根据网页的重要性来决定抓取顺序,优先抓取重要性较高的网页。具体过程如下:

  • 通过分析网页的质量和重要性,优先抓取那些被认为更重要的页面。 优点
  • 提高抓取效率,确保重要网页被优先抓取,能够更快地获取高价值数据。 适用场景
  • 适合需要关注特定重要内容的爬虫,如搜索引擎和数据分析工具。

8.4 实验结果对比

实验结果显示,重要度优先遍历策略在抓取效率和数据质量上优于宽度优先和深度优先策略。通过对不同策略的抓取效果进行比较,发现重要度优先遍历能够更有效地利用资源,提高数据的覆盖率和可用性。 例如,重要度优先遍历能够更快地获取高质量的数据,帮助搜索引擎提供更好的搜索结果。


9.页面更新

9.1 什么是页面更新?

页面更新 是指网页内容的变化或修改,包括文本、图片、链接等信息的添加、删除或更改。网页更新的频率和方式因网站类型而异,例如新闻网站可能会频繁更新,而一些静态网站可能几个月才更新一次。

9.2 为什么要进行页面更新?

  1. 获取最新信息 :随着时间的推移,网页内容可能会发生变化。定期更新可以确保爬虫获取到最新的信息,满足用户对实时数据的需求。
  2. 提高搜索引擎排名 :搜索引擎通常会优先展示更新频繁的网页。通过保持网页内容的新鲜度,可以提高网站在搜索结果中的排名,吸引更多访问者。
  3. 维护数据准确性 :对于依赖于最新数据的应用(如金融、天气、新闻等),及时更新网页内容是确保数据准确性和可靠性的关键。
  4. 用户体验 :用户希望访问到最新的信息和内容。定期更新网页可以提升用户体验,增加用户的满意度和忠诚度。

9.3 页面更新的策略

1 更新方式

1.1 累积式抓取
  • 定义 :累积式抓取是指从某个时间点开始,持续抓取网页内容。这种方式允许爬虫在理想的环境下,逐步积累和处理所有网页。
  • 优点 :能够全面覆盖网页,适合需要长期监控和更新的场景。
  • 缺点 :可能会抓取到一些不再更新的页面,导致数据冗余。
1.2 增量式抓取
  • 定义 :增量式抓取是在已有一定规模的网页集合的基础上,采用更新数据的方式来抓取网页。爬虫会选择在集合中的网页进行抓取,以确保所抓取的数据与实际网络数据保持一致。
  • 优点 :减少了不必要的抓取,提高了效率。
  • 缺点 :需要确保抓取的网页是最新的,可能会遗漏一些重要更新。
1.3 累积式抓取与增量式抓取的区别总结
特点累积式抓取增量式抓取
定义从某个时间点开始,全面抓取网页内容。在已有网页集合的基础上,抓取更新的数据。
抓取方式逐步积累和处理所有相关网页。主要关注已抓取网页的更新情况。
适用场景适合新网站的初始抓取或全面数据采集。适合对经常更新的网站进行维护和更新。
优点能够全面覆盖网页,获取尽可能多的信息。提高抓取效率,减少不必要的抓取。
缺点可能导致数据冗余,抓取到不再更新的页面。可能遗漏一些重要更新,需确保网页是最新的。

2 页面影响力分析

通过分析查询日志和用户行为数据,爬虫可以判断网页对搜索结果的影响力,从而优先更新影响力大的网页。例如,如果某个网页在搜索引擎中被频繁点击,爬虫会优先抓取该网页,以确保其内容是最新的。

  • 优点 :能够提高抓取的针对性,确保重要内容得到及时更新。
  • 缺点 :依赖于用户行为数据,可能会受到数据偏差的影响。

3 页面更新频率

网页的更新频率是指网页内容被更新的频率。不同类型的网站更新频率差异很大,例如新闻网站可能每分钟更新,而静态页面可能几个月才更新一次。

  • 挑战 :爬虫需要根据不同网站的更新频率来调整抓取策略,以确保获取最新信息。

4 泊松分布与页面更新

泊松分布是一种统计模型,用于预测在固定时间间隔内发生事件的次数。在网页更新的场景中,泊松分布可以用来估计网页更新的频率。

  • 应用 :通过历史数据,爬虫可以预测网页的下次更新时机,从而合理安排抓取时间,减少不必要的抓取。

5 基于HTTP的更新

爬虫可以通过HTTP头信息中的Last-Modified字段来判断网页是否发生变化。每次抓取网页时,爬虫会记录该网页的Last- Modified值,并在下次抓取时进行比较。

  • 优点 :这种方法可以有效减少不必要的抓取,提高抓取效率。
  • 问题 :有些网站可能不会更新Last-Modified值,导致爬虫无法准确判断网页是否更新。

6 网页动态性问题

网页的动态性是指网页内容的变化频率。网页内容可能会随时被修改、删除或新增,这对爬虫的抓取策略提出了挑战。

  • 策略 :爬虫需要根据网页的动态性来调整抓取频率,以确保获取最新的数据。例如,对于更新频率较高的新闻网站,爬虫需要更频繁地抓取。

10 深网抓取

10.1 深网的定义:

深网 是指那些不容易被传统搜索引擎索引、常规爬虫难以抓取的网页,通常需要通过特定的表单提交或脚本执行才能访问。例如,一些需要用户填写表单的网站,只有在填写后才能访问的内容就属于深网。深网内容包括私人网站、动态生成的页面、需要表单提交的结果等。抓取深网内容的挑战在于如何有效地访问和提取这些信息。

10.2 深网的特点

  1. 特点
  • 隐私性 :深网内容通常涉及用户隐私,许多网站会限制爬虫的访问,以保护用户数据和内容版权。
  • 动态性 :深网页面可能是动态生成的,内容依赖于用户的输入或其他条件,抓取这些页面需要处理JavaScript等动态内容。
  • 复杂性 :深网的结构和访问方式多样,爬虫需要具备灵活的抓取策略来应对不同类型的深网内容。

10.3 深网抓取的类型

  1. 私人站点
  • 这些网站通常需要用户注册或登录才能访问,爬虫在抓取这些站点时需要处理身份验证和会话管理。
  • 示例 :社交媒体平台、在线论坛等。
  1. 表单结果
  • 许多网站的内容需要用户填写表单后才能显示,爬虫需要模拟用户行为,提交表单以获取结果。
  • 示例 :旅游预订网站、招聘网站等。
  1. 动态页面
  • 动态页面的内容通常依赖于JavaScript等脚本生成,爬虫需要能够执行这些脚本才能抓取到完整的内容。
  • 示例 :一些现代化的Web应用程序和单页应用(SPA)。

10.4 深网抓取的技术与策略

  1. 模拟用户行为
  • 爬虫需要模拟用户在浏览器中的操作,例如填写表单、点击按钮等,以获取深网内容。
  • 工具 :可以使用像Selenium这样的工具来模拟浏览器行为。
  1. 使用API
  • 一些深网内容可能通过API提供,爬虫可以直接调用这些API获取数据,而不是通过网页抓取。
  • 示例 :许多网站提供RESTful API供开发者使用。
  1. 处理动态内容
  • 对于需要执行JavaScript的页面,爬虫可以使用像Puppeteer或Playwright这样的工具,这些工具可以控制无头浏览器,执行脚本并抓取渲染后的内容。
  1. 遵循法律法规
  • 在抓取深网内容时,爬虫需要遵循相关法律法规和网站的使用条款,避免侵犯用户隐私和版权。

10.5 深网抓取的挑战

  1. 访问限制
  • 深网内容通常有较高的访问门槛,爬虫需要处理身份验证、验证码等问题。
  1. 数据结构复杂
  • 深网页面的结构可能不规则,爬虫需要灵活应对不同的HTML结构和数据格式。
  1. 动态内容抓取
  • 动态生成的内容需要额外的处理,爬虫需要能够执行JavaScript等脚本,增加了抓取的复杂性。

10.6 扩展:什么是表单?

表单 是网页中用于收集用户输入信息的结构化元素。它通常由多个输入字段(如文本框、下拉菜单、复选框等)组成,用户可以在这些字段中输入或选择信息。表单的主要目的是让用户提交数据给服务器,以便进行处理或存储。 表单通常包含以下元素:

  • 文本框 :用于输入单行或多行文本。
  • 密码框 :用于输入密码,输入的内容会被隐藏。
  • 单选按钮 :允许用户从一组选项中选择一个。
  • 复选框 :允许用户选择多个选项。
  • 下拉菜单 :提供一个可选择的列表,用户可以从中选择一个选项。
  • 提交按钮 :用户点击后提交表单数据。

现实中用户在网站填写表单的例子

  1. 注册表单
  • 用户在社交媒体、电子邮件或在线购物网站上创建账户时,通常需要填写注册表单,包括用户名、密码、电子邮件地址等信息。
  1. 登录表单
  • 用户访问网站时,输入用户名和密码以登录账户的表单。
  1. 搜索表单
  • 在电商网站或搜索引擎上,用户输入关键词以搜索产品或信息的表单。
  1. 反馈或联系表单
  • 用户在网站上提交反馈、建议或联系网站管理员的表单,通常包括姓名、电子邮件和留言内容。
  1. 订单表单
  • 在在线购物网站上,用户填写订单信息,包括收货地址、支付方式等。
  1. 调查问卷
  • 网站可能会提供调查问卷,用户填写后提交以提供反馈或参与研究。
  1. 预约表单
  • 用户在医疗、餐饮或服务行业的网站上填写预约信息的表单,包括日期、时间和个人信息。
  1. 评论表单
  • 用户在博客或新闻网站上发表评论时填写的表单,通常包括姓名、电子邮件和评论内容。