什么是网络爬网?开发人员和数据工程师的完整指南

已发表: 2025-04-12
目录显示
网络爬网概论
为什么网络爬虫在现代网络中很重要
网络爬网与网络刮刀 - 关键差异
网络爬网的常见用例
将您的爬行能力提升到一个新的水平
网络爬虫的工作方式(在引擎盖下)
爬网周期解释了
1。从种子URL开始
2。发​​送HTTP请求
3。解析HTML内容
4。提取和标准化链接
5。存储或过程内容
6。将新链接添加到队列
尊重机器人.txt和爬网政策
处理分页和无限滚动
礼貌,限制和节流
网络爬网的工具和技术
网络爬网的流行编程语言
Python
node.js
爪哇
去和生锈
关键库和框架
请求 +美丽的套件(Python)
砂纸(Python)
Puppeteer(node.js) /剧作家(节点 / python)
为工作选择合适的工具
需要自定义的网络爬行解决方案吗?
API爬行与网络爬行
分步指南:在Python中构建一个简单的网络爬网
设置您的环境
写你的第一个爬行者
导入所需的库
定义页面提取功能
解析HTML并提取链接
验证和删除URL
深度限制的爬网逻辑
运行爬行者
缩放网络爬网以进行现实世界使用
管理爬行队列
多线程与异步爬行
分布式爬行建筑
处理JavaScript重型网站
错误处理和重试逻辑
数据存储和管道
监视和可观察性
法律和道德考虑
尊重机器人.txt
服务条款(TOS)合规性
版权,IP和数据隐私
将自己确定为机器人
避免滥用服务器和费率限制
当爬行可能是非法的
道德网络刮擦,为您的业务建造
网络爬行中的共同挑战
费率限制,节流和IP阻塞
处理重定向和断开的链接
机器人检测机制
动态和JavaScript繁重的页面
URL爆炸和爬行陷阱
重复或低价值内容
大规模爬行:系统故障
将您的网络爬到一个新的水平
需要在道德上有效地扩展帮助吗?
常见问题解答:网络爬虫解释了

在互联网的庞大,扩展的宇宙中,诸如Google之类的搜索引擎如何知道存在哪些内容以及在哪里可以找到它?输入网络爬网 - 现代网络的无声主力。无论您是开发人员对搜索引擎索引内容的方式还是从电子商务网站中提取实时数据的数据工程师的好奇,了解Web Crawlers的工作方式是一种基本技能。

网络爬网机通常称为蜘蛛或机器人,是一个系统地浏览Internet以发现,下载和分析网站内容的程序。从搜索引擎优化(SEO)和潜在客户生成到情感分析和学术研究至关重要的一切至关重要。

在本指南中,我们将探讨网络爬网背后的机制,如何构建自己的爬行者,道德和法律意义以及用于扩展和优化现实世界应用程序的爬行者的高级技术。

让我们潜水。

网络爬网概论

为什么网络爬虫在现代网络中很重要

互联网包含数十亿个网页。 Web爬网是数字世界的“索引者”。他们的工作是自动遍历网站,收集内容并将其存储以进行分析或将其传递给其他系统,例如搜索引擎。

例如:

  • GoogleBot索引Web内容以服务搜索结果。
  • 价格情报平台每天抓取竞争对手的定价页。
  • 学术机构抓取网络档案,用于情感分析和机器学习数据集。

如果没有爬行者,我们将依靠手动发现或孤立的数据访问,这是当今快节奏的数据驱动世界中的启动者。

网络爬网与网络刮刀 - 关键差异

虽然这些术语通常是互换使用的,但网络爬行网络刮擦是不同的过程:

网络爬行网络刮擦
发现并导航网页从发现的页面中提取数据
专注于URL和站点结构专注于特定内容(文本,价格,电子邮件等)
示例:Googlebot爬行数十亿个网站示例:刮擦产品价格的脚本

网络爬网也可能会刮擦,但其主要目的是探索和索引。

网络爬网的常见用例

网络爬网是跨众多领域的基础工具 - 不仅用于营销或SEO,而且用于研究,基础架构,AI培训甚至网络安全。

  • 搜索引擎索引
    诸如Google和Bing索引索引数十亿页之类的平台的核心。爬虫在整个网络上发现并评估内容。
  • 科学研究与学术界
    研究人员抓取新闻档案,论坛和社交媒体来构建语言研究,情感分析或流行病学跟踪的数据集。
  • 机器学习和AI数据集生成
    爬虫收集结构化/非结构化数据以训练NLP模型,聊天机器人,图像分类器和推荐系统。
  • 网络安全和威胁情报
    安全团队使用爬行者来扫描论坛,黑暗的网络市场或裸露的基础架构,以了解漏洞和泄漏的凭据。
  • 内容汇总和发现
    诸如RSS读取器,代码存储库或新闻聚合器等工具以编译最新更新。
  • 企业数据集成
    公司抓取内部系统,Intranet或供应商门户网站,以将零散的数据合并到集中的分析平台中。
  • 知识图和元数据丰富
    爬虫收集并连接跨站点(例如公司数据库,打开目录)的结构化信息,以供电搜索引擎或推荐引擎。

将您的爬行能力提升到一个新的水平

查看我们的企业级爬行解决方案如何帮助您大规模地提取数据提取 - 而没有基础设施头痛。

安排演示


网络爬虫的工作方式(在引擎盖下)

在尝试建造一个之前,了解网络爬网的内部工作原理至关重要。尽管总体概念很简单 - 访问网页并提取链接,但实际的体系结构和执行涉及几个必须和谐起作用的活动部件。

爬网周期解释了

在高水平上,网络爬行遵循一个可重复的环,称为爬网周期。这是逐步工作的方式:

1。从种子URL开始

爬虫从一个或多个起点开始 - 通常是https://example.com等域级URL。这些被称为种子URL

2。发​​送HTTP请求

爬网发送HTTP获取请求以获取种子页面的HTML内容。请求标头通常包含一个用户代理字符串,以识别爬虫。

3。解析HTML内容

一旦收到HTML响应,就可以解释以提取相关数据,并且 - 最重要的是超链接。这种解析通常是使用BeautifuresoupLXMLCheerio.js等图书馆来完成的,具体取决于语言和爬行者堆栈。

4。提取和标准化链接

使用基本域将所有提取的链接(<a href =“”>)转换为绝对URL。使用Urljoin或等效方法解决相对路径。

5。存储或过程内容

爬网是:

  • 存储RAW HTML用于下游解析,
  • 提取结构化数据(例如标题,元数据,表),
  • 或将其推入管道进行处理(例如Elasticsearch或数据库)。

6。将新链接添加到队列

所有有效的,重复重复的链接都添加到队列中,以进行将来的爬行。该周期重复,并保持访问URL的记录。

尊重机器人.txt和爬网政策

在爬行任何站点之前,负责的机器人检查 /robots.txt文件以确定爬网权限和不允许路径。 Python中的Robotparser之类的工具可以自动化此合规性。

TXT

CopyEdit

用户代理: *

禁止: /私人 /

爬行 - 延迟:5

  • 禁止:防止爬网访问特定目录。
  • 爬网 - 延迟:请求在请求之间延迟以避免服务器过载。

重要的是:并非所有网站都执行Robots.txt,但是道德爬行者总是遵守它。

处理分页和无限滚动

现代网站使用分页或无限的滚动界面。爬虫必须:

  • 在URL参数中识别?page = 2,offset = 10等
  • 模拟JavaScript较重页面的滚动行为(使用Puppeteer等无头浏览器)
  • 避免重新划出相同的内容(分页循环)

无法有效处理分页,可能会导致重复的内容收集不完整的数据覆盖范围

礼貌,限制和节流

爬行者必须有礼貌 - 尤其是在爬行公共面向公共的网站时。

最佳实践包括:

  • 避免压倒服务器的节流请求(例如,每秒1-2个请求)
  • 尊重429或503错误的重试标头
  • 随机化用户代理和要求间隔以模拟自然行为
  • 分布式安排到太空工作量

在单线读取器或分布式爬行系统中实施时间。

网络爬网的工具和技术

网络爬网几乎可以用任何编程语言构建,但是由于鲁棒的库,HTTP处理和解析工具,某些生态系统比其他生态系统更易于浏览器友好。

网络爬网的流行编程语言

选择正确的语言取决于对项目的复杂性,性能需求和生态系统的支持。

Python

Python由于其简单性和庞大的生态系统而是最受欢迎的Web爬行语言。

  • 优点:简单的语法,庞大的图书馆(美丽的套件,砂纸,请求)
  • 用例:快速爬网,原型制作,数据提取管道

node.js

基于JavaScript的爬行是处理依赖客户端渲染的动态站点的理想选择。

  • 优点:非常适合使用Puppeteer或剧作家与JS渲染的页面互动
  • 用例:爬行现代网络应用程序,无头自动化

爪哇

用于企业级,多线程爬行者或学术研究工具(例如Apache Nutch)。

  • 优点:速度,稳定性,线程处理
  • 用例:大规模分布式网络爬网

去和生锈

现代系统语言(如Go and Rust)的速度和资源效率正在采用。

  • 用例:高性能或对记忆敏感的爬网

关键库和框架

请求 +美丽的套件(Python)

  • 请求处理HTTP连接
  • 美丽的人牌html和xml

他们一起提供了一种快速,轻巧的方式来构建自定义爬行者。

Python

CopyEdit

导入请求

来自BS4进口美丽的小组

砂纸(Python)

一个多合一的异步爬行框架。

  • 内置请求调度,节流,重复数据删除和管道
  • 非常适合中型至大规模爬行者

Puppeteer(node.js) /剧作家(节点 / python)

无头浏览器自动化工具。

  • 可以爬网JavaScript渲染页面
  • 支持屏幕截图,用户事件等

用于测试自动化,但也能够通过模拟浏览器来抓取动态网站。

  • 通常比无头替代方案慢,但非常适合与表格和基于JS的导航进行互动

为工作选择合适的工具

要求最佳工具
静态HTML页面请求 +美丽的套件(Python)
JS渲染的内容木偶,剧作家
可扩展的爬虫砂纸,阿帕奇纳奇,科莉(GO)
自定义提取 +转换Node.js + Cheerio,Python + LXML
分布式系统使用Kafka,芹菜,Redis的定制堆栈

专家提示:如果您的目标站点经常更改或使用JS渲染,废纸 +剧作家木偶混合堆栈是理想的选择。

需要自定义的网络爬行解决方案吗?

从实时产品跟踪到大规模的网络索引,我们的团队提供了针对您的用例量身定制的功能强大的,合规的爬网。

探索我们的服务

API爬行与网络爬行

有时候,使用网站的公共API比爬网络更好。

网络爬行API爬行
从渲染的HTML中提取内容直接访问结构化数据
容易改变布局稳定的版本控制和响应模式
由于解析和重试速度较慢通常更快,更可靠

如果您需要的数据可通过API获得,请首先使用它- API更稳定,高效且在道德上优先。

分步指南:在Python中构建一个简单的网络爬网

本节将带您使用Python构建功能,初学者到中级级别的爬网。我们将介绍提取页面,提取链接并深入爬行多个层次 - 同时处理基本错误并保持礼貌的服务器。

注意:本教程是为了学习目的而简化的。对于生产规模的爬网,请考虑诸如废料或分布式设置之类的框架。

设置您的环境

启动之前,请确保已安装Python 3.x。然后安装所需的库:

bash

CopyEdit

PIP安装请求Beautifutsoup4

创建一个新文件:

bash

CopyEdit

触摸crawler.py

写你的第一个爬行者

让我们将爬虫分解成模块化的碎片。

导入所需的库

Python

CopyEdit

导入请求

来自BS4进口美丽的小组

来自urllib.parse导入urljoin,urlparse

进口时间

这些处理HTTP请求,HTML解析和URL处理。

定义页面提取功能

Python

CopyEdit

def fetch_page(url):

尝试:

标题= {'user-agent':'CustomCrawler/1.0'}

响应= requests.get(url,标头=标题,超时= 10)

response.raise_for_status()

返回响应

除了请求。requestException作为e:

print(f” [error]无法获取{url}:{e}”)

没有返回

  • 使用自定义用户代理字符串
  • 包括防止吊死的超时
  • 优雅地处理HTTP错误

解析HTML并提取链接

Python

CopyEdit

def extract_links(html,base_url):

汤= beautifutsoup(html,'html.parser')

链接= set()

对于soup.find_all中的a_tag('a',href = true):

href = urljoin(base_url,a_tag ['href'])

解析= urlparse(href)

如果在['http','https']中进行解析。

links.add(href)

返回链接

  • 将相对URL转换为绝对
  • 有效HTTP链接的过滤器

验证和删除URL

Python

CopyEdit

DEF IS_VALID(URL):

解析= urlparse(url)

返回布尔(解析)和布尔(解析)

在将链接添加到您的爬网队列之前,请先使用此功能。

深度限制的爬网逻辑

Python

CopyEdit

def爬网(seed_url,max_depth = 2):

访问= set()

队列= [(seed_url,0)]

同时排队:

current_url,depth = queue.pop(0)

如果current_url在访问或深度> max_depth中:

继续

print(f”爬行:{current_url}(depth:{depth})”)

html = fetch_page(current_url)

如果不是HTML:

继续

访问add(current_url)

links = extract_links(html,current_url)

对于链接中的链接:

如果未访问的链接:

queue.append((链接,深度 + 1))

时间。

  • 轨道访问了页面
  • 在队列中添加新页面
  • 限制爬网深度以避免无限环路
  • 增加了尊重服务器加载的延迟

运行爬行者

Python

CopyEdit

如果__name__ ==“ __ -main __”:

种子=“ https://example.com”

爬网(种子,max_depth = 2)

用您的目标站点替换https://example.com(确保其可爬网并允许您访问它)。

专家提示:您可以在数据库,CSV甚至Elasticsearch索引中坚持访问的链接或存储分析的内容,具体取决于您的用例。

缩放网络爬网以进行现实世界使用

在您的机器上构建一个可在机器上工作的轨道是一回事,但是对于实际数据操作,使其可靠,快速且可扩展是另一回事。

让我们探索从单线程脚本扩展到企业级爬网所需的必需组件。

管理爬行队列

在简单的爬网中,我们经常使用内存列表或集合来跟踪URL。这并不是很好。

对于可扩展系统,请使用:

  • REDIS或RABBITMQ作为消息队列以管理工人的URL
  • 布鲁姆过滤器以避免重新审视URL(空间效率)
  • 基于数据库的队列(Postgresql,MongoDB),用于持久性和可审核性

这使得分布式爬行,其中多个爬行者实例从同一队列中撤出并进行了协作更新状态。

多线程与异步爬行

超越每秒1-2个请求:

  • 多线程:启动多个线程以同时处理请求(例如,螺纹或consurrent.futures.threadpoolexecutor,in python中)
  • 异步I/O :使用异步库(如AIOHTTP和ASYNCIO)进行非阻滞HTTP请求

Aiohttp的示例:

Python

CopyEdit

导入aiohttp

导入异步

异步def提取(url):

与aiohttp.clientsession()as session Async一起:

with session.get(url)作为响应:

返回等待响应.text()

异步爬行者更快,更高效,尤其是对于诸如Web爬网之类的I/O结合任务。

分布式爬行建筑

根据规模,您需要多台机器或容器一起工作。这涉及:

  • 分布式调度程序(例如芹菜,卡夫卡)
  • 工人节点:
    • 拉URL
    • 获取和解析数据
    • 向下推数据

考虑使用Docker将爬行者容器化并在云簇(例如AWS ECS,Kubernetes)上部署它们。

处理JavaScript重型网站

许多现代网站呈现大多数内容的客户端。要处理这一点:

  • 使用无头浏览器,例如:
    • Puppeteer(node.js)
    • 剧作家(Python或Node)
    • 硒(多语言)

尖端:

  • 避免加载图像或字体以节省带宽
  • 预付仅关键资源
  • 节流爬行速度以避免禁令

错误处理和重试逻辑

一个现实世界的爬行者必须优雅地处理:

  • HTTP 403、404、429(太多请求)和500个错误
  • 重定向循环
  • 超时并丢弃连接

最佳实践:

  • 实施带指数退回的重试队列
  • 将所有失败都带有时间戳和错误详细信息
  • 如有必要,请使用旋转的代理或用户代理池

数据存储和管道

根据数据和卷,将内容存储在:

用例建议存储
简单的数据集CSV,JSON,SQLITE
结构化内容Postgresql,MongoDB
全文搜索和检索Elasticsearch,OpenSearch
长期档案AWS S3,IPFS,Minio

使用KAFKA,气流或自定义ETL管道清洁,转换和加载数据下游的数据。

监视和可观察性

可扩展的轨道需要实时可见性。使用以下工具:

  • Prometheus + Grafana :监视器队列大小,爬网率,错误率
  • 日志聚合(例如,麋鹿堆栈):分布式工人的集中日志
  • 警报:通知爬网失败,域禁令或队列饥饿

法律和道德考虑

网络爬行存在于合法的灰色区域中 - 虽然它是数据收集的有力工具,但必须负责任地使用它以避免法律问题,品牌损坏或服务器禁令。

尊重机器人.txt

在爬行任何域之前,您的爬行者应获取并遵循网站的robots.txt文件中的规则(例如,https://example.com/robots.txt)。

例子:

TXT

CopyEdit

用户代理: *

禁止: /admin /

爬行 - 延迟:5

  • 禁止:爬虫必须避免的页面。
  • 爬网 - 延迟:在请求之间等待多少秒钟。

最佳实践:始终检查并关注Robots.txt-即使网站在技术上不强制执行。

服务条款(TOS)合规性

每个网站的服务条款通常概述:

  • 是否允许机器人
  • 哪些内容可以复制或不能复制
  • 费率限制或访问限制

违反TO(尤其是对于商业爬行者)可能会导致法律行动。

提示:仅从法律允许或明确允许的网站上刮擦公共数据。

版权,IP和数据隐私

  • 即使是公开的,您爬行的内容也可能会受到版权保护
  • 收集用户生成的数据(例如,评论,配置文件)可能会引发隐私问题,尤其是根据GDPRCCPA等法律。
  • 避免存储或重新分布敏感数据。

经验法则:爬网进行发现和索引。除非您拥有权利或许可,否则请勿复制整个数据集。

将自己确定为机器人

您可以通过以下方式向透明度和责任发出信号:

自定义用户代理字符串
例子:

较少的
CopyEdit
condercrawler/1.0(+https://yourcompany.com/crawler-info)

  • 提供爬网联系电子邮件或页面
    这建立了信任,可以防止不必要的IP禁令。

避免滥用服务器和费率限制

不受控制的爬行者可以:

  • DDOS小网站无意间
  • 通过WAFS,速率限制器或CAPTCHAS被阻止

最佳实践

  • 尊重爬行脱落
  • 在重试时使用指数退回
  • 避免在高峰时段爬行
  • 根据服务器响应代码监视和油门

当爬行可能是非法的

避免爬行:

  • 付费内容
  • 具有访问限制的政府门户网站
  • 敏感健康,法律或个人身份信息(PII)
  • 私人平台(例如,LinkedIn,Facebook),除非通过官方API

如有疑问,请咨询法律顾问或使用符合地区法律的数据聚合服务。

道德网络刮擦,为您的业务建造

我们提供完全合规的自定义数据解决方案 - 尊重法律界限,行业规范和您品牌的完整性。

获得合规性优先刮擦解决方案

网络爬行中的共同挑战

即使有结构良好的轨道和固体技术堆栈,现实世界中的条件也会引入摩擦。网站是不可预测的,技术变化迅速,服务器并不总是很乐意看到机器人。

这是您需要准备的。

费率限制,节流和IP阻塞

大多数网站检测并阻止了在短时间内发送太多请求的机器人。

症状:

  • 突然的HTTP 429(“太多请求”)
  • IP黑名单
  • 验证码或WAF(Web应用程序防火墙)块

解决方案:

  • 使用旋转代理或IP池
  • 随机化用户代理和标头
  • 荣誉重试标头
  • 实施指数退回策略

处理重定向和断开的链接

您会经常遇到:

  • 301/302重定向(URL更改)
  • 404或410(删除的内容)
  • 软404(加载但没有真正内容的页面)

该怎么办:

  • 在您的http请求中使用ally_redirects = true智能地关注重定向
  • 日志和跳过折断链接
  • 标准化和重复的最终目的地URL

机器人检测机制

网站使用Cloudflare,Akamai和自定义机器人保护等工具来检测非人类流量。

检测信号:

  • 重复访问模式
  • 缺少标题或鼠标运动
  • 缺乏JS执行或饼干处理

旁路策略(在适当和道德时):

  • 使用无头浏览器来模仿真实的用户
  • 添加随机时间延迟
  • 尊重爬网频率限制

注意:某些绕过技术可能违反条款或地方法律。

动态和JavaScript繁重的页面

许多现代站点仅在JavaScript运行后才渲染内容 - 简单的HTTP请求无法捕获。

修复:

  • 使用Puppeteer或剧作家全页渲染
  • 使用硒等工具进行相互作用的爬行
  • 设置缓存以避免重复JS执行

URL爆炸和爬行陷阱

一些网站通过过滤器,日历或基于会话的链接具有无限爬网的URL。

示例陷阱:

  • /products?pag = 1, /products?page = 2…→永远
  • /日历?日期= 2023-01-01→无限组合

解决方案:

  • 使用正则过滤器或白名单来控制URL模式
  • 限制每个域的爬网深度和请求计数
  • 在排队新链接之前应用重复数据删除

重复或低价值内容

一些网站在不同的URL(例如UTM参数,排序订单)下提供几乎相同的内容。

避免噪音的提示:

  • 标准化期间的带状查询参数,例如?utm_source
  • 哈希页面内容以检测重复
  • 使用规范标签(如果存在)来确定主版本

大规模爬行:系统故障

大型爬行通常由于以下原因而失败:

  • 内存泄漏
  • 磁盘溢出
  • 网络节流
  • 线程僵局

如何准备:

  • 不断监视系统资源
  • 限制并发线程和I/O
  • 使用断路器或故障安全作业重新启动
  • 备份中期进步

将您的网络爬到一个新的水平

无论您是构建搜索引擎,喂养机器学习管道还是为学术研究提取见解,网络爬网都是可扩展数据发现的基础。

在本指南中,我们介绍了:

  • 网络爬网是什么及其工作原理
  • 如何在Python中从头开始建造一个
  • 工具,库和现实世界扩展策略
  • 法律,道德和技术挑战
  • 经常询问开发人员和数据团队遇到的问题

既然您已经有了一个完全的理解,那么您就可以建立不仅强大的爬行者,而且还准备好道德,高效且准备就绪。

下一步?部署爬行者,监控其性能并进行进化以满足您独特的数据目标。

需要在道德上有效地扩展帮助吗?

我们的PromentCloud的团队构建了针对您的数据目标量身定制的符合制作级的爬行者,因此您可以专注于洞察力,而不是基础架构。

今天与我们的专家交谈

常见问题解答:网络爬虫解释了

这些是围绕网络爬行者的最常见问题 - 从SERPS中的真实搜索行为,LLM提示和PAA(人们也问)框中。

什么是网络爬网?

Web爬网是一个系统地浏览Internet以从网页发现和索引内容的程序。它通常由搜索引擎,研究人员和开发人员用于自动数据收集。

网络爬网如何工作?

网络爬网从一个或多个种子URL开始。它发送HTTP请求,解析返回的HTML,提取链接,并在存储或处理数据时递归重复该过程。

网络爬网和网络刮擦有什么区别?

网络爬行是关于发现和导航网页。网络刮擦是关于从这些页面中提取特定数据。爬行者可能会刮擦,但刮擦并不总是涉及爬行多页。

网络爬行是合法的吗?

负责任地完成Web Crawling是合法的,尊重Robots.txt和网站的服务条款。但是,未经许可的受版权保护,敏感或私人数据可能会违反GDPR或版权保护等法律。

建造网络爬网的最佳工具是什么?

流行工具包括:

- 用于交互式或动态内容

砂纸(Python) - 完整的框架

请求 +美丽的小组- 轻巧的脚本

Puppeteer /剧作家- 适用于JS繁重的网站

我可以抓取JavaScript网站吗?

是的。对于JS渲染的内容,请使用Puppeteer或Playwright等无头浏览器。它们允许爬行者像人类浏览器一样渲染并与动态元素进行交互。

我如何避免爬行时被阻塞?

避免被阻止:

监视HTTP 429的监视,然后重试延迟

尊重robots.txt

油门请求频率

旋转IP地址和用户代理

爬行者应该走多深?

深度取决于您的目标。浅爬行(1-2个级别)快速且对发现有用。深爬行可以发现现场结构,但有可能进入无限环或陷阱。使用深度限制,URL过滤和重复数据删除。

我可以使用网络爬网机进行机器学习吗?

绝对地。 Web爬网被广泛用于构建用于NLP,推荐引擎,计算机视觉等的数据集。它们允许在公共网络上自动收集培训数据。