From 614447bd06b76d9691c1d646a9b54213d5177172 Mon Sep 17 00:00:00 2001 From: luzihang123 <526154064@qq.com> Date: Fri, 5 Jul 2019 14:50:32 +0800 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=94=B9README=E9=94=99=E5=88=AB?= =?UTF-8?q?=E5=AD=97?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- README-zh.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/README-zh.md b/README-zh.md index 048ae859..cff9424c 100644 --- a/README-zh.md +++ b/README-zh.md @@ -89,7 +89,7 @@ Crawlab的架构跟Celery非常相似,但是加入了包括前端、爬虫、F 任务是利用python的`subprocess`模块中的`Popen`来实现的。任务ID将以环境变量`CRAWLAB_TASK_ID`的形式存在于爬虫任务运行的进程中,并以此来关联抓取数据。 -在你的爬虫程序中,你需要将`CRAWLAB_TASK_ID`的值以`task_id`作为可以存入数据库中。这样Crawlab就直到如何将爬虫任务与抓取数据关联起来了。当前,Crawlab只支持MongoDB。 +在你的爬虫程序中,你需要将`CRAWLAB_TASK_ID`的值以`task_id`作为可以存入数据库中。这样Crawlab就知道如何将爬虫任务与抓取数据关联起来了。当前,Crawlab只支持MongoDB。 ### Scrapy