- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
所以我有一个蜘蛛,我认为它正在泄漏内存,当我检查 telnet 控制台时,事实证明它只是从链接丰富的页面中获取了太多链接(有时它会放置超过 100,000 个)>>> prefs()
现在我已经一次又一次地浏览文档和谷歌,但我找不到一种方法来限制蜘蛛接受的请求。我想要的是能够告诉它不要接受一次请求一定数量进入调度程序。我试过设置一个 DEPTH_LIMIT
,但这只会让它获取大量内容,然后在它获取的内容上运行回调。
这似乎是一件相当简单的事情,我相信人们以前遇到过这个问题,所以我知道一定有办法完成它。有什么想法吗?
编辑:这是 MEMUSAGE_ENABLE = True 的输出
{'downloader/request_bytes': 105716,
'downloader/request_count': 315,
'downloader/request_method_count/GET': 315,
'downloader/response_bytes': 10066538,
'downloader/response_count': 315,
'downloader/response_status_count/200': 313,
'downloader/response_status_count/301': 1,
'downloader/response_status_count/302': 1,
'dupefilter/filtered': 32444,
'finish_reason': 'memusage_exceeded',
'finish_time': datetime.datetime(2015, 1, 14, 14, 2, 38, 134402),
'item_scraped_count': 312,
'log_count/DEBUG': 946,
'log_count/ERROR': 2,
'log_count/INFO': 9,
'memdebug/gc_garbage_count': 0,
'memdebug/live_refs/EnglishWikiSpider': 1,
'memdebug/live_refs/Request': 70194,
'memusage/limit_notified': 1,
'memusage/limit_reached': 1,
'memusage/max': 422600704,
'memusage/startup': 34791424,
'offsite/domains': 316,
'offsite/filtered': 18172,
'request_depth_max': 3,
'response_received_count': 313,
'scheduler/dequeued': 315,
'scheduler/dequeued/memory': 315,
'scheduler/enqueued': 70508,
'scheduler/enqueued/memory': 70508,
'start_time': datetime.datetime(2015, 1, 14, 14, 1, 31, 988254)}
最佳答案
我解决了我的问题,答案真的很难找到,所以我把它贴在这里以防其他人遇到同样的问题。
在筛选 scrapy 代码并引用文档后,我可以看到 scrapy 将所有请求保存在内存中,我已经推断出这一点,但在代码中也有一些检查以查看是否有作业目录将挂起的请求写入磁盘(在 core.scheduler 中)
因此,如果您使用作业目录运行 scrapy 蜘蛛,它会将挂起的请求写入磁盘,然后从磁盘中检索它们,而不是将它们全部存储在内存中。
$ scrapy crawl spider -s JOBDIR=somedirname
当我执行此操作时,如果我进入 telnet 控制台,我可以看到我在内存中的请求数始终约为 25,并且我有 100,000+ 写入磁盘,这正是我希望它运行的方式。
这似乎是一个常见问题,因为要抓取一个大型网站,每个页面都有多个可提取链接。我很惊讶它没有更多的记录或更容易找到。
http://doc.scrapy.org/en/latest/topics/jobs.html那里的 scrapy 站点声明主要目的是暂停和稍后恢复,但它也以这种方式工作。
关于python - 如何限制scrapy请求对象?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27943970/
我有一个 ServiceBusQueue(SBQ),它获取大量消息负载。我有一个具有 accessRights(manage) 的 ServiceBusTrigger(SBT),它不断轮询来自 SBQ
在下面给出的结果集中,有 2 个唯一用户 (id),并且查询中可能会出现更多此类用户: 这是多连接查询: select id, name, col1Code, col2Code, col2Va
我正在用 Python 2.7.3 编写一个带有 GRequests 的小脚本和 lxml 可以让我从各种网站收集一些收藏卡价格并进行比较。问题是其中一个网站限制了请求的数量,如果我超过它,就会发回
我想知道何时实际使用删除级联或删除限制以及更新级联或更新限制。我对使用它们或在我的数据库中应用感到很困惑。 最佳答案 在外键约束上使用级联运算符是一个热门话题。 理论上,如果您知道删除父对象也将自动删
下面是我的输出,我只想显示那些重复的名字。每个名字都是飞行员,数字是飞行员驾驶的飞机类型。我想显示驾驶不止一架飞机的飞行员的姓名。我正在使用 sql*plus PIL_PILOTNAME
我正在评估不同的移动框架,我认为 nativescript 是一个不错的选择。但我不知道开发过程是否存在限制。例如,我对样式有限制(这并不重要),但我想知道将来我是否可以有限制并且不能使用某些 nat
我正在尝试使用 grails 数据绑定(bind)将一些表单参数映射到我的模型中,但我认为在映射嵌入式集合方面可能存在一些限制。 例如,如果我提交一些这样的参数,那么映射工作正常: //this wo
是否可以将 django 自过滤器起的时间限制为 7 天。如果日期超过 7 天,则不应用过滤器 最佳答案 timesince 的源代码位于 django/django/utils/timesince.
我想在我的网站上嵌入一个 PayPal 捐赠按钮。但问题是我住在伊朗——这个国家受到制裁,人们不使用国际银行账户或主要信用卡。 有什么想法吗?请帮忙! 问候 沮丧 最佳答案 您可以在伊朗境内使用为伊朗
这是我的查询 select PhoneNumber as _data,PhoneType as _type from contact_phonenumbers where ContactID = 3
这个问题在这里已经有了答案: What is the maximum number of parameters passed to $in query in MongoDB? (4 个答案) 关闭
我的一个项目的 AndroidManifest.xml 变得越来越大(> 1000 行),因为我必须对某些文件类型使用react并且涵盖所有情况变得越来越复杂。我想知道 list 大小是否有任何限制。
在使用 Sybase、Infomix、DB2 等其他数据库产品多年后使用 MySQL 5.1 Enterprise 时;我遇到了 MySQL 不会做的事情。例如,它只能为 SELECT 查询生成 EX
这个问题在这里已经有了答案: What is the maximum number of parameters passed to $in query in MongoDB? (4 个回答) 关闭5年
通常我们是在{$apache}/conf/httpd.conf中设置Apache的参数,然而我们并没有发现可以设置日志文件大小的配置指令,通过参考http://httpd.apache.org/do
我正在搜索最大的 Android SharedPreferences 键值对,但找不到任何好的答案。其次,我想问一下,如果我有一个键,它的字符串值限制是多少。多少字符可以放入其中。如果我需要频繁更改值
我目前正在试验 SoundCloud API,并注意到我对/tracks 资源的 GET 请求一次从不返回超过 200 个结果。关于这个的几个问题: 这个限制是故意的吗? 有没有办法增加这个限制? 如
我正在与一家名为 Dwolla 的金融技术公司合作,该公司提供了一个 API,用于将银行信息附加到用户并收取/发送 ACH 付款。 他们需要我将我的 TLS 最低版本升级到 1.2(禁用 TLS 1.
我在 PHP 中有一个多维数组,如下所示: $array = Array ( [0] => Array ( [bill] => 1 ) [1] => Array ( [
我在获取下一个查询的第一行时遇到了问题: Select mar.Title MarketTitle, ololo.NUMBER, ololo.Title from Markets mar JOIN(
我是一名优秀的程序员,十分优秀!