- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
如何让Scrapy爬取不需要用户名和密码的FTP服务器?我试过将 url 添加到起始 url,但 Scrapy 需要用户名和密码才能访问 FTP。我已经重写了 start_requests()
以提供默认请求(当我使用 Linux 的 ftp
命令尝试时,用户名“anonymous”和空白密码有效),但我现在从服务器获得 550 个响应。
使用 Scrapy 爬取 FTP 服务器的正确方法是什么 - 理想情况下是一种适用于所有不需要用户名或密码访问的 FTP 服务器的方法?
最佳答案
没有文档,但 Scrapy 内置了这个功能。有一个 FTPDownloadHandler
它使用 twisted 的 FTPClient
处理 FTP 下载。你不需要直接调用它,它会 automagically turn on如果请求了 ftp
url。
在你的爬虫中,继续使用 scrapy.http.Request
类,但在 ftp_user
和 ftp_password
项的 meta
字典中提供 ftp 凭据:
yield Request(url, meta={'ftp_user': 'user', 'ftp_password': 'password'})
ftp_user
和 ftp_password
是必需的。还有two optional keys您可以提供:
ftp_passive
(默认启用)设置 FTP 连接被动模式ftp_local_filename
:
当您需要下载文件并将其保存在本地而不处理蜘蛛回调中的响应时,后者很有用。
至于匿名使用,提供什么凭据取决于ftp服务器本身。用户是“匿名的”,密码通常是您的电子邮件、任何密码或空白。
仅供引用,引自 specification :
Anonymous FTP is a means by which archive sites allow general accessto their archives of information. These sites create a specialaccount called "anonymous". User "anonymous" has limited accessrights to the archive host, as well as some operating restrictions. Infact, the only operations allowed are logging in using FTP, listingthe contents of a limited set of directories, and retrieving files.Some sites limit the contents of a directory listing an anonymous usercan see as well. Note that "anonymous" users are not usually allowedto transfer files TO the archive site, but can only retrieve filesfrom such a site.
Traditionally, this special anonymous user account accepts any stringas a password, although it is common to use either the password"guest" or one's electronic mail (e-mail) address. Some archive sitesnow explicitly ask for the user's e-mail address and will not allowlogin with the "guest" password. Providing an e-mail address is acourtesy that allows archive site operators to get some idea of who isusing their services.
在控制台上尝试通常有助于了解您应该使用什么密码,欢迎消息通常会明确说明密码要求。真实世界的例子:
$ ftp anonymous@ftp.stratus.com
Connected to icebox.stratus.com.
220 Stratus-FTP-server
331 Anonymous login ok, send your complete email address as your password.
Password:
这是 mozilla public FTP 的工作示例:
import scrapy
from scrapy.http import Request
class FtpSpider(scrapy.Spider):
name = "mozilla"
allowed_domains = ["ftp.mozilla.org"]
handle_httpstatus_list = [404]
def start_requests(self):
yield Request('ftp://ftp.mozilla.org/pub/mozilla.org/firefox/releases/README',
meta={'ftp_user': 'anonymous', 'ftp_password': ''})
def parse(self, response):
print response.body
如果你运行爬虫,你会看到 README file 的内容在控制台上:
Older releases have known security vulnerablities, which are disclosed at
https://www.mozilla.org/security/known-vulnerabilities/
Mozilla strongly recommends you do not use them, as you are at risk of your computer
being compromised.
...
关于python - 使用Scrapy爬取公共(public)FTP服务器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27770610/
在一个 scrapy 项目中,人们经常使用中间件。在交互式 session 期间是否也有一种通用方法可以在 scrapy shell 中启用中间件? 最佳答案 尽管如此,在 setting.py 中设
我想对网页中向下滚动生成的内容进行反向工程。问题出在url https://www.crowdfunder.com/user/following_page/80159?user_id=80159&li
我需要帮助将相对URL转换为Scrapy Spider中的绝对URL。 我需要将起始页面上的链接转换为绝对URL,以获取起始页面上已草稿的项目的图像。我尝试使用不同的方法来实现此目标失败,但是我陷入了
我在 Scrapy Python 中制作了一个脚本,它在几个月内一直运行良好(没有更改)。最近,当我在 Windows Powershell 中执行脚本时,它引发了下一个错误: scrapy craw
我已经从 docker 启动了 splash。我为 splash 和 scrapy 创建了大的 lua 脚本,然后它运行我看到了问题: Lua error: error in __gc metamet
我正在使用scrapy 来抓取网站,但发生了不好的事情(断电等)。 我想知道我怎样才能从它坏了的地方继续爬行。我不想从种子开始。 最佳答案 这可以通过将预定的请求持久化到磁盘来完成。 scrapy c
有人可以向我解释一下 Scrapy 中的暂停/恢复功能是如何实现的吗?作品? scrapy的版本我正在使用的是 0.24.5 documentation没有提供太多细节。 我有以下简单的蜘蛛: cla
我想将 apscheduler 与 scrapy.but 我的代码是错误的。 我应该如何修改它? settings = get_project_settings() configure_logging
我正在抓取一个网站并解析一些内容和图像,但即使对于 100 页左右的简单网站,完成这项工作也需要数小时。我正在使用以下设置。任何帮助将不胜感激。我已经看过这个问题- Scrapy 's Scrapyd
我正在抓取一个网站并解析一些内容和图像,但即使对于 100 页左右的简单网站,完成这项工作也需要数小时。我正在使用以下设置。任何帮助将不胜感激。我已经看过这个问题- Scrapy 's Scrapyd
我是爬行新手,想知道是否可以使用 Scrapy 逐步爬行网站,例如 CNBC.com?例如,如果今天我从一个站点抓取所有页面,那么从明天开始我只想收集新发布到该站点的页面,以避免抓取所有旧页面。 感谢
我是scrapy的新手。我正在尝试从 here 下载图像.我在关注 Official-Doc和 this article . 我的 settings.py 看起来像: BOT_NAME = 'shop
我在使用 scrapy 时遇到了一些问题。它没有返回任何结果。我试图将以下蜘蛛复制并粘贴到 scrapy shell 中,它确实有效。真的不确定问题出在哪里,但是当我用“scrapy crawl rx
如何使用 Scrapy 抓取多个 URL? 我是否被迫制作多个爬虫? class TravelSpider(BaseSpider): name = "speedy" allowed_d
当我使用splash渲染整个目标页面来爬取整个网站时出现问题。某些页面不是随机成功的,所以我错误地获取了支持渲染工作完成后出现的信息。这意味着我尽管我可以从其他渲染结果中获取全部信息,但仅从渲染结果中
如何使用 Scrapy 抓取多个 URL? 我是否被迫制作多个爬虫? class TravelSpider(BaseSpider): name = "speedy" allowed_d
我的scrapy程序无论如何只使用一个CPU内核CONCURRENT_REQUESTS我做。 scrapy中的某些方法是否可以在一个scrapy爬虫中使用所有cpu核心? ps:好像有争论max_pr
我最近用 python 和 Selenium 做了一个网络爬虫,我发现它做起来非常简单。该页面使用 ajax 调用来加载数据,最初我等待固定的 time_out 来加载页面。这工作了一段时间。之后,我
我想用这个命令运行 scrapy 服务器: scrapy server 它失败了,因为没有项目。然后我创建一个空项目来运行服务器,并成功部署另一个项目。但是,scrapy 服务器无法处理这个项目,并告
我正在创建一个网络应用程序,用于从不同网站抓取一长串鞋子。这是我的两个单独的 scrapy 脚本: http://store.nike.com/us/en_us/pw/mens-clearance-s
我是一名优秀的程序员,十分优秀!