- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
关闭。这个问题是off-topic .它目前不接受答案。
想改善这个问题吗? Update the question所以它是 on-topic对于堆栈溢出。
9年前关闭。
Improve this question
在我看来,在这个时间点,一个单一的工具会占据主导地位,因为这个过程似乎足够通用:指向一个起始 URL,与其表单和脚本交互,点击链接,下载数据。冲洗,重复。虽然我总是在构建临时应用程序以跳过箍以在我的硬盘驱动器上获取数百演出文档时获得某种满足感,但我想知道我是否只是在重新创建轮子。
我承认我还没有尝试过像 Automation Anywhere 这样的商业产品,但是由于我正在尝试全职做我真正喜欢做的事情,分析数据而不是检索数据,我希望群众的智慧这里可以为我指明明确讨论的方向。是否有太多的怪癖无法让单一工具几乎适用于所有情况?
让我澄清或复杂化这一点——我查看了许多浏览器“宏”类型的工具,如 iRobot、iOpus,发现它们很慢。对于非常大的文档集合,我想在集群/云上运行爬虫,所以我不确定它们在该环境中如何工作。对于我的用例,假设我想要
最佳答案
由于它在软件世界中往往是一个有点灰色的区域,因此此类工具的出现似乎很慢。
在类似领域有大量工作正在进行,例如通过 headless 浏览器(如您提到的 iRobot 和 iOpus)进行自动化站点测试。我看到 Selenium 也提到了很多,还有一些使用 Apple Webkit 的有趣工具,比如 phantomjs ,但我无法评论他们的速度或“云能力”。
最近获得广泛关注的一个有趣选项可能是 node.js javascript 运行时。我最后一次检查(6 个月前)有一些项目在使用 node 进行抓取,实现一个高度轻量级的 javascript 解释浏览器。 ...而且我相信云已经有了节点选项。
但是,AFAIK,最快的爬虫仍然是那些不解释javascript的爬虫,并且依赖于开发人员对http请求的老式预分解。
关于web-crawler - 网络爬行/抓取 - 构建还是购买?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9163696/
再会! 我有一个 ActiveX 按钮(根据从顶部开始的行数锚定在位置上),它运行 VBA 代码以在特定点插入指定数量的复制行。代码本身工作正常,但按钮“克隆”自身并将自身覆盖在新行的位置,即使我设置
我正在尝试在 Ubuntu 14.04 上部署 Nutch 2.3 + ElasticSearch 1.4 + HBase 0.94 以下 tutorial .当我尝试开始爬行注入(inject)网址
我正在尝试爬行某个驱动器并从埋藏在子目录中的某些 .xls 文件中获取数据。该驱动器超过 1 TB,并且文件夹并不都具有相同的层次结构,因此我正在遍历所有文件夹。到目前为止,该脚本运行良好。 问题是,
首先,我希望抓取是从桌面 .exe 向网站发送请求并获取数据的正确词。如果是,我应该使用什么库或插件?我是否应该使用另一种语言来执行此操作(如 Java 或其他语言?)。我需要一些“提示”,因为我真的
这是我的代码: def parse(self, response): selector = Selector(response) sites = selector.xpath("//
完整的 Node.js 菜鸟,所以不要评判我...... 我有一个简单的要求。爬取网站,查找所有产品页面,并保存产品页面中的一些数据。 说的更简单,做的更简单。 查看 Node.js 示例,我找不到类
我花了很多时间玩弄和使用谷歌,但我无法解决我的问题。我是 Scrapy 的新手,希望你能帮助我。 部分有效的爬虫:我从 MySQL 数据库中定义我的 start_requests url。使用“par
老方法 当我以前在需要内容被搜索引擎索引的项目中异步加载页面时,我使用了一种非常简单的技术,那就是 Page $('#example').click(function(){
我正在尝试使用 Scrapy 抓取 ajax 站点,网址是 http://www.target.com/p/bounty-select-a-size-white-paper-towels-12-meg
我正在尝试按照 NutchTutorial 运行基本爬网: bin/nutch crawl urls -dir crawl -depth 3 -topN 5 所以我已经安装了 Nutch,并使用 So
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
我做了一个抓取脚本,通过爬行逐一抓取任何网站(要输入的url)的内部页面,获取其他内部url并处理它们以获取所有页面并提取其纯文本(剥离的html)。请参阅my previous回答。该脚本运行良好,
无论如何,驱动程序是否可以记住登录 session ,所以它不会带我回到登录页面(例如google-chrome)? 这就是我现在正在做的事情 public static void main(Stri
我是网络爬虫新手,我需要一些关于这两个 Node JS 爬虫的指导。 目标:我的目标是抓取网站并仅获取该域内的内部(本地)URL。我对任何页面数据或抓取不感兴趣。只是 URL。 我的困惑:使用 nod
我是一名优秀的程序员,十分优秀!