- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我已经使用了几个星期的 Scrapy,最近,我发现 HtmlXPathSelector 无法正确解析一些 html 文件。
在网页中http://detail.zol.com.cn/series/268/10227_1.html ,只有一个标签名为
`div id='param-more' class='mod_param '`.
当我使用 xpath "//div[@id='param-more']" 选择标签时,它返回了 []。
我试过 scrapy shell 并得到了相同的结果。
当使用wget获取网页时,我还可以在html中找到标签"div id='param-more' class='mod_param '"源文件,我认为不是触发 Action 显示标签的原因。
请给我一些关于如何解决这个问题的提示。
以下是关于该问题的代码片段。处理上述 url 时,len(nodes_product) 始终为 0
def parse_series(self, response):
hxs = HtmlXPathSelector(response)
xpath_product = "//div[@id='param-normal']/table//td[@class='name']/a | "\
"//div[@id='param-more']/table//td[@class='name']/a"
nodes_product = hxs.select(xpath_product)
if len(nodes_product) == 0:
# there's only the title, no other products in the series
.......
else:
.......
最佳答案
这似乎是 XPathSelectors 的错误。我创建了一个快速测试蜘蛛并遇到了同样的问题。我相信这与页面上的非标准字符有关。
我不认为问题是“param-more”div 与任何 javascript 事件或 CSS 隐藏相关联。我禁用了 javascript 并更改了我的用户代理(和位置)以查看这是否影响了页面上的数据。它没有。
但是,我能够使用 beautifulsoup 解析“param-more”div:
from scrapy.selector import HtmlXPathSelector
from scrapy.spider import BaseSpider
from bs4 import BeautifulSoup
class TestSpider(BaseSpider):
name = "Test"
start_urls = [
"http://detail.zol.com.cn/series/268/10227_1.html"
]
def parse(self, response):
hxs = HtmlXPathSelector(response)
#data = hxs.select("//div[@id='param-more']").extract()
data = response.body
soup = BeautifulSoup(data)
print soup.find(id='param-more')
其他人可能对 XPathSelect 问题了解更多,但是暂时,您可以将 beautifulsoup 找到的 HTML 保存到一个项目中,然后将其传递到管道中。
这是最新的 beautifulsoup 版本的链接:http://www.crummy.com/software/BeautifulSoup/#Download
更新
我相信我找到了具体问题。正在讨论的网页在元标记中指定它使用 GB 2312 charset .从 GB 2312 到 unicode 的转换是有问题的,因为有些字符没有 unicode equivalent。 .这不是问题,除了 beautifulsoup 的编码检测模块 UnicodeDammit 实际上将编码确定为 ISO 8859-2。问题是 lxml 通过查看 charset specified in the meta tag of the header 来确定文档的编码.因此,lxml 和 scrapy 感知到的编码类型不匹配。
下面的代码演示了上述问题,并提供了一个替代必须依赖 BS4 库的方法:
from scrapy.selector import HtmlXPathSelector
from scrapy.spider import BaseSpider
from bs4 import BeautifulSoup
import chardet
class TestSpider(BaseSpider):
name = "Test"
start_urls = [
"http://detail.zol.com.cn/series/268/10227_1.html"
]
def parse(self, response):
encoding = chardet.detect(response.body)['encoding']
if encoding != 'utf-8':
response.body = response.body.decode(encoding, 'replace').encode('utf-8')
hxs = HtmlXPathSelector(response)
data = hxs.select("//div[@id='param-more']").extract()
#print encoding
print data
在这里,您看到通过强制 lxml 使用 utf-8 编码,它不会尝试从它认为的 GB 2312->utf-8 进行映射。
在scrapy中,HTMLXPathSelectors编码设置在scrapy/select/lxmlsel.py模块中。该模块使用 response.encoding 属性将响应主体传递给 lxml 解析器,该属性最终在 scrapy/http/response/test.py 模块中设置。
处理设置 response.encoding 属性的代码如下:
@property
def encoding(self):
return self._get_encoding(infer=True)
def _get_encoding(self, infer=False):
enc = self._declared_encoding()
if enc and not encoding_exists(enc):
enc = None
if not enc and infer:
enc = self._body_inferred_encoding()
if not enc:
enc = self._DEFAULT_ENCODING
return resolve_encoding(enc)
def _declared_encoding(self):
return self._encoding or self._headers_encoding() \
or self._body_declared_encoding()
这里要注意的重要一点是,_headers_encoding 和 _encoding 最终都将反射(reflect)在 header 中元标记中声明的编码,而不是实际使用诸如 UnicodeDammit 或 chardet 之类的东西来确定文档编码。因此,会出现文档包含其指定编码的无效字符的情况,我相信 Scrapy 会忽略这一点,最终导致我们今天看到的问题。
关于python - Scrapy 无法正确解析某些 html 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12084033/
今天我在一个 Java 应用程序中看到了几种不同的加载文件的方法。 文件:/ 文件:// 文件:/// 这三个 URL 开头有什么区别?使用它们的首选方式是什么? 非常感谢 斯特凡 最佳答案 file
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引起辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the he
我有一个 javascript 文件,并且在该方法中有一个“测试”方法,我喜欢调用 C# 函数。 c# 函数与 javascript 文件不在同一文件中。 它位于 .cs 文件中。那么我该如何管理 j
需要检查我使用的文件/目录的权限 //filePath = path of file/directory access denied by user ( in windows ) File fil
我在一个目录中有很多 java 文件,我想在我的 Intellij 项目中使用它。但是我不想每次开始一个新项目时都将 java 文件复制到我的项目中。 我知道我可以在 Visual Studio 和
已关闭。此问题不符合Stack Overflow guidelines 。目前不接受答案。 这个问题似乎不是关于 a specific programming problem, a software
我有 3 个组件的 Twig 文件: 文件 1: {# content-here #} 文件 2: {{ title-here }} {# content-here #}
我得到了 mod_ldap.c 和 mod_authnz_ldap.c 文件。我需要使用 Linux 命令的 mod_ldap.so 和 mod_authnz_ldap.so 文件。 最佳答案 从 c
我想使用PIE在我的项目中使用 IE7。 但是我不明白的是,我只能在网络服务器上使用 .htc 文件吗? 我可以在没有网络服务器的情况下通过浏览器加载的本地页面中使用它吗? 我在 PIE 的文档中看到
我在 CI 管道中考虑这一点,我应该首先构建和测试我的应用程序,结果应该是一个 docker 镜像。 我想知道使用构建环境在构建服务器上构建然后运行测试是否更常见。也许为此使用构建脚本。最后只需将 j
using namespace std; struct WebSites { string siteName; int rank; string getSiteName() {
我是 Linux 新手,目前正在尝试使用 ginkgo USB-CAN 接口(interface) 的 API 编程功能。为了使用 C++ 对 API 进行编程,他们提供了库文件,其中包含三个带有 .
我刚学C语言,在实现一个程序时遇到了问题将 test.txt 文件作为程序的输入。 test.txt 文件的内容是: 1 30 30 40 50 60 2 40 30 50 60 60 3 30 20
如何连接两个tcpdump文件,使一个流量在文件中出现一个接一个?具体来说,我想“乘以”一个 tcpdump 文件,这样所有的 session 将一个接一个地按顺序重复几次。 最佳答案 mergeca
我有一个名为 input.MP4 的文件,它已损坏。它来自闭路电视摄像机。我什么都试过了,ffmpeg , VLC 转换,没有运气。但是,我使用了 mediainfo和 exiftool并提取以下信息
我想做什么? 我想提取 ISO 文件并编辑其中的文件,然后将其重新打包回 ISO 文件。 (正如你已经读过的) 我为什么要这样做? 我想开始修改 PSP ISO,为此我必须使用游戏资源、 Assets
给定一个 gzip 文件 Z,如果我将其解压缩为 Z',有什么办法可以重新压缩它以恢复完全相同的 gzip 文件 Z?在粗略阅读了 DEFLATE 格式后,我猜不会,因为任何给定的文件都可能在 DEF
我必须从数据库向我的邮件 ID 发送一封带有附件的邮件。 EXEC msdb.dbo.sp_send_dbmail @profile_name = 'Adventure Works Admin
我有一个大的 M4B 文件和一个 CUE 文件。我想将其拆分为多个 M4B 文件,或将其拆分为多个 MP3 文件(以前首选)。 我想在命令行中执行此操作(OS X,但如果需要可以使用 Linux),而
快速提问。我有一个没有实现文件的类的项目。 然后在 AppDelegate 我有: #import "AppDelegate.h" #import "SomeClass.h" @interface A
我是一名优秀的程序员,十分优秀!