- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在通过循环遍历在网站上搜索我感兴趣的关键字时返回的多个页面来从 Wykop.pl(“波兰的 Reddit”)上抓取帖子。我编写了一个循环来迭代每个页面的目标内容;但是,循环将在某些页面(始终)终止,并出现错误“HTTP 错误 413:请求实体太大”。
我尝试单独抓取有问题的页面,但相同的错误消息不断重复出现。为了解决这个问题,我必须手动设置范围来收集数据,但代价是错过大量数据,我想知道是否有一个 Pythonic 解决方案来处理这个错误。我还尝试了更长的暂停时间,因为也许我冒着发送太多请求的风险,但情况似乎并非如此。
from time import sleep
from random import randint
import requests
from requests import get
from bs4 import BeautifulSoup
from mtranslate import translate
from IPython.core.display import clear_output
from mtranslate import translate
posts = []
votes = []
dates = []
images = []
users = []
start_time = time()
requests = 0
pages = [str(i) for i in range(1,10)]
for page in pages:
url = "https://www.wykop.pl/szukaj/wpisy/smog/strona/" + page + "/"
response = get(url)
# Pause the loop
sleep(randint(8,15))
# Monitor the requests
requests += 1
elapsed_time = time() - start_time
print('Request:{}; Frequency: {} requests/s'.format(requests, requests/elapsed_time))
clear_output(wait = True)
# Throw a warning for non-200 status codes
if response.status_code != 200:
warn('Request: {}; Status code: {}'.format(requests, response.status_code))
# Break the loop if the number of requests is greater than expected
if requests > 10:
warn('Number of requests was greater than expected.')
break
soup = BeautifulSoup(response.text, 'html.parser')
results = soup.find_all('li', class_="entry iC")
for result in results:
# Error handling
try:
post = result.find('div', class_="text").text
post = translate(post,'en','auto')
posts.append(post)
date = result.time['title']
dates.append(date)
vote = result.p.b.span.text
vote = int(vote)
votes.append(vote)
user = result.div.b.text
users.append(user)
image = result.find('img',class_='block lazy')
images.append(image)
except AttributeError as e:
print(e)
如果我可以一次运行所有脚本,我会将范围设置为 1 到 163(因为我有 163 页的帖子结果提到了我感兴趣的关键字)。因此,我必须设置较小的范围来逐步收集数据,但同样以丢失数据页为代价。
作为应急措施,我的另一种选择是从指定的有问题的页面中刮取作为桌面上下载的 html 文档。
最佳答案
您可能遇到了某种 IP 地址限制。运行脚本时,它对我来说工作得很好,没有任何速率限制(目前)。不过,我建议您使用 requests.Session()
(您需要更改 requests
变量,否则它会覆盖导入)。这有助于减少可能的内存泄漏问题。
例如:
from bs4 import BeautifulSoup
from time import sleep
from time import time
from random import randint
import requests
posts = []
votes = []
dates = []
images = []
users = []
start_time = time()
request_count = 0
req_sess = requests.Session()
for page_num in range(1, 100):
response = req_sess.get(f"https://www.wykop.pl/szukaj/wpisy/smog/strona/{page_num}/")
# Pause the loop
#sleep(randint(1,3))
# Monitor the requests
request_count += 1
elapsed_time = time() - start_time
print('Page {}; Request:{}; Frequency: {} requests/s'.format(page_num, request_count, request_count/elapsed_time))
#clear_output(wait = True)
# Throw a warning for non-200 status codes
if response.status_code != 200:
print('Request: {}; Status code: {}'.format(requests, response.status_code))
print(response.headers)
# Break the loop if the number of requests is greater than expected
#if requests > 10:
# print('Number of requests was greater than expected.')
# break
soup = BeautifulSoup(response.text, 'html.parser')
results = soup.find_all('li', class_="entry iC")
for result in results:
# Error handling
try:
post = result.find('div', class_="text").text
#post = translate(post,'en','auto')
posts.append(post)
date = result.time['title']
dates.append(date)
vote = result.p.b.span.text
vote = int(vote)
votes.append(vote)
user = result.div.b.text
users.append(user)
image = result.find('img',class_='block lazy')
images.append(image)
except AttributeError as e:
print(e)
给出以下输出:
Page 1; Request:1; Frequency: 1.246137372973911 requests/s
Page 2; Request:2; Frequency: 1.3021880233774552 requests/s
Page 3; Request:3; Frequency: 1.2663757427416629 requests/s
Page 4; Request:4; Frequency: 1.1807827876080845 requests/s
.
.
.
Page 96; Request:96; Frequency: 0.8888853607003809 requests/s
Page 97; Request:97; Frequency: 0.8891876183362001 requests/s
Page 98; Request:98; Frequency: 0.888801819672809 requests/s
Page 99; Request:99; Frequency: 0.8900784741536467 requests/s
当我从更高的页码开始时,这也很有效。理论上,当您收到 413 错误状态代码时,它现在应该显示响应 header 。根据RFC 7231 ,服务器应返回一个 Retry-After
header 字段,您可以使用该字段来确定在下一个请求之前要后退多长时间。
关于python - 抓取多个页面时经常出现 HTTP 错误 413,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55582979/
据我了解,HTTP POST 请求的正文大小没有限制。因此,客户端可能会在一个 HTTP 请求中发送 千兆字节 的数据。现在我想知道 HTTP 服务器应该如何处理此类请求。 Tomcat 和 Jett
在了解Web Deploy我遇到了一些讨论 http://+:80 和 http://*:80 的 netsh.exe 命令。这些是什么意思? 最佳答案 引自URLPrefix Strings (Wi
假设我有一个负载均衡器,然后是 2 个 Web 服务器,然后是一个负载均衡器,然后是 4 个应用程序服务器。 HTTP 响应是否遵循与 HTTP 请求服务相同的路径? 最佳答案 按路径,我假设您是网络
我有一个带有 uri /api/books/122 的资源,如果在客户端为此资源发送 HTTP Delete 时该资源不存在,那么相应的响应代码是什么这个 Action ?是不是404 Not Fou
是否有特定的(或约定的)HTTP 响应消息(或除断开连接之外的其他操作)来阐明服务器不接受 pipelined HTTP requests ? 我正在寻找能让客户端停止流水线化它的请求并分别发送每个请
在了解Web Deploy我遇到了一些讨论 http://+:80 和 http://*:80 的 netsh.exe 命令。这些是什么意思? 最佳答案 引自URLPrefix Strings (Wi
我有一个带有 uri /api/books/122 的资源,如果在客户端为此资源发送 HTTP Delete 时该资源不存在,那么相应的响应代码是什么这个 Action ?是不是404 Not Fou
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 8 年前。 Improve this qu
我使用 Mule 作为 REST API AMQP。我必须发送自定义请求方法:“PRINT”,但我收到: Status Code: 400 Bad Request The request could
我需要针对具有不同 HTTP 响应代码的 URL 测试我的脚本。我如何获取响应代码 300、303 或 307 等的示例/示例现有 URL? 谢谢! 最佳答案 您可以使用 httpbin为此目的。 例
我正在尝试编写一个程序来匹配 HTTP 请求及其相应的响应。似乎在大多数情况下一切都运行良好(当传输完全有序时,即使不是,通过使用 TCP 序列号)。 我发现的唯一问题是当我有流水线请求时。在那之后,
RESTful Web Services鼓励使用 HTTP 303将客户端重定向到资源的规范表示。它仅在 HTTP GET 的上下文中讨论主题。 这是否也适用于其他 HTTP 方法?如果客户端尝试对非
当使用chunked HTTP传输编码时,为什么服务器需要同时写出chunk的字节大小并且后续的chunk数据以CRLF结尾? 这不会使发送二进制数据“CRLF-unclean”和方法有点多余吗? 如
这个问题在这里已经有了答案: Is it acceptable for a server to send a HTTP response before the entire request has
如果我向同一台服务器发出多个 HTTP Get 请求并收到每个请求的 HTTP 200 OK 响应,我如何使用 Wireshark 判断哪个请求映射到哪个响应? 目前看起来像是发出了一个 http 请
func main() { http.HandleFunc("/", handler) } func handler(w http.ResponseWriter, r http.Request
我找不到有值(value)的 NodeJS with Typescript 教程,所以我在无指导下潜入水中,果然我有一个问题。 我不明白这两行之间的区别: import * as http from
问一个关于Are HTTP headers case-sensitive?的问题,如果 HTTP 方法区分大小写,大多数服务器如何处理“get”或“post”与“GET”或“POST”? 例如,看起来
我正在使用ASP.NET,在其中我通过动词GET接收查询,该应用程序专用于该URL。 该代码有效,但是如果用户发送的密码使http 200无效,请回答我,并在消息的正文中显示“Fail user or
Closed. This question needs details or clarity。它当前不接受答案。 想改善这个问题吗?添加详细信息,并通过editing this post阐明问题。 9
我是一名优秀的程序员,十分优秀!