gpt4 book ai didi

python HTTP 请求无法正常工作

转载 作者:太空宇宙 更新时间:2023-11-03 19:58:08 25 4
gpt4 key购买 nike

所以我正在尝试编写在 squarespace 网站上注册帐户的代码。我启动了 Fiddler 并拦截了 HTTP 请求,看到了发送表单数据的 POST 请求:

所以我用 Python 编写了这段代码:

import requests

session = requests.session()

data = {
'firstName': 'joe',
'lastName': 'channel',
'accountLoginOrigin': 'signup',
'password': 'pass12345',
'confirmPassword': 'pass12345',
'email': 'flff30@mxi_w.com'
}

r = session.post('http://miniview.squarespace.com/api/site-users/account/profile', data=data,verify=False)
r.text

u'{"message":"User must be logged in to access this resource."}

这个 Python 请求有什么错误?

这很奇怪,因为我需要先登录才能注册。

编辑:

第一个回答我的人说我应该查看我所做的 cookie,现在我正在尝试手动将 cookie 添加到请求 session cookieJar,但我不清楚。此请求

POST https://minnicow.squarespace.com/api/census/RecordHit HTTP/1.1
Host: minicow.squarespace.com
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:71.0) Gecko/20100101 Firefox/71.0
Accept: application/json, text/plain, */*
Accept-Language: en-US,en;q=0.5
Accept-Encoding: gzip, deflate, br
Content-Type: application/x-www-form-urlencoded; charset=utf-8
X-CSRF-Token: BToh7ecmmp4cYzg0YjI3OTQ3MjI5Nzk1MGE2ZWZkZTQ1OTQwOTIw
Content-Length: 741
Origin: https://minicow.squarespace.com
DNT: 1
Connection: keep-alive
Referer: https://minicow.squarespace.com/
Cookie: crumb=BToh7ecmmp4cYzg0YjI3OTQ3MjI5Nzk1MGE2ZWZkZTQ1OTQwOTIw; ss_cvr=014571ee-fb3f-498c-b2a0-a9b5c470f9af|1576941479208|1576941479208|1576941479208|1; ss_cvt=1576941479208

event=1&data=%7B%22localStorageSupported%22%3Atrue%2C%22queryString%22%3A%22%22%2C%22referrer%22%3A%22%22%2C%22websiteId%22%3A%225dfd4479a068b47518c09b20%22%2C%22templateId%22%3A%225c5a519771c10ba3470d8101%22%2C%22website_locale%22%3A%22en-US%22%2C%22userAgent%22%3A%22Mozilla%2F5.0%20(Windows%20NT%2010.0%3B%20Win64%3B%20x64%3B%20rv%3A71.0)%20Gecko%2F20100101%20Firefox%2F71.0%22%2C%22clientDate%22%3A1576941479207%2C%22viewportInnerHeight%22%3A790%2C%22viewportInnerWidth%22%3A1536%2C%22screenHeight%22%3A864%2C%22screenWidth%22%3A1536%2C%22url%22%3A%22%2F%22%2C%22title%22%3A%22Home%22%2C%22collectionId%22%3A%225dfd45313ef7d373d3d9a389%22%7D&ss_cvr=014571ee-fb3f-498c-b2a0-a9b5c470f9af%7C1576941479208%7C1576941479208%7C1576941479208%7C1

以此回应

HTTP/1.1 200 OK
date: Sat, 21 Dec 2019 15:18:08 GMT
strict-transport-security: max-age=0
set-cookie: ss_cid=40ec759f-0ef6-4c31-a7c8-d8c1f2127d8a; Path=/; Expires=Mon, 20-Dec-2021 15:18:09 GMT; Max-Age=63072000
expires: Thu, 01 Jan 1970 00:00:00 GMT
set-cookie: ss_cvisit=1576941489288; Path=/; Expires=Sat, 21-Dec-2019 15:48:09 GMT; Max-Age=1800
set-cookie: ss_cpvisit=1576941489288; Path=/; Expires=Mon, 20-Dec-2021 15:18:09 GMT; Max-Age=63072000
content-type: application/json;charset=utf-8
x-content-type-options: nosniff
transfer-encoding: chunked
x-contextid: kpeBSI9l/GOyKGPyu
server: Squarespace

11
{"success": true}
0

即设置了三个新的 cookie(ss_cid、ss_cvisit 和 ss_cpvisit)..当我尝试在 python 请求中重新创建此请求时,我在响应正文中收到相同的成功消息,但这 3 个新的 cookie 没有被设置。

然后我注意到请求 header 包含三个 cookie - 我能够设置第一个(crub cookie),但无法弄清楚如何设置其他两个 cookie(ss_cvr 和 ss_cvt)。

我检查了从页面加载位置到发出此请求的整个 fiddler 日志,我找不到它们的设置位置。我还在前面的响应中搜索了它们的值,但我找不到它们,而 ss_cvt 看起来像是当时的 Epoch 形式,而 ss_cvr 的形式为 "UUID()|ss_cvt|ss_cvt|ss_cvt|1"。我尝试生成并替换请求中的这些值,但没有任何效果。

我正在努力让它发挥作用,但很明显我需要帮助

最佳答案

为什么要使用 session ?

r = requests.post(url = <URL>, data = data)

这应该有效吗?

关于python HTTP 请求无法正常工作,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59436390/

25 4 0
文章推荐: c# - context.Database.ExecuteSqlCommand - 错误代码 701 - Microsoft Azure
文章推荐: javascript - 点击加载 html 时的 JQuery
文章推荐: user-interface - 在 Matlab 中使用 uigetfile 获取文件夹路径
文章推荐: html - 为什么具有宽度的
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com