- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章selenium设置proxy、headers的方法(phantomjs、Chrome、Firefox)由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
本文介绍了selenium设置proxy、headers的方法,把phantomjs、Chrome、Firefox几个浏览器的设置方法都总结一下,分享给大家,也给自己留个笔记 。
phantomjs 。
设置ip 。
方法1:
1
2
3
4
5
6
7
8
|
service_args
=
[
'--proxy=%s'
%
ip_html,
# 代理 IP:prot (eg:192.168.0.28:808)
'--proxy-type=http'
,
# 代理类型:http/https
‘
-
-
load
-
images
=
no',
# 关闭图片加载(可选)
'--disk-cache=yes'
,
# 开启缓存(可选)
'--ignore-ssl-errors=true'
# 忽略https错误(可选)
]
driver
=
webdriver.PhantomJS(service_args
=
service_args)
|
方法2:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
browser
=
webdriver.PhantomJS(PATH_PHANTOMJS)
# 利用DesiredCapabilities(代理设置)参数值,重新打开一个sessionId,我看意思就相当于浏览器清空缓存后,加上代理重新访问一次url
proxy
=
webdriver.Proxy()
proxy.proxy_type
=
ProxyType.MANUAL
proxy.http_proxy
=
'1.9.171.51:800'
# 将代理设置添加到webdriver.DesiredCapabilities.PHANTOMJS中
proxy.add_to_capabilities(webdriver.DesiredCapabilities.PHANTOMJS)
browser.start_session(webdriver.DesiredCapabilities.PHANTOMJS)
browser.get(
'http://1212.ip138.com/ic.asp'
)
print
(
'1: '
,browser.session_id)
print
(
'2: '
,browser.page_source)
print
(
'3: '
,browser.get_cookies())
|
还原为系统代理 。
1
2
3
4
5
6
|
# 还原为系统代理
proxy
=
webdriver.Proxy()
proxy.proxy_type
=
ProxyType.DIRECT
proxy.add_to_capabilities(webdriver.DesiredCapabilities.PHANTOMJS)
browser.start_session(webdriver.DesiredCapabilities.PHANTOMJS)
browser.get(
'http://1212.ip138.com/ic.asp'
)
|
设置请求头 。
方法2 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
|
import
random,requests,json
from
selenium
import
webdriver
from
selenium.webdriver.common.desired_capabilities
import
DesiredCapabilities
from
selenium.webdriver.common.proxy
import
ProxyType
#随机获取一个ip
def
proxies():
r
=
requests.get(
"http://120.26.166.214:9840/JProxy/update/proxy/scoreproxy"
)
rr
=
json.loads(r.text)
hh
=
rr[
'ip'
]
+
":"
+
"8907"
print
(hh)
return
hh
ips
=
proxies()
#设置phantomjs请求头和代理方法一:
#-------------------------------------------------------------------------------------
# 设置代理
service_args
=
[
'--proxy=%s'
%
ips,
# 代理 IP:prot (eg:192.168.0.28:808)
'--ssl-protocol=any'
,
#忽略ssl协议
'--load - images = no'
,
# 关闭图片加载(可选)
'--disk-cache=yes'
,
# 开启缓存(可选)
'--ignore-ssl-errors=true'
# 忽略https错误(可选)
]
#设置请求头
user_agent
=
(
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_4) "
+
"AppleWebKit/537.36 (KHTML, like Gecko) Chrome/29.0.1547.57 Safari/537.36"
)
dcap
=
dict
(DesiredCapabilities.PHANTOMJS)
dcap[
"phantomjs.page.settings.userAgent"
]
=
user_agent
driver
=
webdriver.PhantomJS(executable_path
=
r
"C:\soft\phantomjs-2.1.1-windows\bin\phantomjs.exe"
,
desired_capabilities
=
dcap,service_args
=
service_args)
driver.get(url
=
'http://www.baidu.com'
)
page
=
driver.page_source
print
(page)
#设置phantomjs请求头和代理方法二:
#-------------------------------------------------------------------------------------
desired_capabilities
=
DesiredCapabilities.PHANTOMJS.copy()
# 从USER_AGENTS列表中随机选一个浏览器头,伪装浏览器
desired_capabilities[
"phantomjs.page.settings.userAgent"
]
=
(random.choice(
'请求头池'
))
# 不载入图片,爬页面速度会快很多
desired_capabilities[
"phantomjs.page.settings.loadImages"
]
=
False
# 利用DesiredCapabilities(代理设置)参数值,重新打开一个sessionId,我看意思就相当于浏览器清空缓存后,加上代理重新访问一次url
proxy
=
webdriver.Proxy()
proxy.proxy_type
=
ProxyType.MANUAL
proxy.http_proxy
=
random.choice(
'ip池'
)
proxy.add_to_capabilities(desired_capabilities)
phantomjs_driver
=
r
'C:\phantomjs-2.1.1-windows\bin\phantomjs.exe'
# 打开带配置信息的phantomJS浏览器
driver
=
webdriver.PhantomJS(executable_path
=
phantomjs_driver,desired_capabilities
=
desired_capabilities)
driver.start_session(desired_capabilities)
driver.get(url
=
'http://www.baidu.com'
)
page
=
driver.page_source
print
(page)
# 隐式等待5秒,可以自己调节
driver.implicitly_wait(
5
)
# 设置10秒页面超时返回,类似于requests.get()的timeout选项,driver.get()没有timeout选项
# 以前遇到过driver.get(url)一直不返回,但也不报错的问题,这时程序会卡住,设置超时选项能解决这个问题。
driver.set_page_load_timeout(
20
)
# 设置10秒脚本超时时间
driver.set_script_timeout(
20
)
#翻页命令
driver.execute_script(
'window.scrollTo(0, document.body.scrollHeight)'
)
|
firefox 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
|
import
time
from
selenium.webdriver.common.proxy
import
*
myProxy
=
'202.202.90.20:8080'
proxy
=
Proxy({
'proxyType'
: ProxyType.MANUAL,
'httpProxy'
: myProxy,
'ftpProxy'
: myProxy,
'sslProxy'
: myProxy,
'noProxy'
: ''
})
profile
=
webdriver.FirefoxProfile()
if
proxy:
profile
=
get_firefox_profile_with_proxy_set(profile, proxy)
if
user_agent:
profile.set_preference(
"general.useragent.override"
, user_agent)
driver
=
webdriver.Firefox(proxy
=
proxy,profile
=
profile)
driver.get(
'https://www.baidu.com'
)
time.sleep(
3
)
driver.quit()
firefox无头模式
from
selenium
import
webdriver
# 创建的新实例驱动
options
=
webdriver.FirefoxOptions()
#火狐无头模式
options.add_argument(
'--headless'
)
options.add_argument(
'--disable-gpu'
)
# options.add_argument('window-size=1200x600')
executable_path
=
'./source/geckodriver/geckodriver.exe'
driver_path
=
webdriver.Firefox(firefox_options
=
options,executable_path
=
executable_path)
|
chrome 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
# !/usr/bin/python
# -*- coding: utf-8 -*-
from
selenium
import
webdriver
# 进入浏览器设置
options
=
webdriver.ChromeOptions()
#谷歌无头模式
options.add_argument(
'--headless'
)
options.add_argument(
'--disable-gpu'
)
# options.add_argument('window-size=1200x600')
# 设置中文
options.add_argument(
'lang=zh_CN.UTF-8'
)
# 更换头部
options.add_argument(
'user-agent="Mozilla/5.0 (iPod; U; CPU iPhone OS 2_1 like Mac OS X; ja-jp) AppleWebKit/525.18.1 (KHTML, like Gecko) Version/3.1.1 Mobile/5F137 Safari/525.20"'
)
#设置代理
if
proxy:
options.add_argument(
'proxy-server='
+
proxy)
if
user_agent:
options.add_argument(
'user-agent='
+
user_agent)
browser
=
webdriver.Chrome(chrome_options
=
options)
url
=
"https://httpbin.org/get?show_env=1"
browser.get(url)
browser.quit()
|
selenium设置chrome–cookie 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
# !/usr/bin/python
# -*- coding: utf-8 -*-
from
selenium
import
webdriver
browser
=
webdriver.Chrome()
url
=
"https://www.baidu.com/"
browser.get(url)
# 通过js新打开一个窗口
newwindow
=
'window.open("https://www.baidu.com");'
# 删除原来的cookie
browser.delete_all_cookies()
# 携带cookie打开
browser.add_cookie({
'name'
:
'ABC'
,
'value'
:
'DEF'
})
# 通过js新打开一个窗口
browser.execute_script(newwindow)
input
(
"查看效果"
)
browser.quit()
|
selenium设置chrome-图片不加载 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
from
selenium
import
webdriver
options
=
webdriver.ChromeOptions()
prefs
=
{
'profile.default_content_setting_values'
: {
'images'
:
2
}
}
options.add_experimental_option(
'prefs'
, prefs)
browser
=
webdriver.Chrome(chrome_options
=
options)
# browser = webdriver.Chrome()
url
=
"http://image.baidu.com/"
browser.get(url)
input
(
"是否有图"
)
browser.quit()
|
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.
原文链接:https://blog.csdn.net/xc_zhou/article/details/80823855 。
最后此篇关于selenium设置proxy、headers的方法(phantomjs、Chrome、Firefox)的文章就讲到这里了,如果你想了解更多关于selenium设置proxy、headers的方法(phantomjs、Chrome、Firefox)的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我在让“@header”或任何其他@规则在ANTLR中工作时遇到麻烦。具有非常基本的语法,如下所示: grammar test; options { language = CSharp2;
我对来源和寄宿有疑问 我有一个ajax页面“Page A”,它将称为ajax提要“Page B” 我看到来自ajax调用的“页面B”的请求 header 具有源“http://mydomain.com
我在 pandas 中使用了数据透视表并获得了所需的数据框格式,但现在我有两行标题。数据透视表后的结果数据框如下: scenario Actual Plan
我在 pandas 中使用了数据透视表并获得了所需的数据框格式,但现在我有两行标题。数据透视表后的结果数据框如下: scenario Actual Plan
我想在主机将它们发送到网络之前修改数据包头(IP 头、TCP 头)。 例如,如果我使用 firefox 进行浏览,那么我想拦截所有来自 firefox 的数据包并修改 IP/TCP header ,然
我的 header 内容被包装到#header 中,但是当我设置边框显示结构时,它显示我的#header 的内容出现在#header 本身之后。可能是什么问题?这是我的代码: #header { bo
我是一名 Web 开发人员,使用过 PHP 和 .NET。有一年多的 Web 工作经验,我一直无法彻底了解浏览器缓存功能,希望这里的 Web Gurus 可以帮助我。我心中的问题是: 浏览器实际上是如
伙计们,我有一个问题,我不知道如何在一个 header 中连接多个 header ,我们称它为“主 header ”并使用该 header 中的函数,例如 // A.h #include class
我有一个包含 SOAP 消息的 XMLHTTPRequest。 我想添加用于标识消息并将由 C# Web 服务使用的 guid。 GUID 的目标是识别特定用户,并应护送所有用户请求以在服务器上进行身
我一直在阅读粘性标题,这是我目前所发现的。第一个粘性 header 效果很好,但是当它遇到第一个 header 时,我如何向上滚动第一个 header 并使第二个 header 卡住? http://
我想将当前基于 TableView 的数据网格转换为新的 UICollectionView 类。 这就是我当前的网格的样子: 我的网格有两个标题: 年份(2006a、2007a 等)和 类型(“收入”
我目前正在使用 Apollo 服务器。我正在尝试在响应 header 中设置一个属性。并且此属性是从客户端 graphQL 请求 header 中检索的。 我在网上查了一下。并看到了诸如使用插件或扩展
我的 Controller 的方法需要设置一个标题,例如X-Authorization .创建新对象( store Action )后,我执行转发以显示新创建的对象( show Action ): $
我正在研究一些关于 VLAN 的事情,发现了 VLAN 标签 和 header 。 如果我们有标准 802.3 以太网帧 的 MTU(1518 字节), header 802.3 中包含什么? 另外,
我是放心和 Java 的新手,我正在尝试做一个非常基本的测试来检查 API 的响应是否为 200 ok。 谁能告诉我我需要在下面的脚本中更改什么才能传递多个 header Id、Key 和 ConId
在我的项目中,我需要知道 zlib header 是什么样的。我听说它相当简单,但我找不到 zlib header 的任何描述。 例如,它是否包含魔数(Magic Number)? 最佳答案 zlib
我正在使用 JMeter 测试 HTTP 服务器,该服务器接受并验证 APIKey 并在成功时返回一个有时限的 token 。如果我有 token ,我想发送一个 token ;如果没有,我想发送一个
以太网 header 是什么样的? 是吗: 1|2|3|4|5|6|7|8|9|10|11|12|13|14|15|16|17|18|19|20|21|22|23|24|25|26|27|28|29|
我们的应用程序支持 CORS 配置 header 。我在两个不同的主机上分别配置了 testApp。两种设置都相互独立工作。host1 上的应用程序配置有 CORS header Access-Con
tlhelp32.h 不包含 windows.h 本身是有原因的吗?我一直在与大量的编译器错误作斗争,因为我在包含 tlhelp32.h 之后包含了 windows.h。这是设计决定还是出于什么原因?
我是一名优秀的程序员,十分优秀!