gpt4 book ai didi

Python 和大数据。 user_agents 的替代方案(对于大数据集来说工作速度非常慢)?

转载 作者:太空宇宙 更新时间:2023-11-03 16:36:41 26 4
gpt4 key购买 nike

假设我有这个TSV file

看起来像:

status=200  protocol=http   region_name=Podolsk datetime=2016-03-10 15:51:58    user_ip=0.120.81.243    user_agent=Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36    user_id=7885299833141807155 user_vhost=tindex.ru    method=GET  page=/search/

我需要提取用户的浏览器和操作系统使用统计信息。下面的代码运行得很好,只是速度很慢:

from ua_parser import user_agent_parser
import user_agents
dict0 = {}
def grep(filename, pattern):
for n,line in enumerate(open(filename)):
ua_start = line.find(pattern) + len(pattern)
ua_end = line.find('\t', ua_start)
ua = str(user_agents.parse(line[ua_start:ua_end]).browser.family)
try:
dict0[ua] += 1
except KeyError:
dict0[ua] = 1

grep('data/data.tsv', 'user_agent=')

它让我对字典中的统计数据有了一个很好的了解,如下所示:

{'Android': 10890,
'Apache-HttpClient': 59,
'Avant': 21,
'BlackBerry WebKit': 16,
'CFNetwork': 301,
'Chrome': 20963,
'Chrome Mobile': 1442,
'Chrome Mobile iOS': 69,
'Chromium': 290,
'Dolfin': 34,
'Edge': 872,
'Edge Mobile': 12,
'Epiphany': 1,
'Firefox': 9757,
'Firefox Beta': 4,
'Firefox Mobile': 22,
'Firefox iOS': 1,
'Galeon': 1,
'Googlebot': 1,
'IE': 5399,
'IE Large Screen': 4,
'IE Mobile': 340,
'Iceweasel': 12,
'Iron': 7,
'Jasmine': 3,
'Mail.ru Chromium Browser': 649,
'Maxthon': 137,
'Midori': 1,
'Mobile Safari': 2778,
'Mobile Safari UI/WKWebView': 51,
'Nokia Browser': 14,
'Nokia OSS Browser': 1,
'Obigo': 2,
'Opera': 10652,
'Opera Coast': 2,
'Opera Mini': 675,
'Opera Mobile': 299,
'Opera Tablet': 25,
'Other': 13424,
'PhantomJS': 11,
'Pinterest': 1,
'Puffin': 25,
'Python Requests': 39,
'Python-urllib': 9,
'QQ Browser Mobile': 3,
'Safari': 255,
'Samsung Internet': 522,
'SeaMonkey': 1,
'Sogou Explorer': 2,
'Spider': 17,
'UC Browser': 528,
'Vivaldi': 7,
'WebKit Nightly': 104,
'Yandex Browser': 19969,
'YandexBot': 86,
'YandexDirect': 2,
'YandexMobileBot': 1,
'YandexSearch': 2601}

这里真正的组件是user_agents本身。我并不真正喜欢 user_agents 库或我存储结果的方式,因此如果您对如何提高处理速度有任何想法,欢迎您。

最佳答案

实际上我做了一个很好的方法,可以大大提高速度!基本上,我们首先将 user_agent= 行添加到字典中并对其进行计数。然后我们将键解析为 user_agents 并计算值!

from ua_parser import user_agent_parser
parsing_dict = {}
os_stats = {}
browser_stats = {}
target = 'tindex.ru'
def grep(filename, pattern):
def parse_ua(ua):
p = ua_parser.user_agent_parser.Parse(ua)
return [p.get('os').get('family'), p.get('user_agent').get('family')]

for n,line in enumerate(open(filename)):
if target in line:
ua_start = line.find(pattern) + len(pattern)
ua_end = line.find('\t', ua_start)
ua = line[ua_start:ua_end]
try:
parsing_dict[ua] += 1
except KeyError:
parsing_dict[ua] = 1

for key, value in parsing_dict.iteritems():
ua = parse_ua(key)
try:
os_stats[ua[0]] += value
browser_stats[ua[1]] += value
except KeyError:
os_stats[ua[0]] = value
browser_stats[ua[1]] = value
grep('data/data.tsv', 'user_agent=')

关于Python 和大数据。 user_agents 的替代方案(对于大数据集来说工作速度非常慢)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37152253/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com