gpt4 book ai didi

使用 readHTMLTable 从 https 网页读取表格

转载 作者:行者123 更新时间:2023-12-02 17:00:55 24 4
gpt4 key购买 nike

我安装了 R 3.3.1 并使用 RStudio 0.99.903。我正在尝试从以下 URL 将表读入 R:https://www.fantasypros.com/nfl/rankings/consensus-cheatsheets.php

(我很清楚有一个下载按钮,但是,现在不适合我)

去年我可以使用 readHTMLTable 函数轻松完成此操作。但是,当时该网站从使用 http 更改为 https,这导致“XML 内容似乎不是 XML”错误。

我尝试了这里建议的内容:get url table into a `data.frame` R-XML-RCurl

library(XML)
library(RCurl)
url <- getURL("https://www.fantasypros.com/nfl/rankings/consensus-cheatsheets.php")
df <- readHTMLTable(URL, header = T)

get URL 函数返回一个大字符串,这对我来说基本上毫无意义,这意味着 readHTMLTable 无法正常工作(我得到一个列表,其中有几个数据框,但这些对我来说也毫无意义。它是西类牙语对我不知道它们来自哪里的事物的观察):

>url
[1] "\r\n<!DOCTYPE html>\n<html lang=\"en\">\n\n<head>\n <title>2016 QB Fantasy Football Rankings, QB Cheat Sheets, QB Draft / Draft Rankings</title>\n <meta http-equiv=\"Content-Type\" content=\"text/html; charset=UTF-8\">\n <meta name=\"description\" content=\"Don&#8217;t trust any 1 fantasy football expert? We combine their rankings into 1 Expert Consensus Ranking. Our 2016 Draft QB rankings are updated daily.\">\n<link rel=\"canonical\" href=\"https://www.fantasypros.com/nfl/rankings/qb-cheatsheets.php\" />\n\n <meta property=\"fb:pages\" content=\"184352014941166\"/>\n

这种情况持续了很长一段时间。

有人可以给我一些关于如何让它发挥作用的建议吗?

谢谢。

最佳答案

从URL获取html文件

library("httr")
library("XML")
URL <- "https://www.fantasypros.com/nfl/rankings/consensus-cheatsheets.php"
temp <- tempfile(fileext = ".html")
GET(url = URL, user_agent("Mozilla/5.0"), write_disk(temp))

解析 HTML 文件

doc <- htmlParse(temp)

XPath 查询是通过选择具有 class = "player-table"table 元素及其具有 的子 tr 元素来构建的类 = 'mpb-player-'

xpexpr <- "//table[contains(@class, 'player-table')]/tbody/tr[contains(@class, 'mpb-player-')]"

从 doc 中获取 xpath 表达式的节点列表

listofTableNodes <- getNodeSet(doc, xpexpr)
listofTableNodes

使用节点列表的 xml 值创建数据框

df <- xmlToDataFrame(listofTableNodes, stringsAsFactors = FALSE)
# alternatively xpathSApply can be used to get the same data frame
# df <- xmlToDataFrame(xpathSApply(doc, xpexpr), stringsAsFactors = FALSE)

删除空列

df <- df[, seq(1, length(df), by = 2)]

添加列名称

xpexpr <- "//table[contains(@class, 'player-table')]/thead/tr/th"
listofTableNodes <- getNodeSet(doc, xpexpr)
listofTableNodes
colnames(df) <- gsub("[\r\n ]*$", '', xmlSApply(listofTableNodes, xmlValue))

head(df)
# Rank Player (Team) Pos Bye Best Worst Avg Std Dev ADP vs. ADP
# 1 1 Antonio Brown PIT WR1 8 1 5 1.3 0.8 1.0 0.0
# 2 2 Odell Beckham Jr. NYG WR2 8 1 9 3.1 1.6 2.0 0.0
# 3 3 Julio Jones ATL WR3 11 1 6 3.4 1.1 4.0 +1.0
# 4 4 Todd Gurley LA RB1 8 1 11 4.5 2.3 3.0 -1.0
# 5 5 David Johnson ARI RB2 9 1 19 6.1 3.5 6.0 +1.0
# 6 6 Adrian Peterson MIN RB3 6 1 22 7.6 3.8 5.0 -1.0

关于使用 readHTMLTable 从 https 网页读取表格,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39058164/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com