gpt4 book ai didi

Pandas 模糊查询与替换的操作

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 25 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章Pandas 模糊查询与替换的操作由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

主要用到的工具:Pandas 、fuzzywuzzy 。

Pandas:是基于numpy的一种工具,专门为分析大量数据而生,它包含大量的处理数据的函数和方法, 。

以下为pandas中文API:

缩写和包导入

在这个速查手册中,我们使用如下缩写:

df:任意的Pandas DataFrame对象 。

s:任意的Pandas Series对象 。

同时我们需要做如下的引入:

import pandas as pd 。

import numpy as np 。

导入数据

pd.read_csv(filename):从CSV文件导入数据 。

pd.read_table(filename):从限定分隔符的文本文件导入数据 。

pd.read_excel(filename):从Excel文件导入数据 。

pd.read_sql(query, connection_object):从SQL表/库导入数据 。

pd.read_json(json_string):从JSON格式的字符串导入数据 。

pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格 。

pd.read_clipboard():从你的粘贴板获取内容,并传给read_table() 。

pd.DataFrame(dict):从字典对象导入数据,Key是列名,Value是数据 。

导出数据

df.to_csv(filename):导出数据到CSV文件 。

df.to_excel(filename):导出数据到Excel文件 。

df.to_sql(table_name, connection_object):导出数据到SQL表 。

df.to_json(filename):以Json格式导出数据到文本文件 。

创建测试对象

pd.DataFrame(np.random.rand(20,5)):创建20行5列的随机数组成的DataFrame对象 。

pd.Series(my_list):从可迭代对象my_list创建一个Series对象 。

df.index = pd.date_range("1900/1/30", periods=df.shape[0]):增加一个日期索引 。

查看、检查数据

df.head(n):查看DataFrame对象的前n行 。

df.tail(n):查看DataFrame对象的最后n行 。

df.shape():查看行数和列数 。

df.info():查看索引、数据类型和内存信息 。

df.describe():查看数值型列的汇总统计 。

s.value_counts(dropna=False):查看Series对象的唯一值和计数 。

df.apply(pd.Series.value_counts):查看DataFrame对象中每一列的唯一值和计数 。

数据选取

df[col]:根据列名,并以Series的形式返回列 。

df[[col1, col2]]:以DataFrame形式返回多列 。

s.iloc[0]:按位置选取数据 。

s.loc["index_one"]:按索引选取数据 。

df.iloc[0,:]:返回第一行 。

df.iloc[0,0]:返回第一列的第一个元素 。

df.values[:,:-1]:返回除了最后一列的其他列的所以数据 。

df.query("[1, 2] not in c"): 返回c列中不包含1,2的其他数据集 。

数据清理

df.columns = ["a","b","c"]:重命名列名 。

pd.isnull():检查DataFrame对象中的空值,并返回一个Boolean数组 。

pd.notnull():检查DataFrame对象中的非空值,并返回一个Boolean数组 。

df.dropna():删除所有包含空值的行 。

df.dropna(axis=1):删除所有包含空值的列 。

df.dropna(axis=1,thresh=n):删除所有小于n个非空值的行 。

df.fillna(x):用x替换DataFrame对象中所有的空值 。

s.astype(float):将Series中的数据类型更改为float类型 。

s.replace(1,"one"):用‘one"代替所有等于1的值 。

s.replace([1,3],["one","three"]):用"one"代替1,用"three"代替3 。

df.rename(columns=lambda x: x + 1):批量更改列名 。

df.rename(columns={"old_name": "new_ name"}):选择性更改列名 。

df.set_index("column_one"):更改索引列 。

df.rename(index=lambda x: x + 1):批量重命名索引 。

数据处理:Filter、Sort和GroupBy

df[df[col] > 0.5]:选择col列的值大于0.5的行 。

df.sort_values(col1):按照列col1排序数据,默认升序排列 。

df.sort_values(col2, ascending=False):按照列col1降序排列数据 。

df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列数据 。

df.groupby(col):返回一个按列col进行分组的Groupby对象 。

df.groupby([col1,col2]):返回一个按多列进行分组的Groupby对象 。

df.groupby(col1)[col2]:返回按列col1进行分组后,列col2的均值 。

df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):创建一个按列col1进行分组,并计算col2和col3的最大值的数据透视表 。

df.groupby(col1).agg(np.mean):返回按列col1分组的所有列的均值 。

data.apply(np.mean):对DataFrame中的每一列应用函数np.mean 。

data.apply(np.max,axis=1):对DataFrame中的每一行应用函数np.max 。

数据合并

df1.append(df2):将df2中的行添加到df1的尾部 。

df.concat([df1, df2],axis=1):将df2中的列添加到df1的尾部 。

df1.join(df2,on=col1,how="inner"):对df1的列和df2的列执行SQL形式的join 。

数据统计

df.describe():查看数据值列的汇总统计 。

df.mean():返回所有列的均值 。

df.corr():返回列与列之间的相关系数 。

df.count():返回每一列中的非空值的个数 。

df.max():返回每一列的最大值 。

df.min():返回每一列的最小值 。

df.median():返回每一列的中位数 。

df.std():返回每一列的标准差 。

以下为数据处理的代码:

#!/usr/bin/python# -*- encoding: utf-8 import numpy as npimport pandas as pdfrom fuzzywuzzy import fuzzfrom fuzzywuzzy import process  def enum_row(row): print(row["state"]) #对state这一列做枚举  def find_state_code(row): if row["state"] != 0:  # 如果这个state的名字存在,就用state的名字与states列表中的值选择一个最接近的,如果小于80分,直接舍弃,大于80才返回 print(process.extractOne(row["state"], states, score_cutoff=80))  def capital(str): # 把str这个字符串,第一个字母大写,其余小写 return str.capitalize()  def correct_state(row): if row["state"] != 0: # 如果这个state的名字存在,就用state的名字与states列表中的值选择一个最接近的,如果小于80分,直接舍弃,大于80才返回 state = process.extractOne(row["state"], states, score_cutoff=80) if state: # 如果为真,则找到了一个相关性的州名  state_name = state[0] # 选择用找到的这个州名数据  return " ".join(map(capital, state_name.split(" "))) # 先按空格分开(有的州名中间有空格)单词,然后每个单词首字母大写 return row["state"]  def fill_state_code(row): if row["state"] != 0: state = process.extractOne(row["state"], states, score_cutoff=80) if state:  state_name = state[0]  return state_to_code[state_name] # 返回这个州名的value,即缩写 return ""  if __name__ == "__main__": pd.set_option("display.width", 200) # 横向最多显示多少个字符, 一般80不适合横向的屏幕,平时多用200. data = pd.read_excel("sales.xlsx", sheetname="sheet1", header=0) # 读取excel表 print("data.head() = ", data.head()) # 默认显示前五行 print("data.tail() = ", data.tail()) # tail显示后五行 print("data.dtypes = ", data.dtypes) # 数据类型 print("data.columns = ", data.columns)# 显示第一行行名 for c in data.columns: print(c, end=" ") # 输出第一行行名,中间以空格隔开 print() #相当于回车 data["total"] = data["Jan"] + data["Feb"] + data["Mar"] # Jan、Feb、Mar三列的值相加得到一个total print(data.head()) print(data["Jan"].sum()) # Jan这一列的值相加 print(data["Jan"].min()) # Jan这一列的最小值 print(data["Jan"].max()) # Jan这一列的最大值 print(data["Jan"].mean()) # Jan这一列的平均值  print("=============") # 添加一行 s1 = data[["Jan", "Feb", "Mar", "total"]].sum() # s1包含四个值,分别是这四列的和 print(s1) s2 = pd.DataFrame(data=s1) print(s2) print(s2.T) print(s2.T.reindex(columns=data.columns)) # 将s2进行转置输出 # 即: s = pd.DataFrame(data=data[["Jan", "Feb", "Mar", "total"]].sum()).T s = s.reindex(columns=data.columns, fill_value=0) print(s) data = data.append(s, ignore_index=True) data = data.rename(index={15:"Total"}) print(data.tail())  # apply的使用 print("==============apply的使用==========") data.apply(enum_row, axis=1)  # axis=0时对每一列做变换,axis=1时对每一行做变换  # 事先写好以state为单位的编码字典 state_to_code = {"VERMONT": "VT", "GEORGIA": "GA", "IOWA": "IA", "Armed Forces Pacific": "AP", "GUAM": "GU",   "KANSAS": "KS", "FLORIDA": "FL", "AMERICAN SAMOA": "AS", "NORTH CAROLINA": "NC", "HAWAII": "HI",   "NEW YORK": "NY", "CALIFORNIA": "CA", "ALABAMA": "AL", "IDAHO": "ID",   "FEDERATED STATES OF MICRONESIA": "FM",   "Armed Forces Americas": "AA", "DELAWARE": "DE", "ALASKA": "AK", "ILLINOIS": "IL",   "Armed Forces Africa": "AE", "SOUTH DAKOTA": "SD", "CONNECTICUT": "CT", "MONTANA": "MT",   "MASSACHUSETTS": "MA",   "PUERTO RICO": "PR", "Armed Forces Canada": "AE", "NEW HAMPSHIRE": "NH", "MARYLAND": "MD",   "NEW MEXICO": "NM",   "MISSISSIPPI": "MS", "TENNESSEE": "TN", "PALAU": "PW", "COLORADO": "CO",   "Armed Forces Middle East": "AE",   "NEW JERSEY": "NJ", "UTAH": "UT", "MICHIGAN": "MI", "WEST VIRGINIA": "WV", "WASHINGTON": "WA",   "MINNESOTA": "MN", "OREGON": "OR", "VIRGINIA": "VA", "VIRGIN ISLANDS": "VI",   "MARSHALL ISLANDS": "MH",   "WYOMING": "WY", "OHIO": "OH", "SOUTH CAROLINA": "SC", "INDIANA": "IN", "NEVADA": "NV",   "LOUISIANA": "LA",   "NORTHERN MARIANA ISLANDS": "MP", "NEBRASKA": "NE", "ARIZONA": "AZ", "WISCONSIN": "WI",   "NORTH DAKOTA": "ND",   "Armed Forces Europe": "AE", "PENNSYLVANIA": "PA", "OKLAHOMA": "OK", "KENTUCKY": "KY",   "RHODE ISLAND": "RI",   "DISTRICT OF COLUMBIA": "DC", "ARKANSAS": "AR", "MISSOURI": "MO", "TEXAS": "TX", "MAINE": "ME"} states = list(state_to_code.keys()) # 把字典中的key拿出来放到states列表中 print(fuzz.ratio("Python Package", "PythonPackage")) #计算Python Package与PythonPackage的相似度 print(process.extract("Mississippi", states)) # Mississippi与states中哪个最接近,并且列出相似比,不考虑大小写 print(process.extract("Mississipi", states, limit=1)) # limit=1代表只取最接近的一个 print(process.extractOne("Mississipi", states)) # extractOne代表只取最接近的一个 data.apply(find_state_code, axis=1) #apply表示对每一行(axis=1)的数据做find_state_code的变换  print("Before Correct State:", data["state"]) # 打印修改之前的state data["state"] = data.apply(correct_state, axis=1) # 检测每一行,并对其修改 print("After Correct State:", data["state"]) data.insert(5, "State Code", np.nan) # 插入State Code这一列,为这一列州名的缩写 data["State Code"] = data.apply(fill_state_code, axis=1) print(data)  # group by print("==============group by================") print(data.groupby("State Code")) print("All Columns:") print(data.groupby("State Code").sum()) # 按州名缩写划分,并将同样州名的数字相加 print("Short Columns:") print(data[["State Code", "Jan", "Feb", "Mar", "total"]].groupby("State Code").sum())  # 写入文件 data.to_excel("sales_result.xls", sheet_name="Sheet1", index=False)

补充:pandas基于多条件文本模糊查询,list,str.contains() 。

针对文本的模糊查询可以用str.contains()进行,但是如果多条件呢,几十个上百个,不能一个一个去查询.

思路是

1.将多条件简历在一个列表里 。

2.通过列表推导式加str.contains()函数和sum()函数求和 。

3.通过loc筛选出我们需要的本文的内容 。

创建

Pandas 模糊查询与替换的操作

需要筛选的内容words列表,之后进行筛选、 。

Pandas 模糊查询与替换的操作

下面显示的是sum函数里的内容的最后形式,1和2都相当于True,0代表False 。

Pandas 模糊查询与替换的操作

有时间写一个更简单的的另一种多条件模糊筛选.

以上为个人经验,希望能给大家一个参考,也希望大家多多支持我。如有错误或未考虑完全的地方,望不吝赐教.

原文链接:https://blog.csdn.net/qq_39926861/article/details/84872717 。

最后此篇关于Pandas 模糊查询与替换的操作的文章就讲到这里了,如果你想了解更多关于Pandas 模糊查询与替换的操作的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com