- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章使用pandas模块实现数据的标准化操作由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
如下所示:
3σ 原则 | (u-3*σ ,u+3*σ ) |
离差标准化 | (x-min)/(max-min) |
标准差标准化 | (x-u)/σ |
小数定标标准化 | x/10**k 。 k=np.ceil(log10(max(|x|))) 。 |
u 均值 。
σ 标准差 。
正太分布的数据基本都分布在(u-3σ,u+3σ)范围内 。
其他的数据 。
import pandas as pdimport numpy as npdef three_sigma(se): """ 自实现3σ原则,进行数据过滤 :param se:传进来的series结构数据 :return:去除异常值之后的series数据 """ bool_id=((se.mean()-3*se.std())<se) & (se<(se.mean()+3*se.std())) print(bool_id) return se[bool_id] #加载数据detail=pd.read_excel('./meal_order_detail.xlsx')#进行异常值处理res=three_sigma(detail['amounts'])print(detail.shape)print(res.shape)
(x-min)/(max-min)
import pandas as pdimport numpy as np def minmax_sca(data): """ 离差标准化 param data:传入的数据 return:标准化之后的数据 """ new_data=(data-data.min())/(data.max()-data.min()) return new_data #加载数据detail=pd.read_excel('./meal_order_detail.xlsx')res=minmax_sca(detail[['amounts','counts']])print(res)data=resbool_id=data.loc[:,'count']==1print(data.loc[bool_id],'counts')
(x-u)/σ 。
异常值对标准差标准化的影响不大 。
转化之后的数据--->均值0 标准差1 。
import pandas as pdimport numpy as npdef stand_sca(data): """ 标准差标准化 :param data:传入的数据 :return:标准化之后的数据 """ new_data=(data-data.mean())/data.std() return new_data #加载数据detail=pd.read_excel('./meal_order_detail.xlsx')res=stand_sca(detail[['amounts','counts']])print(res)print('res的均值:',res.mean())print('res的标准差:',res.std())
x/(10^k)k=math.ceil(log10(max(|x|)))
以10为底,x的绝对值的最大值的对数 最后进行向上取整 。
import pandas as pdimport numpy as npdef deci_sca(data): """ 自实现小数定标标准化 :param data: 传入的数据 :return: 标准化之后的数据 """ new_data=data/(10**(np.ceil(np.log10(data.abs().max())))) return new_data#加载数据detail = pd.read_excel('./meal_order_detail.xlsx')res = deci_sca(detail[['amounts', 'counts']])print(res)
补充:pandas数据处理基础之标准化与标签数值化 。
fit(): Method calculates the parameters μ and σ and saves them as internal objects. 。
解释:简单来说,就是求得训练集X的均值,方差,最大值,最小值,这些训练集X固有的属性.
transform(): Method using these calculated parameters apply the transformation to a particular dataset. 。
解释:在fit的基础上,进行标准化,降维,归一化等操作(看具体用的是哪个工具,如PCA,StandardScaler等).
fit_transform(): joins the fit() and transform() method for transformation of dataset. 。
解释:fit_transform是fit和transform的组合,既包括了训练又包含了转换。 transform()和fit_transform()二者的功能都是对数据进行某种统一处理(比如标准化~N(0,1),将数据缩放(映射)到某个固定区间,归一化,正则化等) 。
fit_transform(trainData)对部分数据先拟合fit,找到该part的整体指标,如均值、方差、最大值最小值等等(根据具体转换的目的),然后对该trainData进行转换transform,从而实现数据的标准化、归一化等等.
必须先用fit_transform(trainData),之后再transform(testData) 。
如果直接transform(testData),程序会报错 。
如果fit_transfrom(trainData)后,使用fit_transform(testData)而不transform(testData),虽然也能归一化,但是两个结果不是在同一个“标准”下的,具有明显差异。(一定要避免这种情况) 。
注意:StandardScaler().fit_transform(x,fit_params),fit_params决定标准化的标签数据,就是每个标准化的标杆数据,此参数不同,则每次标准化的过程则不同.
from sklearn import preprocessing# 获取数据cols = ['OverallQual','GrLivArea', 'GarageCars','TotalBsmtSF', 'FullBath', 'TotRmsAbvGrd', 'YearBuilt'] ##选取列x = data_train[cols].valuesy = data_train['SalePrice'].values x_scaled = preprocessing.StandardScaler().fit_transform(x) ##进行归一化y_scaled = preprocessing.StandardScaler().fit_transform(y.reshape(-1,1))##先将y转换成一列,再进行归一
还有以下形式,和上面的标准化原理一致,都是先fit,再transform.
由ss决定标准化进程的独特性 。
# 先将数据标准化from sklearn.preprocessing import StandardScalerss = StandardScaler() ###用测试集训练并标准化ss.fit(missing_age_X_train)##首先fitmissing_age_X_train = ss.transform(missing_age_X_train) #进行transformmissing_age_X_test = ss.transform(missing_age_X_test)
1.当某列数据不是数值型数据时,将难以标准化,此时要将数据转化成数据型形式.
数据处理前数据显示:
经过标签化数据处理 。
from sklearn import preprocessingf_names = ['CentralAir', 'Neighborhood'] ##需要处理的数据标签 for x in f_names: label = preprocessing.LabelEncoder() data_train[x] = label.fit_transform(data_train[x]) ##数据标准化
处理之后变成:
2.当某列有对应的标签值时,即某个量对应相应确定的标签时,例如oldtown就对应1,sawyer就对应2,分类的str转换为序列类这时使用如下:
数据处理之前 。
利用转换
title_mapping = {"Mr": 1, "Miss": 2, "Mrs": 3, "Master": 4, "Rare": 5}#将标签对应数值train_df['Title'] = train_df['Title'].map(title_mapping)#处理数据train_df['Title'] = train_df['Title'].fillna(0)##将其余标签填充为0值
处理过后:
3.多个数据标签需要分列采用one_hot形式时,处理之前 。
处理之后 。
train_test.loc[train_test["Age"].isnull() ,"age_nan"] = 1 ##将标签转换成1train_test.loc[train_test["Age"].notnull() ,"age_nan"] = 0##将此标签成为0train_test = pd.get_dummies(train_test,columns=['age_nan']) ##columns决定哪几行分列处理,prefix参数是每列前缀
one_hot 形式转变成功.
以上为个人经验,希望能给大家一个参考,也希望大家多多支持我.
原文链接:https://blog.csdn.net/g_optimistic/article/details/93162100 。
最后此篇关于使用pandas模块实现数据的标准化操作的文章就讲到这里了,如果你想了解更多关于使用pandas模块实现数据的标准化操作的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
背景: 我最近一直在使用 JPA,我为相当大的关系数据库项目生成持久层的轻松程度给我留下了深刻的印象。 我们公司使用大量非 SQL 数据库,特别是面向列的数据库。我对可能对这些数据库使用 JPA 有一
我已经在我的 maven pom 中添加了这些构建配置,因为我希望将 Apache Solr 依赖项与 Jar 捆绑在一起。否则我得到了 SolarServerException: ClassNotF
interface ITurtle { void Fight(); void EatPizza(); } interface ILeonardo : ITurtle {
我希望可用于 Java 的对象/关系映射 (ORM) 工具之一能够满足这些要求: 使用 JPA 或 native SQL 查询获取大量行并将其作为实体对象返回。 允许在行(实体)中进行迭代,并在对当前
好像没有,因为我有实现From for 的代码, 我可以转换 A到 B与 .into() , 但同样的事情不适用于 Vec .into()一个Vec . 要么我搞砸了阻止实现派生的事情,要么这不应该发
在 C# 中,如果 A 实现 IX 并且 B 继承自 A ,是否必然遵循 B 实现 IX?如果是,是因为 LSP 吗?之间有什么区别吗: 1. Interface IX; Class A : IX;
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
我正在阅读标准haskell库的(^)的实现代码: (^) :: (Num a, Integral b) => a -> b -> a x0 ^ y0 | y0 a -> b ->a expo x0
我将把国际象棋游戏表示为 C++ 结构。我认为,最好的选择是树结构(因为在每个深度我们都有几个可能的移动)。 这是一个好的方法吗? struct TreeElement{ SomeMoveType
我正在为用户名数据库实现字符串匹配算法。我的方法采用现有的用户名数据库和用户想要的新用户名,然后检查用户名是否已被占用。如果采用该方法,则该方法应该返回带有数据库中未采用的数字的用户名。 例子: “贾
我正在尝试实现 Breadth-first search algorithm , 为了找到两个顶点之间的最短距离。我开发了一个 Queue 对象来保存和检索对象,并且我有一个二维数组来保存两个给定顶点
我目前正在 ika 中开发我的 Python 游戏,它使用 python 2.5 我决定为 AI 使用 A* 寻路。然而,我发现它对我的需要来说太慢了(3-4 个敌人可能会落后于游戏,但我想供应 4-
我正在寻找 Kademlia 的开源实现C/C++ 中的分布式哈希表。它必须是轻量级和跨平台的(win/linux/mac)。 它必须能够将信息发布到 DHT 并检索它。 最佳答案 OpenDHT是
我在一本书中读到这一行:-“当我们要求 C++ 实现运行程序时,它会通过调用此函数来实现。” 而且我想知道“C++ 实现”是什么意思或具体是什么。帮忙!? 最佳答案 “C++ 实现”是指编译器加上链接
我正在尝试使用分支定界的 C++ 实现这个背包问题。此网站上有一个 Java 版本:Implementing branch and bound for knapsack 我试图让我的 C++ 版本打印
在很多情况下,我需要在 C# 中访问合适的哈希算法,从重写 GetHashCode 到对数据执行快速比较/查找。 我发现 FNV 哈希是一种非常简单/好/快速的哈希算法。但是,我从未见过 C# 实现的
目录 LRU缓存替换策略 核心思想 不适用场景 算法基本实现 算法优化
1. 绪论 在前面文章中提到 空间直角坐标系相互转换 ,测绘坐标转换时,一般涉及到的情况是:两个直角坐标系的小角度转换。这个就是我们经常在测绘数据处理中,WGS-84坐标系、54北京坐标系
在软件开发过程中,有时候我们需要定时地检查数据库中的数据,并在发现新增数据时触发一个动作。为了实现这个需求,我们在 .Net 7 下进行一次简单的演示. PeriodicTimer .
二分查找 二分查找算法,说白了就是在有序的数组里面给予一个存在数组里面的值key,然后将其先和数组中间的比较,如果key大于中间值,进行下一次mid后面的比较,直到找到相等的,就可以得到它的位置。
我是一名优秀的程序员,十分优秀!