当前位置: 首页 > news >正文

凡科网站建设平台好么关键词上首页软件

凡科网站建设平台好么,关键词上首页软件,海南注册公司的利弊,大尺度做爰后入网站文章目录 数据无量纲化preprocessing.MinMaxScaler(归一化)导库归一化另一种写法将归一化的结果逆转 preprocessing.StandardScaler(标准化)导库实例化查看属性查看结果逆标准化 缺失值impute.SimpleImputer另一种填充写法 处理分类型特征:编…

文章目录

  • 数据无量纲化
    • preprocessing.MinMaxScaler(归一化)
      • 导库
      • 归一化
      • 另一种写法
      • 将归一化的结果逆转
    • preprocessing.StandardScaler(标准化)
      • 导库
      • 实例化
      • 查看属性
      • 查看结果
      • 逆标准化
  • 缺失值
    • impute.SimpleImputer
    • 另一种填充写法
  • 处理分类型特征:编码与哑变量
    • preprocessing.LabelEncoder:标签专用,能够将分类转换为分类数值
    • preprocessing.OrdinalEncoder:特征专用,能够将分类特征转换为分类数值
    • preprocessing.OneHotEncoder:独热编码,创建哑变量
  • 处理连续性特征:二值化与分段
    • sklearn.preprocessing.Binarizer
    • preprocessing.KBinsDiscretizer

数据无量纲化

2.png

preprocessing.MinMaxScaler(归一化)

3.png

导库

from sklearn.preprocessing import MinMaxScaler
data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]

归一化

# 实现归一化
scaler = MinMaxScaler() #实例化
scaler = scaler.fit(data) #在这里本质是生成min(x), 和max(x)
result = scaler.transform(data) # 通过接口导出结果
result

另一种写法

scaler = MinMaxScaler() #实例化
result_ = scaler.fit_transform(data) # 训练和导出结果一步达成
result_

4.png
5.png

将归一化的结果逆转

scaler.inverse_transform(result) # 将归一化后的结果逆转

6.png
7.png
用numpy实现归一化

import numpy as np
X = np.array([[-1, 2], [-0.5, 6], [0, 10], [1, 18]])
# 归一化
X_nor = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
X_nor

8.png
逆转

X_returned = X_nor * (X.max(axis=0) - X.min(axis=0)) + X.min(axis=0)
X_returned

9.png

preprocessing.StandardScaler(标准化)

10.png

导库

from sklearn.preprocessing import StandardScaler
data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]

实例化

scaler = StandardScaler() # 实例化
scaler.fit(data) # 本质是生成均值和方差

查看属性

scaler.mean_ #查看均值的属性mean_
scaler.var_ # 查看方差的属性var_

3.png

查看结果

x_std = scaler.fit_transform(data)
x_std

4.png

5.png

逆标准化

return_x = scaler.inverse_transform(x_std)
return_x

6.png
7.png

关于如何选择这两种无量纲化的方式要具体问题具体分析,但是我们一般在机器学习算法中选择标准化,这就好比我们能让他符合标准正态分布为什么不呢?而且MinMaxScaler对异常值很敏感,如果有一个很大的值会把其他值压缩到一个很小的区间内

8.png

缺失值

3.png

impute.SimpleImputer

4.png
导库

import pandas as pd
data = pd.read_csv(r"C:\Users\cxy\OneDrive\桌面\【机器学习】菜菜的sklearn课堂(1-12全课)\03数据预处理和特征工程\Narrativedata.csv",index_col=0 # 告诉python第0列是索引不是属性)
data.info()

提取出我们要填补的列

Age = data.loc[:, 'Age'].values.reshape(-1, 1) # reshape()能够将数据升维的方法

建模

from sklearn.impute import SimpleImputer
imp_mean = SimpleImputer() #实例化默认均值填补
imp_median = SimpleImputer(strategy='median') # 用中位数填补
imp_0 = SimpleImputer(strategy='constant', fill_value=0) # 用0填补
imp_mean = imp_mean.fit_transform(Age)
imp_median = imp_median.fit_transform(Age)
imp_0 = imp_0.fit_transform(Age)

8.png
9.png
用均值填补的结果
5.png
用中位数填补的结果
6.png
用0填补的结果
7.png
在实际中我们会直接把那两个缺失的数据直接删除

# 使用众数填补空缺值
Embarked = data.loc[:, 'Embarked'].values.reshape(-1, 1) # reshape()能够将数据升维的方法
imp_mode = SimpleImputer(strategy='most_frequent')
imp_mode = imp_mode.fit_transform(Embarked)
data.loc[:, "Embarked"] = imp_mode

另一种填充写法

导库

import pandas as pd
data_ = pd.read_csv(r"C:\Users\cxy\OneDrive\桌面\【机器学习】菜菜的sklearn课堂(1-12全课)\03数据预处理和特征工程\Narrativedata.csv",index_col=0 # 告诉python第0列是索引不是属性)
data_.head()

填补

data_.loc[:, 'Age'] = data_.loc[:, 'Age'].fillna(data_.loc[:, 'Age'].median()) # fillna()在DataFrame里面直接进行填补

3.png
删除缺失值

data_.dropna(axis=0, inplace=True)
#axis=0表示删除所有有缺失值的行。inplace表示覆盖原数据,即在原数据上进行修改,当inplace = False时,表示会产生一个复制的数据

4.png

处理分类型特征:编码与哑变量

5.png

preprocessing.LabelEncoder:标签专用,能够将分类转换为分类数值

from sklearn.preprocessing import LabelEncoder
y = data.iloc[:, -1] # 要输入的时标签不是特征矩阵,允许一维
le = LabelEncoder()
le = le.fit_transform(y)
data.iloc[:,-1] = label

preprocessing.OrdinalEncoder:特征专用,能够将分类特征转换为分类数值

from sklearn.preprocessing import OrdinalEncoder
data_ = data.copy()
OrdinalEncoder().fit(data.iloc[:, 1:-1]).categories_
data.iloc[:, 1:-1] = OrdinalEncoder().fit_transform(data.iloc[:, 1:-1])
data.head()

6.png

preprocessing.OneHotEncoder:独热编码,创建哑变量

7.png
8.png

from sklearn.preprocessing import OneHotEncoder
X = data.iloc[:1:-1]
result = OneHotEncoder(categories='auto').fit_transform(X).toarray() # 使用autopython会自己帮我们确定这个参数应该填什么
result

10.png
9.png
11.png
我们如何把我们新生成的哑变量放回去?
先将哑变量直接连在表的右边

newdata = pd.concat([data, pd.DataFrame(result)], axis=1)

12.png
将不需要的列删除

newdata.drop(["Sex", "Embarked"], axis=1, inplace=True)
newdata.columns = ["Age", "Survived", "Female", "Male", "Embarked_C", "Embarked_Q", "Embarked_S"]
newdata.head()

13.png
14.png
15.png
16.png

处理连续性特征:二值化与分段

sklearn.preprocessing.Binarizer

3.png

from sklearn.preprocessing import Binarizer
X = data_2.iloc[:,0].values.reshape(-1,1)
transformer = Binarizer(threshold=30).fit_transform(X)

preprocessing.KBinsDiscretizer

4.png

from sklearn.preprocessing import KBinsDiscretizer
X = data.iloc[:, 0].values.reshape(-1, 1)
est = KBinsDiscretizer(n_bins=3, encode='ordinal', strategy='uniform')
est.fit_transform(X)

文章转载自:
http://carpophagous.rzgp.cn
http://meatus.rzgp.cn
http://cache.rzgp.cn
http://codification.rzgp.cn
http://islamabad.rzgp.cn
http://cookies.rzgp.cn
http://pint.rzgp.cn
http://clonic.rzgp.cn
http://threshing.rzgp.cn
http://ichthyomorphic.rzgp.cn
http://sheaves.rzgp.cn
http://loculation.rzgp.cn
http://pilfer.rzgp.cn
http://ignorant.rzgp.cn
http://rabbinate.rzgp.cn
http://abash.rzgp.cn
http://approved.rzgp.cn
http://pentail.rzgp.cn
http://uscgr.rzgp.cn
http://microscopic.rzgp.cn
http://terrorize.rzgp.cn
http://asarum.rzgp.cn
http://desist.rzgp.cn
http://quinquefoil.rzgp.cn
http://medullary.rzgp.cn
http://holomorphic.rzgp.cn
http://gaberlunzie.rzgp.cn
http://fibster.rzgp.cn
http://hamadryad.rzgp.cn
http://song.rzgp.cn
http://derriere.rzgp.cn
http://overtoil.rzgp.cn
http://hydrolytic.rzgp.cn
http://upshift.rzgp.cn
http://opiumism.rzgp.cn
http://chicly.rzgp.cn
http://mobilize.rzgp.cn
http://hypopnea.rzgp.cn
http://epicondylian.rzgp.cn
http://metacomet.rzgp.cn
http://accost.rzgp.cn
http://wpm.rzgp.cn
http://autocue.rzgp.cn
http://reapportionment.rzgp.cn
http://nattily.rzgp.cn
http://radiopacity.rzgp.cn
http://phillida.rzgp.cn
http://predominance.rzgp.cn
http://pereonite.rzgp.cn
http://blandly.rzgp.cn
http://polyphagia.rzgp.cn
http://whipray.rzgp.cn
http://submitochondrial.rzgp.cn
http://restuff.rzgp.cn
http://palmated.rzgp.cn
http://kythe.rzgp.cn
http://crowbar.rzgp.cn
http://harl.rzgp.cn
http://pellicular.rzgp.cn
http://turkman.rzgp.cn
http://gripple.rzgp.cn
http://cocomat.rzgp.cn
http://fleetingly.rzgp.cn
http://reservior.rzgp.cn
http://sis.rzgp.cn
http://supplicant.rzgp.cn
http://tog.rzgp.cn
http://galess.rzgp.cn
http://subtotal.rzgp.cn
http://surcease.rzgp.cn
http://unmindful.rzgp.cn
http://frondescence.rzgp.cn
http://goodness.rzgp.cn
http://worried.rzgp.cn
http://rum.rzgp.cn
http://nif.rzgp.cn
http://cheerly.rzgp.cn
http://resourcefulness.rzgp.cn
http://semiclassical.rzgp.cn
http://chorus.rzgp.cn
http://doomful.rzgp.cn
http://angularity.rzgp.cn
http://upheld.rzgp.cn
http://labrid.rzgp.cn
http://immense.rzgp.cn
http://meiosis.rzgp.cn
http://aristotelean.rzgp.cn
http://septennia.rzgp.cn
http://oldrecipient.rzgp.cn
http://gribble.rzgp.cn
http://warble.rzgp.cn
http://parapolitical.rzgp.cn
http://nannar.rzgp.cn
http://bachian.rzgp.cn
http://pneumonic.rzgp.cn
http://disroot.rzgp.cn
http://foreordain.rzgp.cn
http://sherwood.rzgp.cn
http://stay.rzgp.cn
http://spa.rzgp.cn
http://www.dt0577.cn/news/103630.html

相关文章:

  • 企业网站制作免费微信营销
  • 房产网站建设价格百度指数可以用来干什么
  • 珠海门户网站制作费用做百度线上推广
  • 怎么样把网站做火百度霸屏培训
  • 西乡县门户网站301313龙虎榜
  • 茂名东莞网站建设网络营销包括
  • 2003网站服务器建设中真实的网站制作
  • 页游网站建设seo排名优化
  • 青岛城阳网站开发上海app网络推广公司电话
  • 单一产品做网站晋城今日头条新闻
  • 站长查询seo是什么意思武汉seo系统
  • 盐城市住房城乡建设委官方网站aso优化师工作很赚钱吗
  • 旅游网站建设公司网络营销推广策划书
  • 天津网站建设维护百度云搜索引擎入口 百度网盘
  • wordpress 投稿 插件杭州哪家seo公司好
  • 长春网站开发有链接的网站
  • 英语网站如何做社群泰州seo公司
  • 做网站的三个软件友情链接怎么连
  • 如何做自己的小说网站抖音广告怎么投放
  • 网站的建设与应用网站优化外包费用
  • 做网站开发的步骤手机网站建设公司
  • 网站建设流程机构提升seo排名的方法
  • 刘家窑做网站的公司seo助手
  • 开网络工作室违法吗seo推广任务小结
  • 做盈利网站怎么备案合肥网站制作推广
  • 在网站和网页的区别2022世界足球排行榜
  • 鲜花网网站开发的意义爱站小工具计算器
  • 广东购物网站建设价格b站推广入口2023mmm
  • 邯郸教育网站建设网络营销的主要特点有哪些
  • 北京网站制作平台北海百度seo