作者:Afroz Chakure翻譯:瘋狂的技術(shù)宅
原文:https://towardsdatascience.co...
未經(jīng)允許嚴(yán)禁轉(zhuǎn)載
機(jī)器學(xué)習(xí)的核心是處理數(shù)據(jù)。你的 機(jī)器學(xué)習(xí)工具應(yīng)該與數(shù)據(jù)的質(zhì)量一樣好 。本文涉及 清理數(shù)據(jù) 的各個步驟。你的數(shù)據(jù)需要經(jīng)過幾個步驟才能用于預(yù)測。
數(shù)據(jù)預(yù)處理涉及的步驟:
- 導(dǎo)入所需的庫
- 導(dǎo)入數(shù)據(jù)集
- 處理缺失的數(shù)據(jù)。
- 編碼分類數(shù)據(jù)。
- 將數(shù)據(jù)集拆分為測試集和訓(xùn)練集。
- 特征縮放。
那么讓我們逐一學(xué)習(xí)這些步驟。
步驟1:導(dǎo)入所需的庫
你先需要下載此數(shù)據(jù)集:Data.csv
每次我們制作新模型時,都會要求導(dǎo)入 Numpy 和 Pandas。 Numpy 是一個包含數(shù)學(xué)函數(shù)的庫,用于科學(xué)計算,而 Pandas 用于導(dǎo)入和管理數(shù)據(jù)集。
import pandas as pd
import numpy as np
在這里我們導(dǎo)入 pandas 和 Numpy 庫并分別命名名 “pd” 和 “np”。
第2步:導(dǎo)入數(shù)據(jù)集
數(shù)據(jù)集以 .csv 格式提供。 CSV 文件以純文本格式存儲表格數(shù)據(jù)。該文件的每一行都是一個數(shù)據(jù)記錄。我們使用 pandas 庫的 read_csv 方法將本地 CSV 文件讀取為 數(shù)據(jù)幀(dataframe) 。
dataset = pd.read_csv('Data.csv')
在仔細(xì)檢查數(shù)據(jù)集之后,我們將在數(shù)據(jù)集(X)中創(chuàng)建一個特征矩陣,并創(chuàng)建一個依賴向量(Y)及其各自的觀察結(jié)果。我們用 pandas 的 iloc (用于修復(fù)索引以進(jìn)行選擇)讀取列,它包含兩個參數(shù) — [行選擇,列選擇]。
X = dataset.iloc[:, :-1].values
y = dataset.iloc[:, 3].values
步驟3:處理缺失的數(shù)據(jù)
我們得到的數(shù)據(jù)很少是同質(zhì)的。有時數(shù)據(jù)可能會丟失,所以需要對其進(jìn)行處理,以免降低機(jī)器學(xué)習(xí)模型的性能。
我們需要用整列的 Mean 或 Median 替換缺失的數(shù)據(jù)。為此,我們將使用
sklearn.preprocessing
庫,其中包含一個名為
Imputer
的類,它將幫助我們處理丟失的數(shù)據(jù)。
from sklearn.preprocessing import Imputer
imputer = Imputer(missing_values = "NaN", strategy = "mean", axis = 0)
我們的對象名稱是
imputer
。
Imputer
類可以采用如下參數(shù):
-
missing_values
: 它是缺失值的占位符。所有出現(xiàn)的
missing_values
都將被估算。我們可以給它一個整數(shù)或NaN
來查找缺失值。 - strategy : 這是插補(bǔ)策略 —— 如果是"mean",則使用沿軸的平均值(列)替換缺失值。其他策略包括"median"(中位數(shù))和"most_frequent"(最常見)。
- axis : 可以指定 0 或 1,0 沿列插入,1沿行插入。
現(xiàn)在將
imputer
對象與我們的數(shù)據(jù)相匹配。
imputer = imputer.fit(X[:, 1:3])
接著用
transform
方法將缺失值替換為列的平均值。
X[:, 1:3] = imputer.transform(X[:, 1:3])
步驟4:編碼分類數(shù)據(jù)
任何非定量的變量都是分類的。例如頭發(fā)顏色、性別、研究領(lǐng)域、大學(xué)就業(yè)、政治派別、疾病感染狀況等。
但是為什么要編碼?
我們不能在模型的數(shù)學(xué)方程中使用“男性”和“女性”等值,因此需要將這些變量編碼為數(shù)字。
為此,我們從
sklearn.preprocessing
庫導(dǎo)入
LabelEncoder
類,并創(chuàng)建
LabelEncoder
類的對象
labelencoder_X
。之后在分類特征上使用
fit_transform
方法。
在編碼之后,有必要區(qū)分同一列中的變量,為此我們將使用
sklearn.preprocessing
庫中的
OneHotEncoder
類。
獨(dú)熱編碼(One-Hot Encoding)
獨(dú)熱編碼將分類特征轉(zhuǎn)換為更適合分類和回歸算法的格式。
from sklearn.preprocessing import LabelEncoder, OneHotEncoder
labelencoder_X = LabelEncoder()
X[:, 0] = labelencoder_X.fit_transform(X[:, 0])
onehotencoder = OneHotEncoder(categorical_features = [0])
X = onehotencoder.fit_transform(X).toarray()
labelencoder_y = LabelEncoder()
y = labelencoder_y.fit_transform(y)
步驟5:將數(shù)據(jù)集拆分為訓(xùn)練集和測試集
現(xiàn)在我們將數(shù)據(jù)分成兩組,一組用于訓(xùn)練模型,稱為
訓(xùn)練集
,另一組用于測試模型的性能,稱為
測試集
。它們的比例通常是 80/20。為此,我們導(dǎo)入
sklearn.model_selection
庫的
train_test_split
方法。
from sklearn.model_selection import train_test_split
現(xiàn)在建立訓(xùn)練集和測試集,我們將創(chuàng)建 4 套 ——
- X_train (訓(xùn)練部分特征矩陣),
- X_test (測試特征矩陣的一部分),
- Y_train (訓(xùn)練與 X 集相關(guān)的因變量的一部分,因此也是相同的索引),
- Y_test (測試與 X 測試集相關(guān)的因變量的一部分,因此也測試相同的索引)。
我們將為它們分配
test_train_split
,它接受參數(shù)
arrays
(X和Y)
test_size
(指定分割數(shù)據(jù)集的比率)。
X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size = 0.2, random_state = 0)
第6步:特征縮放
大多數(shù)機(jī)器學(xué)習(xí)算法在其計算中使用兩個數(shù)據(jù)點(diǎn)之間的
歐幾里德距離
。因此,
高幅度特征在距離計算
中的權(quán)重將比低幅度的特征
更重
。為了避免這種功能,使用標(biāo)準(zhǔn)化或 Z-score 標(biāo)準(zhǔn)化。這是通過使用
StandardScaler
類
sklearn.preprocessing
來完成的。
from sklearn.preprocessing import StandardScaler
sc_X = StandardScaler()
此外,我們將轉(zhuǎn)換
X_test
集合,同時需要適應(yīng)并轉(zhuǎn)換
X_train
集合。
轉(zhuǎn)換函數(shù)將所有數(shù)據(jù)轉(zhuǎn)換為相同的標(biāo)準(zhǔn)化比例。
X_train = sc_X.fit_transform(X_train)
X_test = sc_X.transform(X_test)
到此為止,你已經(jīng)學(xué)習(xí)了數(shù)據(jù)預(yù)處理所涉及的基本步驟。
現(xiàn)在,你可以嘗試在某些實(shí)際數(shù)據(jù)集上應(yīng)用這些預(yù)處理技術(shù)。
歡迎掃碼關(guān)注公眾號:硬核智能
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯(lián)系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
