查看原文
其他

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章 一个完整的机器学习项目(下)

ApacheCN Python爱好者社区 2019-04-07

作者:ApacheCN   Python机器学习爱好者
Python爱好者社区专栏作者
GitHub:https://github.com/apachecn/hands_on_Ml_with_Sklearn_and_TF


前文传送门:


【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— Chapter 0.前言

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第1章 机器学习概览(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第1章 机器学习概览(下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章  一个完整的机器学习项目(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章 一个完整的机器学习项目(中)


为机器学习算法准备数据


现在来为机器学习算法准备数据。不要手工来做,你需要写一些函数,理由如下:


  • 函数可以让你在任何数据集上(比如,你下一次获取的是一个新的数据集)方便地进行重复数据转换。

  • 你能慢慢建立一个转换函数库,可以在未来的项目中复用。

  • 在将数据传给算法之前,你可以在实时系统中使用这些函数。

  • 这可以让你方便地尝试多种数据转换,查看哪些转换方法结合起来效果最好。


但是,还是先回到干净的训练集(通过再次复制strat_train_set),将预测量和标签分开,因为我们不想对预测量和目标值应用相同的转换(注意drop()创建了一份数据的备份,而不影响strat_train_set):

housing = strat_train_set.drop("median_house_value", axis=1) housing_labels = strat_train_set["median_house_value"].copy()

数据清洗


大多机器学习算法不能处理缺失的特征,因此先创建一些函数来处理特征缺失的问题。前面,你应该注意到了属性total_bedrooms有一些缺失值。有三个解决选项:


  • 去掉对应的街区;

  • 去掉整个属性;

  • 进行赋值(0、平均值、中位数等等)。


DataFramedropna()drop(),和fillna()方法,可以方便地实现:

housing.dropna(subset=["total_bedrooms"])    # 选项1 housing.drop("total_bedrooms", axis=1)       # 选项2 median = housing["total_bedrooms"].median() housing["total_bedrooms"].fillna(median)     # 选项3

如果选择选项 3,你需要计算训练集的中位数,用中位数填充训练集的缺失值,不要忘记保存该中位数。后面用测试集评估系统时,需要替换测试集中的缺失值,也可以用来实时替换新数据中的缺失值。

from sklearn.preprocessing import Imputer imputer = Imputer(strategy="median")

Scikit-Learn 提供了一个方便的类来处理缺失值:Imputer。下面是其使用方法:首先,需要创建一个Imputer实例,指定用某属性的中位数来替换该属性所有的缺失值:


因为只有数值属性才能算出中位数,我们需要创建一份不包括文本属性ocean_proximity的数据副本:

housing_num = housing.drop("ocean_proximity", axis=1)

现在,就可以用fit()方法将imputer实例拟合到训练数据:

imputer.fit(housing_num)

imputer计算出了每个属性的中位数,并将结果保存在了实例变量statistics_中。虽然此时只有属性total_bedrooms存在缺失值,但我们不能确定在以后的新的数据中会不会有其他属性也存在缺失值,所以安全的做法是将imputer应用到每个数值:

>>> imputer.statistics_ array([ -118.51 , 34.26 , 29. , 2119. , 433. , 1164. , 408. , 3.5414]) >>> housing_num.median().values array([ -118.51 , 34.26 , 29. , 2119. , 433. , 1164. , 408. , 3.5414])

现在,你就可以使用这个“训练过的”imputer来对训练集进行转换,将缺失值替换为中位数:

X = imputer.transform(housing_num)

结果是一个包含转换后特征的普通的 Numpy 数组。如果你想将其放回到 PandasDataFrame中,也很简单:

housing_tr = pd.DataFrame(X, columns=housing_num.columns)

Scikit-Learn 设计


Scikit-Learn 设计的 API 设计的非常好。它的主要设计原则是:


  • 一致性:所有对象的接口一致且简单:


    • 估计器(estimator)。任何可以基于数据集对一些参数进行估计的对象都被称为估计器(比如,imputer就是个估计器)。估计本身是通过fit()方法,只需要一个数据集作为参数(对于监督学习算法,需要两个数据集;第二个数据集包含标签)。任何其它用来指导估计过程的参数都被当做超参数(比如imputerstrategy),并且超参数要被设置成实例变量(通常通过构造器参数设置)。


    • 转换器(transformer)。一些估计器(比如imputer)也可以转换数据集,这些估计器被称为转换器。API也是相当简单:转换是通过transform()方法,被转换的数据集作为参数。返回的是经过转换的数据集。转换过程依赖学习到的参数,比如imputer的例子。所有的转换都有一个便捷的方法fit_transform(),等同于调用fit()transform()(但有时fit_transform()经过优化,运行的更快)。

    • 预测器(predictor)。最后,一些估计器可以根据给出的数据集做预测,这些估计器称为预测器。例如,上一章的LinearRegression模型就是一个预测器:它根据一个国家的人均 GDP 预测生活满意度。预测器有一个predict()方法,可以用新实例的数据集做出相应的预测。预测器还有一个score()方法,可以根据测试集(和相应的标签,如果是监督学习算法的话)对预测进行衡器。


  • 可检验。所有估计器的超参数都可以通过实例的public变量直接访问(比如,imputer.strategy),并且所有估计器学习到的参数也可以通过在实例变量名后加下划线来访问(比如,imputer.statistics_)。

  • 类不可扩散。数据集被表示成 NumPy 数组或 SciPy 稀疏矩阵,而不是自制的类。超参数只是普通的 Python 字符串或数字。

  • 可组合。尽可能使用现存的模块。例如,用任意的转换器序列加上一个估计器,就可以做成一个流水线,后面会看到例子。

  • 合理的默认值。Scikit-Learn 给大多数参数提供了合理的默认值,很容易就能创建一个系统。


处理文本和类别属性


前面,我们丢弃了类别属性ocean_proximity,因为它是一个文本属性,不能计算出中位数。大多数机器学习算法跟喜欢和数字打交道,所以让我们把这些文本标签转换为数字。


Scikit-Learn 为这个任务提供了一个转换器LabelEncoder

>>> from sklearn.preprocessing import LabelEncoder >>> encoder = LabelEncoder() >>> housing_cat = housing["ocean_proximity"] >>> housing_cat_encoded = encoder.fit_transform(housing_cat) >>> housing_cat_encoded array([1, 1, 4, ..., 1, 0, 3])

译注:


在原书中使用LabelEncoder转换器来转换文本特征列的方式是错误的,该转换器只能用来转换标签(正如其名)。在这里使用LabelEncoder没有出错的原因是该数据只有一列文本特征值,在有多个文本特征列的时候就会出错。应使用factorize()方法来进行操作:

housing_cat_encoded, housing_categories = housing_cat.factorize() housing_cat_encoded[:10]

好了一些,现在就可以在任何 ML 算法里用这个数值数据了。你可以查看映射表,编码器是通过属性classes_来学习的(<1H OCEAN被映射为 0,INLAND被映射为 1,等等):

>>> print(encoder.classes_) ['<1H OCEAN' 'INLAND' 'ISLAND' 'NEAR BAY' 'NEAR OCEAN']

这种做法的问题是,ML 算法会认为两个临近的值比两个疏远的值要更相似。显然这样不对(比如,分类 0 和 4 比 0 和 1 更相似)。要解决这个问题,一个常见的方法是给每个分类创建一个二元属性:当分类是<1H OCEAN,该属性为 1(否则为 0),当分类是INLAND,另一个属性等于 1(否则为 0),以此类推。这称作独热编码(One-Hot Encoding),因为只有一个属性会等于 1(热),其余会是 0(冷)。


Scikit-Learn 提供了一个编码器OneHotEncoder,用于将整数分类值转变为独热向量。注意fit_transform()用于 2D 数组,而housing_cat_encoded是一个 1D 数组,所以需要将其变形:

>>> from sklearn.preprocessing import OneHotEncoder >>> encoder = OneHotEncoder() >>> housing_cat_1hot = encoder.fit_transform(housing_cat_encoded.reshape(-1,1)) >>> housing_cat_1hot <16513x5 sparse matrix of type '<class 'numpy.float64'>'    with 16513 stored elements in Compressed Sparse Row format>

注意输出结果是一个 SciPy 稀疏矩阵,而不是 NumPy 数组。当类别属性有数千个分类时,这样非常有用。经过独热编码,我们得到了一个有数千列的矩阵,这个矩阵每行只有一个 1,其余都是 0。使用大量内存来存储这些 0 非常浪费,所以稀疏矩阵只存储非零元素的位置。你可以像一个 2D 数据那样进行使用,但是如果你真的想将其转变成一个(密集的)NumPy 数组,只需调用toarray()方法:

>>> housing_cat_1hot.toarray() array([[ 0.,  1.,  0.,  0.,  0.],       [ 0.,  1.,  0.,  0.,  0.],       [ 0.,  0.,  0.,  0.,  1.],       ...,       [ 0.,  1.,  0.,  0.,  0.],       [ 1.,  0.,  0.,  0.,  0.],       [ 0.,  0.,  0.,  1.,  0.]])

使用类LabelBinarizer,我们可以用一步执行这两个转换(从文本分类到整数分类,再从整数分类到独热向量):

>>> from sklearn.preprocessing import LabelBinarizer >>> encoder = LabelBinarizer() >>> housing_cat_1hot = encoder.fit_transform(housing_cat) >>> housing_cat_1hot array([[0, 1, 0, 0, 0],       [0, 1, 0, 0, 0],       [0, 0, 0, 0, 1],       ...,       [0, 1, 0, 0, 0],       [1, 0, 0, 0, 0],       [0, 0, 0, 1, 0]])

注意默认返回的结果是一个密集 NumPy 数组。向构造器LabelBinarizer传递sparse_output=True,就可以得到一个稀疏矩阵。


译注:

# Definition of the CategoricalEncoder class, copied from PR #9151. # Just run this cell, or copy it to your code, do not try to understand it (yet). from sklearn.base import BaseEstimator, TransformerMixin from sklearn.utils import check_array from sklearn.preprocessing import LabelEncoder from scipy import sparse class CategoricalEncoder(BaseEstimator, TransformerMixin):    """Encode categorical features as a numeric array.    The input to this transformer should be a matrix of integers or strings,    denoting the values taken on by categorical (discrete) features.    The features can be encoded using a one-hot aka one-of-K scheme    (``encoding='onehot'``, the default) or converted to ordinal integers    (``encoding='ordinal'``).    This encoding is needed for feeding categorical data to many scikit-learn    estimators, notably linear models and SVMs with the standard kernels.    Read more in the :ref:`User Guide <preprocessing_categorical_features>`.    Parameters    ----------    encoding : str, 'onehot', 'onehot-dense' or 'ordinal'        The type of encoding to use (default is 'onehot'):        - 'onehot': encode the features using a one-hot aka one-of-K scheme          (or also called 'dummy' encoding). This creates a binary column for          each category and returns a sparse matrix.        - 'onehot-dense': the same as 'onehot' but returns a dense array          instead of a sparse matrix.        - 'ordinal': encode the features as ordinal integers. This results in          a single column of integers (0 to n_categories - 1) per feature.    categories : 'auto' or a list of lists/arrays of values.        Categories (unique values) per feature:        - 'auto' : Determine categories automatically from the training data.        - list : ``categories[i]`` holds the categories expected in the ith          column. The passed categories are sorted before encoding the data          (used categories can be found in the ``categories_`` attribute).    dtype : number type, default np.float64        Desired dtype of output.    handle_unknown : 'error' (default) or 'ignore'        Whether to raise an error or ignore if a unknown categorical feature is        present during transform (default is to raise). When this is parameter        is set to 'ignore' and an unknown category is encountered during        transform, the resulting one-hot encoded columns for this feature        will be all zeros.        Ignoring unknown categories is not supported for        ``encoding='ordinal'``.    Attributes    ----------    categories_ : list of arrays        The categories of each feature determined during fitting. When        categories were specified manually, this holds the sorted categories        (in order corresponding with output of `transform`).    Examples    --------    Given a dataset with three features and two samples, we let the encoder    find the maximum value per feature and transform the data to a binary    one-hot encoding.    >>> from sklearn.preprocessing import CategoricalEncoder    >>> enc = CategoricalEncoder(handle_unknown='ignore')    >>> enc.fit([[0, 0, 3], [1, 1, 0], [0, 2, 1], [1, 0, 2]])    ... # doctest: +ELLIPSIS    CategoricalEncoder(categories='auto', dtype=<... 'numpy.float64'>,              encoding='onehot', handle_unknown='ignore')    >>> enc.transform([[0, 1, 1], [1, 0, 4]]).toarray()    array([[ 1.,  0.,  0.,  1.,  0.,  0.,  1.,  0.,  0.],           [ 0.,  1.,  1.,  0.,  0.,  0.,  0.,  0.,  0.]])    See also    --------    sklearn.preprocessing.OneHotEncoder : performs a one-hot encoding of      integer ordinal features. The ``OneHotEncoder assumes`` that input      features take on values in the range ``[0, max(feature)]`` instead of      using the unique values.    sklearn.feature_extraction.DictVectorizer : performs a one-hot encoding of      dictionary items (also handles string-valued features).    sklearn.feature_extraction.FeatureHasher : performs an approximate one-hot      encoding of dictionary items or strings.    """    def __init__(self, encoding='onehot', categories='auto', dtype=np.float64,                 handle_unknown='error'):        self.encoding = encoding        self.categories = categories        self.dtype = dtype        self.handle_unknown = handle_unknown    def fit(self, X, y=None):        """Fit the CategoricalEncoder to X.        Parameters        ----------        X : array-like, shape [n_samples, n_feature]            The data to determine the categories of each feature.        Returns        -------        self        """        if self.encoding not in ['onehot', 'onehot-dense', 'ordinal']:            template = ("encoding should be either 'onehot', 'onehot-dense' "                        "or 'ordinal', got %s")            raise ValueError(template % self.handle_unknown)        if self.handle_unknown not in ['error', 'ignore']:            template = ("handle_unknown should be either 'error' or "                        "'ignore', got %s")            raise ValueError(template % self.handle_unknown)        if self.encoding == 'ordinal' and self.handle_unknown == 'ignore':            raise ValueError("handle_unknown='ignore' is not supported for"                             " encoding='ordinal'")        X = check_array(X, dtype=np.object, accept_sparse='csc', copy=True)        n_samples, n_features = X.shape        self._label_encoders_ = [LabelEncoder() for _ in range(n_features)]        for i in range(n_features):            le = self._label_encoders_[i]            Xi = X[:, i]            if self.categories == 'auto':                le.fit(Xi)            else:                valid_mask = np.in1d(Xi, self.categories[i])                if not np.all(valid_mask):                    if self.handle_unknown == 'error':                        diff = np.unique(Xi[~valid_mask])                        msg = ("Found unknown categories {0} in column {1}"                               " during fit".format(diff, i))                        raise ValueError(msg)                le.classes_ = np.array(np.sort(self.categories[i]))        self.categories_ = [le.classes_ for le in self._label_encoders_]        return self    def transform(self, X):        """Transform X using one-hot encoding.        Parameters        ----------        X : array-like, shape [n_samples, n_features]            The data to encode.        Returns        -------        X_out : sparse matrix or a 2-d array            Transformed input.        """        X = check_array(X, accept_sparse='csc', dtype=np.object, copy=True)        n_samples, n_features = X.shape        X_int = np.zeros_like(X, dtype=np.int)        X_mask = np.ones_like(X, dtype=np.bool)        for i in range(n_features):            valid_mask = np.in1d(X[:, i], self.categories_[i])            if not np.all(valid_mask):                if self.handle_unknown == 'error':                    diff = np.unique(X[~valid_mask, i])                    msg = ("Found unknown categories {0} in column {1}"                           " during transform".format(diff, i))                    raise ValueError(msg)                else:                    # Set the problematic rows to an acceptable value and                    # continue `The rows are marked `X_mask` and will be                    # removed later.                    X_mask[:, i] = valid_mask                    X[:, i][~valid_mask] = self.categories_[i][0]            X_int[:, i] = self._label_encoders_[i].transform(X[:, i])        if self.encoding == 'ordinal':            return X_int.astype(self.dtype, copy=False)        mask = X_mask.ravel()        n_values = [cats.shape[0] for cats in self.categories_]        n_values = np.array([0] + n_values)        indices = np.cumsum(n_values)        column_indices = (X_int + indices[:-1]).ravel()[mask]        row_indices = np.repeat(np.arange(n_samples, dtype=np.int32),                                n_features)[mask]        data = np.ones(n_samples * n_features)[mask]        out = sparse.csc_matrix((data, (row_indices, column_indices)),                                shape=(n_samples, indices[-1]),                                dtype=self.dtype).tocsr()        if self.encoding == 'onehot-dense':            return out.toarray()        else:            return out


在原书中使用LabelBinarizer的方式也是错误的,该类也应用于标签列的转换。正确做法是使用sklearn即将提供的CategoricalEncoder类。如果在你阅读此文时sklearn中尚未提供此类,用如下方式代替:(来自Pull Request #9151)


转换方法:

#from sklearn.preprocessing import CategoricalEncoder # in future versions of Scikit-Learn cat_encoder = CategoricalEncoder() housing_cat_reshaped = housing_cat.values.reshape(-1, 1) housing_cat_1hot = cat_encoder.fit_transform(housing_cat_reshaped) housing_cat_1hot


Python爱好者社区历史文章大合集

Python爱好者社区历史文章列表(每周append更新一次)

福利:文末扫码立刻关注公众号,“Python爱好者社区”,开始学习Python课程:

关注后在公众号内回复“课程”即可获取:

小编的Python入门视频课程!!!

崔老师爬虫实战案例免费学习视频。

丘老师数据科学入门指导免费学习视频。

陈老师数据分析报告制作免费学习视频。

玩转大数据分析!Spark2.X+Python 精华实战课程免费学习视频。

丘老师Python网络爬虫实战免费学习视频。


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存