You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
交叉验证(cross-validation):是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。在交叉验证中,数据被多次划分,并且需要训练多个模型。最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。
概述
在这一节中,我们用到了数据模型对我们的数据进行训练,有两个模型:线性模型和决策树模型(也叫随机森林)怎么训练的呢?调参。然后我们还要对模型进行评估,用到三种方法:交叉验证,混淆矩阵和ROC曲线。下面就来看看具体内容吧。
内容
训练模型
print('测试集得分:{:.3f}'.format(lr.score(X_test, y_test)))
print('测试集得分:{:.3f}'.format(rf.score(X_test, y_test)))
对于多分类问题,线性模型是怎么进行分类的?\
模型评估
模型评估:模型评估是为了知道模型的泛化能力。
交叉验证(cross-validation):是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。在交叉验证中,数据被多次划分,并且需要训练多个模型。最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。
混淆矩阵:准确(precision)度量的是被预测为正例的样本中有多少是真正的正例。召回率(recall)度量的是正类样本中有多少被预测为正类。 f-分数是准确率与召回率的调和平均值。
总结
说实话,这部分对我来说有点难点,所以我学了两遍看了两遍视频,现在来看就比较明朗了,当然这里是神奇的,是计算机带来的震撼,是算法带来的震撼,是无数数据科学家大展身手的地方。这个项目的学习也到此结束了,感谢自己,继续努力。一路走来,学到的东西很多,我还想再多学一些所以期待下一个项目,期待下一次进化。
The text was updated successfully, but these errors were encountered: