XGBoost 用于多标签分类?

新手上路,请多包涵

是否可以使用 XGBoost 进行多标签分类?现在我使用 OneVsRestClassifier 而不是 GradientBoostingClassifier 来自 sklearn 。它可以工作,但只使用我 CPU 的一个内核。在我的数据中,我有大约 45 个特征,任务是用二进制(布尔)数据预测大约 20 列。指标是平均精度 (map@7)。如果您有一个简短的代码示例可以分享,那就太好了。

原文由 user3318023 发布,翻译遵循 CC BY-SA 4.0 许可协议

阅读 1.3k
1 个回答

一种可能的方法,而不是使用 OneVsRestClassifier 用于多类任务,是使用 MultiOutputClassifier 来自 sklearn.multioutput 模块

下面是一个小的可重现示例代码,其中包含 OP 要求的输入特征和目标输出的数量

import xgboost as xgb
from sklearn.datasets import make_multilabel_classification
from sklearn.model_selection import train_test_split
from sklearn.multioutput import MultiOutputClassifier
from sklearn.metrics import accuracy_score

# create sample dataset
X, y = make_multilabel_classification(n_samples=3000, n_features=45, n_classes=20, n_labels=1,
                                      allow_unlabeled=False, random_state=42)

# split dataset into training and test set
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

# create XGBoost instance with default hyper-parameters
xgb_estimator = xgb.XGBClassifier(objective='binary:logistic')

# create MultiOutputClassifier instance with XGBoost model inside
multilabel_model = MultiOutputClassifier(xgb_estimator)

# fit the model
multilabel_model.fit(X_train, y_train)

# evaluate on test data
print('Accuracy on test data: {:.1f}%'.format(accuracy_score(y_test, multilabel_model.predict(X_test))*100))

原文由 Ric S 发布,翻译遵循 CC BY-SA 4.0 许可协议

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题