首页 > 解决方案 > 当我将惩罚更改为 L1 时,为什么我的 linearSVC 会失败?

问题描述

我正在尝试按照 Hyun 等人的论文中提出的方法从 scikit-learn 构建线性 SVC 模型。(来源:https ://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1007608#sec010 )。在论文中它指出:

支持向量机在 scikit-learn 中实现,使用按类频率加权的平方铰链损失来解决类不平衡问题。包括 L1 正则化以强制特征选择的稀疏性

我尝试使用以下代码自己实现这一点:

import numpy as np
from sklearn.model_selection import RepeatedStratifiedKFold, cross_val_score
from sklearn.metrics import accuracy_score
import pandas as pd
from sklearn.svm import LinearSVC
from numpy import mean, std

model = LinearSVC(penalty="l1", class_weight='balanced', loss='squared_hinge')
cv = RepeatedStratifiedKFold(n_splits=5, n_repeats=5, random_state=127)
n_scores = cross_val_score(model, X_data, Y_data, scoring="accuracy", cv=cv, n_jobs=-1)

其中所涉及的 X 数据是基因存在/不存在的二进制矩阵;y 数据是二元表型分类器(抗性 = 1,易感 = 0)。不幸的是,我无法访问数据集。

但是,在返回我的结果(n_scores)后,所有值都是“nan”。当我再次执行相同的任务但将惩罚设置为 l2 时,我得到了准确度分数。

怎么了?为什么它不起作用?

标签: pythonmachine-learningscikit-learnclassificationsvm

解决方案



推荐阅读