اصلاح طرح خلاصه چند کلاسه SHAP – کاهش به نسخه 0.44.1 از 0.45.0

در اینجا یک نکته مفید برای هر کسی که از #SHAP (توضیحات افزودنی SHapley) استفاده می کند، وجود دارد:
اگر می خواهید استفاده کنید shap.summary_plot(shap_values, X_train_tfidf_dense, plot_type="bar")
برای یک خلاصه چند کلاسه، و بدون در نظر گرفتن نوع طرحی که عبور میکنید، یک نمودار تعامل نقطهدار را نشان میدهد. به احتمال زیاد یک اشکال است v0.45.0
.
تنزل به نسخه 0.44.1 آن را برای من برطرف کرد. امیدوارم این باعث صرفه جویی در وقت کسی شود! 👍 #توضیح هوش مصنوعی
برای کسانی که نمیدانند SHAP چیست، این چارچوبی است که میتواند توضیح دهد که چرا مدل #MachineLearning شما این پیشبینی خاص را انجام داده و چه ویژگیهایی در آن خروجی نقش داشته است.
SHAP (اشارههای افزودنی SHapley) یک رویکرد نظری بازی برای توضیح خروجی هر مدل یادگیری ماشینی است. این تخصیص اعتبار بهینه را با توضیحات محلی با استفاده از مقادیر کلاسیک Shapley از تئوری بازی ها و پسوندهای مرتبط با آنها مرتبط می کند.
در زیر یک کد ساده برای نشان دادن مشکل وجود دارد:
# Create a synthetic dataset
X, y = make_classification(n_samples=100, n_features=5, n_informative=3, n_redundant=1, n_clusters_per_class=1, n_classes=3, random_state=42)
features = [f"Feature {i}" for i in range(X.shape[1])]
X = pd.DataFrame(X, columns=features)
# Train a RandomForest model
model = RandomForestClassifier(n_estimators=50, random_state=42)
model.fit(X, y)
# Create the SHAP Explainer
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X)
# Plot SHAP values for each class
shap.summary_plot(shap_values, X, plot_type="bar", class_names=['Class 0', 'Class 1', 'Class 2'])
این هم اسکرین شات های هر دو نسخه: