У меня есть приведенный ниже код для создания матрицы путаницы, где он генерирует тепловую карту и accuracy_score.
ИСТОЧНИК
КОД
import pandas as pd
import seaborn as sn
import matplotlib.pyplot as plt
from sklearn.metrics import accuracy_score
from sklearn import metrics
data = pd.read_excel(r"\Confusion Matrix.xlsx")
df = pd.DataFrame(data)
confusion_matrix = pd.crosstab(df['Actual'], df['Pred'], rownames=['Actual'], colnames=['Predicted'], margins = True)
sn.heatmap(confusion_matrix, annot=True)
plt.show()
accuray_score_in_percentage = accuracy_score(['Actual'], ['Pred'])
accuray_score_in_count = accuracy_score(['Actual'], ['Pred'], normalize=False)
print('The Precentage Accuracy is : ', accuray_score_in_percentage)
print('The Count of corrects are : ', accuray_score_in_count)
ВЫВОД
Из приведенного выше вывода видно, что Точность предварительного расчета: 0,0 и Количество исправлений: 0, но должно быть Точность предварительного расчета: 0,3< /strong> и Количество исправлений: 3. Может ли кто-нибудь помочь мне изменить код, чтобы он показывал правильные оценки точности.
С уважением,
Бхарат Викас