from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import MultinomialNB
def navieBayes():
# 朴素贝叶斯进行分类
# 获取数据,subset="all"是获取所有数据
news = fetch_20newsgroups(subset="all")
# 进行数据分割
# 传参为特征值:news.data -> 文章,news.target -> 每篇文章所属类别,test_size -> 测试集的大小
# x为特征值,y为目标值,train为训练集,test为目标集
x_train,x_test,y_train,y_test = train_test_split(news.data,news.target,test_size = 0.25)
# 对数据集进行特征抽取
tf = TfidfVectorizer()
# 以训练集当中的 词的列表 进行 每篇文章 的重要性统计
# x_train与x_test的特征数量(词的长度)是一样的
x_train = tf.fit_transform(x_train)
# 在训练集中统计了许多词建立成列表,并将其的重要性以二位数组的形式展现
print(tf.get_feature_names())
x_test = tf.transform(x_test)
# 进行朴素贝叶斯算法的预测
mlt = MultinomialNB(alpha=1.0)
# 打印训练集的格式
print(x_train.toarray())
# x_train:训练集的特征值,y_train:训练集的目标值
mlt.fit(x_train,y_train)
# 得到预测出来的文章类别
y_predict = mlt.predict(x_test)
print("预测的文章类别为:",y_predict)
# 得出准确率
print(mlt.score(x_test,y_test))
if __name__ == '__main__':
navieBayes()
网友评论