import numpy as np
# 数据采集(定义函数加载数据集)
def load_dataset():
sent_list = [['my', 'name', 'is', 'Devin'],
['you', 'are', 'stupid'],
['my', 'boyfriend', 'is', 'SB'],
['you', 'looks', 'very', 'smart', 'I', 'like', 'you', 'very', 'much']]
class_vec = [-1, 1, 1, -1] # -1代表不粗鲁,1代表粗鲁
return sent_list, class_vec
# 数据预处理(创建一个包含数据集中所有单词的词汇表,词汇表中包含所有唯一的单词)
def create_vocab_list(dataset):
vocab_set = set([])
for doc in dataset:
vocab_set = vocab_set | set(doc)
return list(vocab_set)
# 将每一段文字进行离散化,即进行空间向量化
def set_of_words2vec(vocab_list, input_set):
return_vec = [0] * len(vocab_list)
for word in input_set:
if word in vocab_list:
return_vec[vocab_list.index(word)] = 1 # 如果该单词在词汇表中出现,则将 return_vec 中对应位置的值设为 1。
return return_vec
# 建模与分析
def trainNB(train_matrix, train_catagory):
num_train_docs = len(train_matrix)
num_words = len(train_matrix[0])
pos_num = 0
for i in train_catagory:
if i == 1:
pos_num += 1
pAbusive = pos_num / float(num_train_docs)
p0_num = np.ones(num_words) # 使用 NumPy 库创建了一个长度为 num_words 的一维数组 p0_num,并将数组中的所有元素初始化为 1。
p1_num = np.ones(num_words)
p0_demon = 2.0 # 当某个特征在某个类别下从未出现时,使用 Laplace 平滑会将该特征的出现次数初始化为一个小的正数(通常是 1),并将分母加上特征总数乘以一个小的正数(通常是特征的种类数),从而使得概率值不会变成零。
p1_demon = 2.0
for i in range(num_train_docs):
if train_catagory[i] == 1:
p1_num += train_matrix[i] # p1_num=[1,0,1,0,1,1,1,1,1,0,0]
p1_demon += sum(train_matrix[i]) # 样本中在类标签为1的单词出现的总次数p1_demon=7
else:
p0_num += train_matrix[i] # p0_num=[1,0,1,0,1,1,1,1,1,0,0]
p0_demon += sum(train_matrix[i]) # 样本中在类标签为0的单词出现总次数p0_demon=4
p1_vect = np.log(p1_num / p1_demon) # 举证p1_num和p0_num分别除以p1_demon和p0_demon即可以得到各自的条件概率
p0_vect = np.log(p0_num / p0_demon) # 使用了 NumPy 的 np.log() 函数来计算条件概率,避免数值溢出
return p0_vect, p1_vect, pAbusive # p1_vect表示正样本条件下的各单词的出现的概率,即条件概率 p(xi|y=yes)
# 同理,p0_vect表示负样本条件下的各单词的出现的概率,即条件概率 p(xi|y=no)
# 计算概率比较大小
# vec2classify: 待分类的特征向量 p0_vec: 类别 0 下各个特征的条件概率向量 p1_vec: 类别 1 下各个特征的条件概率向量 pClass1: 类别 1 的先验概率
def classifyNB(vec2classify, p0_vec, p1_vec, pClass1):
p1 = sum(vec2classify * p1_vec) + np.log(pClass1) # 在类别 1 下的概率
p0 = sum(vec2classify * p0_vec) + np.log(1.0 - pClass1) # 在类别 0 下的概率
if p1 > p0:
return 1
elif p0 > p1:
return -1
else:
return 0
# 加载数据集
list_sents, list_classes = load_dataset()
# 创建词汇表
my_vocab_list = create_vocab_list(list_sents)
# 将每一段文字进行离散化,即进行空间向量化
train_mat = []
for sent_in_doc in list_sents:
train_mat.append(set_of_words2vec(my_vocab_list, sent_in_doc))
# 训练朴素贝叶斯
p0V, p1V, pAb = trainNB(train_mat, list_classes)
# 测试语句
test_entry = ['I', 'like', 'you']
print("利用朴素贝叶斯测试语句“I like you”是粗鲁还是不粗鲁:")
print("1代表粗鲁,-1代表不粗鲁")
print("结果为:")
print(classifyNB(np.array(set_of_words2vec(my_vocab_list, test_entry)), p0V, p1V,
pAb)) # 使用 numpy 数组可以高效地进行元素级别的操作,例如计算两个向量的点积、元素相乘等。
原文地址:https://blog.csdn.net/m0_64799907/article/details/134657485
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_4197.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。