当前位置:   article > 正文

毕业设计:python校园舆情分析系统 可视化 情感分析 朴素贝叶斯分类算法 爬虫(源码)✅_教学舆情分析系统

教学舆情分析系统

博主介绍:✌全网粉丝10W+,前互联网大厂软件研发、集结硕博英豪成立工作室。专注于计算机相关专业毕业设计项目实战6年之久,选择我们就是选择放心、选择安心毕业✌感兴趣的可以先收藏起来,点赞、关注不迷路✌

毕业设计:2023-2024年计算机毕业设计1000套(建议收藏)

毕业设计:2023-2024年最新最全计算机专业毕业设计选题汇总

1、项目介绍

技术栈:
Python语言、Django框架、数据库、Echarts可视化、scrapy爬虫技术、HTML
朴素贝叶斯分类算法(情感分类)

2、项目界面

(1)校园舆情分析模块
在这里插入图片描述

(2)爬虫数据展示模块
在这里插入图片描述

(3)各校园舆情预警分析—红色提醒
在这里插入图片描述

(4)情感分析和朴素贝叶斯情感分类
在这里插入图片描述

(5)关键词词云图

在这里插入图片描述

(6)后台数据管理
在这里插入图片描述

(7)注册登录界面
在这里插入图片描述

(8)各高校数据爬虫
在这里插入图片描述

3、项目说明

本文提出了一种基于爬虫的校园舆情分析预警系统,旨在帮助用户及时了解各所大学近期的舆情动态,方便用户快速了解学校形象的好坏,并及时进行舆情干预。为了实现这一目标,我们采用了Python编程语言作为后端语言,Django框架作为后端框架,使用Scrapy框架进行数据爬取,采用朴素贝叶斯情感分类算法对数据进行处理。
在前端技术上,我们采用JavaScript编程语言,Vue前端框架,Element-Plus组件库,axios请求库,windicss样式库以及Echarts可视化进行开发,实现了微博各所大学数据的展示与筛选查询、舆情分析模块以及舆情预警模块等多个功能。其中,微博各所大学数据的展示采用了瀑布流卡片形式,正向情感的文本用绿色背景,中性用灰色背景,负向以红色背景显示,方便用户一眼可以识别出该微博数据的情感倾向。当用户点击卡片时,弹出对话框,显示该微博数据的详细信息,以及信息的关键词,以及饼图分析正负向的情感概率占比。
该系统的舆情分析模块用饼图对数据库中所有的微博信息的情感占比进行分析,用柱状图对数据库中所有高校信息量进行top10排序分析,以及用词云图分析所有数据的关键词。在舆情预警模块中,我们列出了各所大学近期的舆情情况,舆情的好坏将以绿色背景或红色背景显示,点击某所大学的时候,可以以线图形式分析出近期该所大学的正负情感的走向,当某天负向情感数量大于正向情感时,将该大学舆情状况标注为坏,用红色背景显示,否则以绿色显示。
最后,通过对该系统进行详细的设计、实现与测试,我们验证了该系统的有效性与可行性,该系统不仅可以帮助用户及时了解各所大学的舆情动态,还可以提供给相关部门作为决策参考,有着极大的应用价值和发展前景。

4、核心代码


# -*- coding: utf-8 -*-
from __future__ import unicode_literals

import sys
import gzip
import marshal
from math import log, exp

from ..utils.frequency import AddOneProb


class Bayes(object):

    def __init__(self):
        self.d = {}
        self.total = 0

    def save(self, fname, iszip=True):
        d = {}
        d['total'] = self.total
        d['d'] = {}
        for k, v in self.d.items():
            d['d'][k] = v.__dict__
        if sys.version_info[0] == 3:
            fname = fname + '.3'
        if not iszip:
            marshal.dump(d, open(fname, 'wb'))
        else:
            f = gzip.open(fname, 'wb')
            f.write(marshal.dumps(d))
            f.close()

    def load(self, fname, iszip=True):
        if sys.version_info[0] == 3:
            fname = fname + '.3'
        if not iszip:
            d = marshal.load(open(fname, 'rb'))
        else:
            try:
                f = gzip.open(fname, 'rb')
                d = marshal.loads(f.read())
            except IOError:
                f = open(fname, 'rb')
                d = marshal.loads(f.read())
            f.close()
        self.total = d['total']
        self.d = {}
        for k, v in d['d'].items():
            self.d[k] = AddOneProb()
            self.d[k].__dict__ = v

    def train(self, data):
        for d in data:
            c = d[1]
            if c not in self.d:
                self.d[c] = AddOneProb()
            for word in d[0]:
                self.d[c].add(word, 1)
        self.total = sum(map(lambda x: self.d[x].getsum(), self.d.keys()))

    def classify(self, x):
        tmp = {}
        for k in self.d:
            tmp[k] = log(self.d[k].getsum()) - log(self.total)
            for word in x:
                tmp[k] += log(self.d[k].freq(word))
        ret, prob = 0, 0
        for k in self.d:
            now = 0
            try:
                for otherk in self.d:
                    now += exp(tmp[otherk]-tmp[k])
                now = 1/now
            except OverflowError:
                now = 0
            if now > prob:
                ret, prob = k, now
        return (ret, prob)



  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/196622
推荐阅读
相关标签