You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

79 lines
4.4 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

## weibo-analysis-system
`毕业设计`:微博用户情感分析系统
> (2020/02/02)更新近日有不少童鞋来问我这个项目跑不起的问题当时水平有点不够写的确实有点乱这里简单说明一下项目下下来直接跑起的方法。前提先搞好python环境和vue环境,保证你有一个账户密码连上数据库mysql。
1、pip install requirements.txt 安装python包
2、修改mysql数据库的账户密码weibosystem/ssettings里面
3、创建数据库 python manage.py makemigrations python manage.py migrate
4、创建后台xadmin账户python manage.py createsuperuser
5、登录后台http://localhost:8000/xadmin/SpiderAPI/target/ 在爬虫API里面的爬虫设置输入一个用户uid + cookie然后即可开始在首页localhost:8000数据爬虫id爬虫
### 1、系统介绍2019.5.4毕设已完成):
> extra_appsxadmin后台管理系统
> scrapydserverScrapy爬虫
> srcdjango app里面写接口
> webview前端Vue代码
> weibosystemdjango wsgi/url等配置
#### 1、系统技术架构介绍
> 前端使用vue-cli + vue + vuex + axios
> 后端使用python + django + xadmin + request + scrapy + scrapyd + snownlp模型已训练好但并不是特别准确
#### 2、系统功能介绍
> ① 输入微博oid爬取个人微博信息情感分析处理后并展示oid获取方式进入个人微博首页如 https://weibo.com/u/1797112632 ,其中`1797112632`就是oid。有些用户自定义了域名右击查看网页源代码搜索`['oid']`即可找到oid。下图是本系统爬取个人信息界面
![个人微博爬虫前端主界面](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/1.png?raw=true)
![个人微博爬虫前端信息展示](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/3.png?raw=true)
> ② 输入单条微博id爬取个人微博信息获取单条微博id的方式打开微博客户端随便找到一条微博进入微博正文点击右上角三个点然后可以看到分享给微信好友QQ好友等在下面一栏有收藏等往右边拖找到复制链接复制并粘贴出来。如 https://m.weibo.cn/1769965211/4366947749433348 ,其中`4366947749433348`就是单条微博id。情感分析处理后并展示。本系统展示单条微博例子如下
![单条微博爬虫前端信息展示](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/4.png?raw=true)
> ③ 输入微博id或者多个微博id和Cookie启动持续爬虫。前提先运行Scrapyd服务。这个功能使用Scrpay爬虫然后把数据存到Django的Model中。
![多用户爬虫启动](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/7.png?raw=true)
> ④ 独立出来的文本情感分析API输入任意一段中文返回情感分析值词频关键词。
![独立爬虫API](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/8.png?raw=true)
> ⑤ 数据库已爬虫的用户其中持续爬虫模块点击进去就是③中的多用户爬虫默认设置了组别是1如需修改进入xadmin后台修改即可上面的点击个人账号点击单条微博也是进入信息展示界面。点击组别进入的多用户爬虫界面如下图
![已爬虫用户](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/2.png?raw=true)
![多用户爬虫展示](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/5.png?raw=true)
> ⑥ xadmin后台管理系统
![xadmin后台管理系统](https://github.com/Superbsco/weibo-analysis-system/blob/master/pic/6.png?raw=true)
### 2、系统启动注意事项
[参考技术文档](https://github.com/Superbsco/weibo-analysis-system/blob/master/%E6%8A%80%E6%9C%AF%E6%96%87%E6%A1%A3%E8%AF%B4%E6%98%8E.md)
按照技术文档按照完了之后workon进入虚拟环境
#### 1、数据库自动生成使用如下命令
```python
python manage.py makemigrations
python manage.py migrate
```
#### 2、初始化Cookies
爬虫之前一定要先进入xadmin后台使用数据库自动生成后xadmin的登录账号密码就没了参考这里初始化账号https://blog.csdn.net/a_little_snail/article/details/76984933
然后重设Cookie获取新浪微博Cookie可参考 https://blog.csdn.net/A_xiao_mili/article/details/77947802 这里。