当前位置:   article > 正文

基于用户画像的PythonDjango框架的电影推荐系统设计与实现_基于用户画像的广告推荐系统

基于用户画像的广告推荐系统

目录
BiSheServer 1
1、项目介绍 1
2、系统架构图 1
3、系统模块图 1
4、目录结构及主要文件说明 1
5、配置文件说明 3
[DEFAULT] 3
[DATEBASE] 3
[REDIS] 3
[EMAIL] 3
[HADOOP_LOG] 3
6、安装配置说明 4
7、电影推荐系统实现 4
8、软件使用说明书 36
Windows 10 64 位: 36
Linux: 36
9、注意 39
10、常见错误: 39

“基于用户画像的电影推荐系统”软件使用说明书

一、软件编制人员
本软件由作者编写完成,包括系统的分析、设计、实现以及测试等,项目前后耗时一个多月。
二、运行环境
1.硬件环境:
(1)操作系统:Windows 10 64 位 、CentOS
(2)处理器:Intel® Core™ i5-7200U CPU @ 2.50GHz 2.71 GHz
(3)内存:8 GB
(4)主硬盘: SAMSUNG_MZVLV256 ( 256 GB / 固态硬盘 )
2.软件环境
(1)Windows 10 64位:
⚫Python 3.7
⚫MySql 5.6
⚫ Redis 5.0.7
⚫以及对应所需的Python库
(2)Linux:
⚫ Java 1.8
⚫ Spark 3.1.1
⚫Hadoop 2.7
三、软件安装方法
1.使用前提
运行本系统的前提是需要将本系统运行的软件环境安装配置好。
(1)Windows软件安装:
⚫Python 3.7
安装包下载地址:https://www.python.org/downloads/windows/。
找到3.7版本的 Download Windows x86-64 executable installer 下载。下载完后直接运行,可全部默认配置安装。
⚫MySql 5.6
安 装 包 下 载 地 址 : https://downloads.mysql.com/archives/get/p/25/file/mysql- installer-community-5.6.45.0.msi。
下载完后直接运行安装。
安装完成后设置mysql的用户名和密码。
⚫ Redis 5.0.7
安装包下载地址:https://github.com/tporadowski/redis/releases。找到对应版本的.zip或.msi文件下载然后安装。
打开一个 cmd 窗口,使用 cd 命令切换到Redis目录运行:

redis-server.exe redis.windows.conf 启动Redis。
另起一个cmd窗口,切换到 redis 目录下运行:
redis-cli.exe -h 127.0.0.1 -p 6379 测试Redis是否连接成功。
⚫ 安装运行本系统所需的python库
打开一个 cmd 窗口,切换到本系统程序的根目录下,运行:
pip install --index https://pypi.tuna.tsinghua.edu.cn/simple/ -r requirements.txt
即可安装本程序所有需要的库。
(2)Linux软件安装:
⚫安装JDK
安装包下载地址: https://www.oracle.com/java/technologies/javase/javase-jdk8- downloads.html
找到名为:jdk-8u291-linux-x64.tar.gz 点击下载将文件传到Linux上,解压文件:
命令:tar -zxvf jdk-8u211-linux-x64.tar.gz(jdk-8…这个是刚下载的jdk名称) 配置环境变量:
命令: vim /etc/profile
在末尾添加如下几行代码:(JAVA_HOME是刚才上传解压到Linux的目录) export JAVA_HOME=/usr/java/jdk1.8.0_201-amd64
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin
刷新环境变量命令:source /etc/profile
查看是否安装成功: 查询jdk版本命令: java -version
⚫ 安装Hadoop 2.7
首先关闭系统防火墙:
systemctl stop firewalld
systemctl disable firewalld
再配置本机DNS解析:( i p 为本机 i p 地址,可使用 i f c o n f i g 查看) e c h o " ip为本机ip地址,可使用ifconfig查看) echo " ip为本机ip地址,可使用ifconfig查看)echo"ip master" >> /etc/hosts
再配置主机名:
echo “HOSTNAME=master” >> /etc/sysconfig/network
创建hadoop存放目录:

 mkdir /root/Hadoop 
去hadoop官网上下载hadoop2的版本都可,然后上传到Linux里,并解压到刚刚差UN宫颈癌
in的hadoop目录,将其重命名为hadoop。 
 mv /root/hadoop/hadoop-3.2.0 /root/hadoop/Hadoop 
配置免密登陆: 

 (ssh-keygen -t rsa;cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys;chmod 644 authorized_keys;sudo service sshd restart) 
配置hadoop环境变量: 
echo "" >> /etc/profile 
echo "export HADOOP_HOME=/root/hadoop/hadoop" >> /etc/profile echo "export HADOOP_MAPRED_HOME=\$HADOOP_HOME" >> /etc/profile echo "export HADOOP_COMMON_HOME=\$HADOOP_HOME" >> /etc/profile echo "export HADOOP_HDFS_HOME=\$HADOOP_HOME" >> /etc/profile echo "export YARN_HOME=\$HADOOP_HOME" >> /etc/profile 
echo "export HADOOP_COMMON_LIB_NATIVE_DIR=\$HADOOP_HOME/lib/native" >> 
/etc/profile 
echo	"export	PATH=\$PATH:\$HADOOP_HOME/sbin:\$HADOOP_HOME/bin"	>> 
/etc/profile 
echo "export HADOOP_INSTALL=\$HADOOP_HOME" >> /etc/profile 
echo	"export	HADOOP_OPTS=\"- Djava.library.path=\$HADOOP_HOME/lib:\$HADOOP_COMMON_LIB_NATIVE_DIR\""	>> 
/etc/profile 
echo "" >> /etc/profile source /etc/profile 
 	 	 	修改hadoop配置: 
   	 	 	sed	-i	"s/\${JAVA_HOME}/\/root\/hadoop\/jdk/g" 
/root/hadoop/hadoop/etc/hadoop/hadoop-env.sh 
 
sed -i "s/<\/configuration>/ /g" /root/hadoop/hadoop/etc/hadoop/core- site.xml 
 
echo	-e 
"<property><name>hadoop.tmp.dir</name><value>/root/hadoop/hadoop/tmp</value></ property>\n<property><name>fs.defaultFS</name><value>hdfs://master:9000</value
></property> 
<property><name>hadoop.proxyuser.root.hosts</name><value>*</value></proper ty><property><name>hadoop.proxyuser.root.groups</name><value>*</value></proper ty>\n</configuration>" >> /root/hadoop/hadoop/etc/hadoop/core-site.xml 
 
sed -i "s/<\/configuration>/ /g" /root/hadoop/hadoop/etc/hadoop/hdfs- site.xml 

 
echo -e "<property><name>dfs.replication</name><value>1</value></property> 
<property><name>dfs.webhdfs.enabled</name><value>true</value></property> 
<property><name>dfs.permissions</name><value>false</value></property>\n</c onfiguration>" >> /root/hadoop/hadoop/etc/hadoop/hdfs-site.xml 
 
cp	/root/hadoop/hadoop/etc/hadoop/mapred-site.xml.template 
/root/hadoop/hadoop/etc/hadoop/mapred-site.xml 
sed -i "s/<\/configuration>/ /g" /root/hadoop/hadoop/etc/hadoop/mapred- site.xml 
 
echo	-e 
"<property><name>mapreduce.framework.name</name><value>yarn</value></property>
\n</configuration>" >> /root/hadoop/hadoop/etc/hadoop/mapred-site.xml 
 
 
sed -i "s/<\/configuration>/ /g" /root/hadoop/hadoop/etc/hadoop/yarn- site.xml 
 
echo	-e 
"<property><name>yarn.resourcemanager.hostname</name><value>Master</value></pr operty>\n<property><name>yarn.nodemanager.aux- services</name><value>mapreduce_shuffle</value></property>\n</configuration>" 
>> /root/hadoop/hadoop/etc/hadoop/yarn-site.xml 
 
echo "master" > /root/hadoop/hadoop/etc/hadoop/slaves 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52

初始化hadoop:
sh /root/hadoop/hadoop/bin/hdfs namenode -format
当初始化结束后若出现successfully则表示hadoop初始化成功,可使用strat-all.sh启动
hadoop集群。
集群启动完成后可使用jps命令查看hadoop组件启动状态。
⚫ 安装Spark 3.1.1
安装Spark之前需要先安装Scala,百度搜索Spark和Scala,分别进入其官网下载安装包, 同时上传到Linux上。
更改配置:vim /etc/profile
将Spark和Scala的目录配置到系统环境变量中:

export SCALA_HOME=/root/hadoop/scala export PATH= P A T H : PATH: PATH:SCALA_HOME/bin
export SPARK_HOME=/root/hadoop/spark-2.4.1-bin-hadoop2.7 export PATH= P A T H : PATH: PATH:SPARK_HOME/sbin
使配置生效:source /etc/profile
验证scala安装:scala -version 或者直接 scala 更改spark配置文件:
vim spark-env.sh (从template中复制更改)
添加如下环境变量:
export JAVA_HOME=/root/hadoop/jdk export SCALA_HOME=/root/hadoop/scala export SPARK_MASTER_IP=master export MASTER=spark://master:8080 #export SPARK_MASTER_PORT=7077 #export SPARK_WORKER_CORES=1 #export SPARK_WORKER_INSTANCES=1 export SPARK_WORKER_MEMORY=900M
export HADOOP_INSTALL=/root/hadoop/hadoop
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop export LD_LIBRARY_PATH=/root/hadoop/hadoop/lib/native
添加节点:vim slaves (从template中复制更改) Master
由于hadoop和spark的启动和关闭命令相同,所以启动spark时必须到spark/sbin目录中用
start-all.sh 来启动spark 。( 或者去sbin 目录中将start-all.sh 和stop-all.sh 改成
start.sh和stop.sh)
测试spark,使用命令:spark-shell 或者访问 master:8080、master:4040(需进入
spark-shell命令式时才能访问)
jps会出现进程:SparkSubmit(需进入spark-shell命令式)、Worker、Master
⚫ 更改配置
上述Linux服务搭建并启动好后,还需在Windows系统中解压spark以及hadoop并配置环境变量,如:
HADOOP_HOME = D:\app\eclipse-jee-photon-R-win32-x86_64\hadoop-3.2.0\hadoop- 3.2.0
HADOOP_USER_NAME = root
SPARK_HOME = D:\tmp\spark-3.1.1-bin-hadoop2.7
以及在Path中添加:%HADOOP_HOME%\bin; %SPARK_HOME%\bin

(3)修改配置文件:
当上述一切配置完成后,可将本系统根目录中config/conf.ini文件打开,然后修改其中的配置。首先是系统的默认配置服务、MySql数据库配置、Redis数据库配置、邮件验证系统配置和Hadoop等配置。
将项目目录下spark/jars文件夹中的mysql-connector-java-8.0.24.jar文件复制到spark 的jars目录下。
修改spark目录下的spark.py文件中的spark配置和mysql配置,将其上传到Linux下,加入
Linux定时任务每日执行。
在项目目录运行命令,创建表结构,同时创建Django管理系统的管理员帐号: python manage.py makemigrations
python manage.py migrate
python manage.py createsuperuser
下载基础数据:
链接:https://pan.baidu.com/s/1c83HPCp5MJeyOs3CHk3OrQ 提取码:38ms
导入基础数据,登陆进入mysql控制台,并通过source 命令调用sql文件,如:(此处的sql 文件为上面下载的三个基础数据文件)
mysql –uroot –p123456 -Dtest mysql> source sys.sql
上述所有工作都准备完成后使用命令启动该系统服务: python manage.py runserver 0.0.0.0:8001
(8001为端口号,可根据需求更换,0.0.0.0表示所有主机都可访问,若设置为127.0.0.1,则表示
只可本地访问)
四、软件功能说明
用户首次访问该网站时为访客身份,只能查询电影信息,以及搜索电影。此时用户可以选择点击注册账号,本文转载自http://www.biyezuopin.vip/onews.asp?id=14904然后填写相关信息,完成注册后登陆,即可以普通用户身份使用本系统。
普通用户可对电影进行搜索、查看、收藏、评分和评论等功能,且系统会记录用户的每一次操作, 系统会根据用户的操作对用户进行打标签,修改标签权重,形成用户画像,然后根据用户标签进行精准的电影推送。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/954472
推荐阅读
相关标签
  

闽ICP备14008679号