赞
踩
本文章还有需完善地方,请多多评论
注意:在部署Datasphere平台之前,首先要按照官网要求部署对应版本的基础环境,如果手中基础环境版本不符合,是能修改,不建议新手操作。
官网要求配置
Hadoop (2.7.2);
Hive (2.3.3);
Spark (2.4.3)
MySQL (5.5+);
JDK (1.8.0_141以上);
Python(2.x和3.x都支持);本人使用anaconda3
Nginx
以上需部署的配置可参考下面网址内容
hadoop全分布式集群
本平台部署的全部操作全部是在普通用户下执行,需root用户下执行命令会有提示,常见的可能不会提示!
vi /etc/hosts
ip master datasphere
yum install -y openldap openldap-clients openldap-servers migrationtools vi /etc/openldap/slapd.d/cn=config/olcDatabase={2}hdb.ldif olcSuffix: dc=shds,dc=com olcRootDN: cn=admin,dc=shds,dc=com olcRootPW: root vi /etc/openldap/slapd.d/cn=config/olcDatabase={1}monitor.ldif dn.base="cn=admin,dc=shds,dc=com" read by cp /usr/share/openldap-servers/DB_CONFIG.example /var/lib/ldap/DB_CONFIG chown -R ldap.ldap /var/lib/ldap slaptest -u systemctl start slapd systemctl enable slapd netstat -lt | grep ldap netstat -tunlp | egrep "389|636" cd /etc/openldap/schema/ 切换到schema目录下执行以下命令 ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f cosine.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f nis.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f collective.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f corba.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f core.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f duaconf.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f dyngroup.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f inetorgperson.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f java.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f misc.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f openldap.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f pmi.ldif ldapadd -Y EXTERNAL -H ldapi:/// -D "cn=config" -f ppolicy.ldif vi /usr/share/migrationtools/migrate_common.ph :set number 修改61行 $NAMINGCONTEXT{'group'} = "ou=Groups"; 修改71行 $DEFAULT_MAIL_DOMAIN = "shds.com"; 修改74行 $DEFAULT_BASE = "dc=shds,dc=com"; 修改90行 $EXTENDED_SCHEMA = 1; cd /usr/share/migrationtools /usr/share/migrationtools/migrate_base.pl > /home/hadoop/hadoop/base.ldif ldapadd -x -W -D "cn=admin,dc=shds,dc=com" -f /home/hadoop/hadoop/base.ldif useradd -d /home/hadoop/dss dss echo 'dss' | passwd --stdin dss getent passwd | tail -n 5 > /home/hadoop/hadoop/ldif/users getent shadow | tail -n 5 > /home/hadoop/hadoop/ldif/shadow getent group | tail -n 5 > /home/hadoop/hadoop/ldif/groups cd /usr/share/migrationtools vi migrate_passwd.pl 修改188行,把/etc/shadow换成/home/hadoop/hadoop/shadow) /usr/share/migrationtools/migrate_passwd.pl /home/hadoop/hadoop/ldif/users > users.ldif /usr/share/migrationtools/migrate_group.pl /home/hadoop/hadoop/ldif/groups > groups.ldif ldapadd -x -W -D "cn=admin,dc=shds,dc=com" -f /home/hadoop/hadoop/ldif/users/users.ldif ldapadd -x -W -D "cn=admin,dc=shds,dc=com" -f /home/hadoop/hadoop/ldif/groups/groups.ldif 开启ldap日志 find / -name slapd.conf vi /usr/lib/tmpfiles.d/slapd.conf loglevel 4095 vi /etc/rsyslog.conf local4.* /var/log/ldap.log systemctl restart rsyslog systemctl restart slapd cat /var/log/ldap.log
ldapsearch -x -b "dc=shds,dc=com" -H ldap://master:389
vi ldap_adduser.ldif
dn: cn=test,ou=Groups,dc=shds,dc=com
objectClass: inetOrgPerson
cn: test
sn: test
uid: test
gidNumber: 1003
ldapadd -H ldap://datasphere:389 -D "cn=admin,dc=shds,dc=com" -w root -f ldap_adduser.ldif
vi modifypasswd.ldif
dn: cn=dss,ou=Groups,dc=shds,dc=com
changetype: modify
replace: userPassword
userPassword: dss
ldapmodify -a -H ldap://datasphere:389 -D "cn=admin,dc=shds,dc=com" -w root -f modifypasswd.ldif
ldapdelete -x -h shanhedatasphere -D "cn=admin,dc=shds,dc=com" -w root "cn=dss,ou=Groups,dc=shds,dc=com"
wget https://repo.anaconda.com/archive/Anaconda3-2020.11-Linux-x86_64.sh mkdir -p /appcom/Install/ yum install -y bzip2 sh Anaconda3-2020.02-Linux-x86_64.sh 都是yes 注意:路径为DSS平台寻找本地python环境路径,若使用其他路径则需要重新编译配置文件 路径 /appcom/Install/anaconda3 配置环境变量 vi /etc/profile export ANACONDA_HOME=/appcom/Install/anaconda3 export PATH=$ANACONDA_HOME/bin:$PATH source /etc/profile
yum -y install nginx
创建目录
mkdir -p /opt/dss_linkis
cp dss_linkis_one-click_install_20220620_new.zip /opt/dss_linkis
解压
unzip dss_linkis_one-click_install_20220620_new.zip
conf/config.sh deployUser=hadoop DSS_NGINX_IP=datasphere DSS_WEB_PORT=8099 WORKSPACE_USER_ROOT_PATH=file:///opt/dss_linkis/tmp/workspace_linkis/ HDFS_USER_ROOT_PATH=hdfs:///tmp/hdfs_links RESULT_SET_ROOT_PATH=hdfs:///tmp/hdfs_linkis ENGINECONN_ROOT_PATH=/opt/datasphere/dss_linkis/appcom/tmp ENTRANCE_CONFIG_LOG_PATH=hdfs:///tmp/linkis/ HADOOP_CONF_DIR=/opt/hadoop/hadoop-2.7.2/etc/hadoop HIVE_CONF_DIR=/opt/hive/apache-hive-2.3.3-bin/conf SPARK_CONF_DIR=/opt/spark/spark-2.4.3-bin-hadoop2.7/conf YARN_RESTFUL_URL=http://master:8088 SPARK_VERSION=2.4.3 HIVE_VERSION=2.3.3 PYTHON_VERSION=python3 配置ldap则部署上 LDAP_URL=ldap://master:389/ LDAP_BASEDN=dc=shds,dc=com LDAP_USER_NAME_FORMAT=cn=%s,OU=Groups,DC=shds,DC=com 把以下所有ip和端口都去掉# LINKIS_EUREKA_INSTALL_IP=datasphere LINKIS_EUREKA_PORT=20303 WDS_SCHEDULER_PATH=file:shds/datasphere/dss_linkis/scheduler export SERVER_HEAP_SIZE="1024M" EMAIL_HOST=smtp.163.com EMAIL_PORT=25 EMAIL_USERNAME=xiayuhan0108@163.com EMAIL_PASSWORD=wasd942984. EMAIL_PROTOCOL=smtp ORCHESTRATOR_FILE_PATH=/shds/datasphere/dss_linkis/tmp/dss EXECUTION_LOG_PATH=/shds/datasphere/dss_linkis/tmp/dss
conf/db.sh ### for DSS-Server and Eventchecker APPCONN MYSQL_HOST=master MYSQL_PORT=3306 MYSQL_DB=dss MYSQL_USER=hadoop MYSQL_PASSWORD=hadoop #主要是配合scriptis一起使用,如果不配置,会默认尝试通过$HIVE_CONF_DIR 中的配置文件获取 HIVE_META_URL=master# HiveMeta元数据库的URL HIVE_META_USER=hadoop # HiveMeta元数据库的用户 HIVE_META_PASSWORD=hadoop # HiveMeta元数据库的密码 HIVE_HOST=master HIVE_PORT=3306 HIVE_DB=hive HIVE_USER=hadoop HIVE_PASSWORD=hadoop
bin/install.sh
sh install.sh
/etc/nginx/conf.d/dss.conf
# dss访问端口 与 config.sh文件保持一致
listen 6085;
linkis/conf/linkis-env.sh
export ENABLE_METADATA_MANAGER=true
linkis/conf/linkis-mg-gateway.properties
wds.linkis.admin.user=hadoop
wds.linkis.admin.password=hadoop
bin/
启动
sh start-all.sh
停止
sh stop-all.sh
访问:http://datasphere:20303
访问:http://datasphere:8099
dss/bin/
sh install-default-appconn.sh
安装部署其他组件(待更新)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。