当前位置:   article > 正文

Spark on Yarn配置和Anaconda的安装

spark on yarn配置

一、Spark on Yarn配置

1、在搭建好的Spark上修改spark-env.sh文件:

首先打开spark文件,进入/opt/spark-2.3.3-bin-hadoop2.7/conf下修改spark-env.sh文件

在spark-env.sh添加以下配置:

  1. export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
  2. export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop

2.修改yarn-site.xml文件

在/home/ubuntu/Desktop/hadoop/etc/yarn-site.xml位置

  1. <!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
  2. <property>
  3. <name>yarn.nodemanager.pmem-check-enabled</name>
  4. <value>false</value>
  5. </property>
  6. <!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
  7. <property>
  8. <name>yarn.nodemanager.vmem-check-enabled</name>
  9. <value>false</value>
  10. </property>

二、Anaconda安装

这里建议去官网下载,去浏览器搜索anaconda就可以了,下载了Downloads

 安装一下就可以了

bash Anaconda3-2021.11-Linux-x86_64.sh -b

 

 想安装一个vim也可以,不想的跳过

sudo apt install vim

配置一下~/.bashrc环境

  1. export PATH="~/anaconda3/bin:$PATH"
  2. export ANACONDA_PATH=/home/ubuntu/anaconda3
  3. export PATH=$PATH:$ANACONDA_PATH/bin
  4. export PYSPARK_DRIVER_PYTHON=$ANACONDA_PATH/bin/ipython
  5. export PYSPARK_PYTHON=$ANACONDA_PATH/bin/python

出现版本就说明对了。

anaconda --version

 

 

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号