赞
踩
Spark连接上Hive的MetaStore
实现上述步骤包含两点:1.MetaStore需要存在并开机。2.Spark知道MetaStore的IP和端口号。
打开虚拟机登录节点,执行以下命令来拷贝hive-site.xml到所有的spark安装服务器上面去
- #注意切换至自己的hive目录
- cd /export/server/hive/conf
- cp hive-site.xml /export/server/spark/conf/
- scp hive-site.xml root@node2:/export/server/spark/conf/
- scp hive-site.xml root@node3:/export/server/spark/conf/
执行以下命令将连接驱动包拷贝到spark的jars目录下,若是完全分布式安装,则三台机器都要进行拷贝
- cd /export/server/hive/lib
- cp mysql-connector-java-5.1.32.jar /export/server/spark/jars/
- scp mysql-connector-java-5.1.32.jar root@node2:/export/server/spark/jars/
- scp mysql-connector-java-5.1.32.jar root@node3:/export/server/spark/jars/
P.s.若安装Hive时启动过该服务则略过。
- <?xml version="1.0"?>
- <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
- <configuration>
- <property>
- <name>hive.metastore.uris</name>
- #注意修改主机名
- <value>thrift://master:9083</value>
- </property>
- </configuration>
nohup /export/server/hive/bin/hive --service metastore 2>&1 >> /var/log.log &
4.1 Spark-SQL
- #注意切换目录
- cd /export/server/spark
- bin/spark-sql --master local[2] --executor-memory 512m --total-executor-cores 1
成功进入后,输入show databases; 查看数据库。
4.2 PySpark-Shell
bin/spark-shell --master local[3]或bin/pyspark --master local[2]
成功进入后,输入 spark.sql("show databases").show() 查看数据库。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。