当前位置:   article > 正文

Spark大数据分与实践笔记(第四章 Spark SQL结构化数据文件处理-03)_spark sql不仅能够查询mysql数据库中的数据,还可以向表中插入新的数据。

spark sql不仅能够查询mysql数据库中的数据,还可以向表中插入新的数据。

第四章 Spark SQL结构化数据文件处理

4.5 Spark SQL操作数据源

4.5.1 Spark SQL操作MySQL

Spark SQL可以通过JDBC从关系型数据库中读取数据的方式创建DataFrame,通过对DataFrame进行一系列的操作后,还可以将数据重新写入到关系型数据中。关于Spark SQL对MySQL数据库的相关操作具体如下。

4.5.1.1 读取MysQL数据库

通过SQLyog工具远程连接hadoop01节点的MySQL服务,并利用可视化操作界面创建名称为“spark"的数据库,并创建名称为“person”的数据表,以及向表中添加数据。
同样也可以在hadoop01节点上使用MySQL客户端创建数据库、数据表以及插入数据,具体命令如下。

1.启动mysql客户端

mysql -u root -p #屏幕提示输入密码
  • 1

#创建spark数据库

mysql > CREATE database spark ;
  • 1

#创建person数据表

mysql > CREATE TABLE person (id INT(4) , NAME CHAR(20) , age INT(4));
  • 1

#插入数据

mysql > INSERT INTO person VALUE( 1 , ' zhangsan' , 18);
mysql > INSERT INTO person VALUE(2, ' lisi ' ,20);
mysql > SELECT * FROM person;
  • 1
  • 2
  • 3

数据库和数据表创建成功后,如果想通过Spark SQL API方式访问MySQL数据库,需要在pom.xml配置文件中添加MySQL驱动连接包,依赖参数如下。

<dependency>
<groupId>mysql</groupId>
<artifactId
  • 1
  • 2
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/572492
推荐阅读
相关标签
  

闽ICP备14008679号