当前位置:   article > 正文

Hadoop学习:window环境下idea连接linux上的hdfs集群_idea汉化版连接linux下的hadoop

idea汉化版连接linux下的hadoop

1、安装idea

2、新建Maven项目

其中GroupId一般是公司域名倒写,例:www.baidu.com,一般包名为com.baidu,这是一种规范,ArtifactId一般是指项目的具体作用,比如testHdfs。

3、项目完成后打开项目目录下的pom.xml文件,并添加如下依赖

  1. <dependencies>
  2. <dependency>
  3. <groupId>junit</groupId>
  4. <artifactId>junit</artifactId>
  5. <version>RELEASE</version>
  6. </dependency>
  7. <dependency>
  8. <groupId>org.apache.logging.log4j</groupId>
  9. <artifactId>log4j-core</artifactId>
  10. <version>2.8.2</version>
  11. </dependency>
  12. <dependency>
  13. <groupId>org.apache.hadoop</groupId>
  14. <artifactId>hadoop-common</artifactId>
  15. <version>2.7.2</version>
  16. </dependency>
  17. <dependency>
  18. <groupId>org.apache.hadoop</groupId>
  19. <artifactId>hadoop-client</artifactId>
  20. <version>2.7.2</version>
  21. </dependency>
  22. <dependency>
  23. <groupId>org.apache.hadoop</groupId>
  24. <artifactId>hadoop-hdfs</artifactId>
  25. <version>2.7.2</version>
  26. </dependency>
  27. <dependency>
  28. <groupId>jdk.tools</groupId>
  29. <artifactId>jdk.tools</artifactId>
  30. <version>1.8</version>
  31. <scope>system</scope>
  32. <systemPath>${JAVA_HOME}/lib/tools.jar</systemPath>
  33. </dependency>
  34. </dependencies>

4、将linux环境下core-site.xml和hdfs-site.xml文件拷贝到idea项目目录下resources文件夹下,具体如下图

5、测试是否成功,先将集群启动

1)在xshell中启动集群

bash>start-dfs.sh

bash>start-yarn.sh

2)在java文件夹下新建类,并输入以下代码

  1. import org.apache.hadoop.conf.Configuration;
  2. import org.apache.hadoop.fs.FileSystem;
  3. import org.apache.hadoop.fs.Path;
  4. import java.io.IOException;
  5. public class HadoopTest2 {
  6. public static void main(String[] args) throws IOException {
  7. Configuration conf = new Configuration();
  8. conf.set("fs.defaultFS","hdfs://192.168.59.100:9000");
  9. FileSystem fs = FileSystem.get(conf);
  10. fs.mkdirs(new Path("/1104/clover"));
  11. fs.close();
  12. System.out.println("over");
  13. }
  14. }

以上是调试成功的

调试中出现以下问题:

1)出现如下图异常,则修改hadoop100为其对应的ip地址

2)出现如下异常,则点击右上角Edit Configrations

 

 

第一种方法:

在VMoption中输入:-DHADOOP_USER_NAME=root,root是你登陆linux的用户名称即可

第二种方法:

在代码中进行添加

  1. import org.apache.hadoop.conf.Configuration;
  2. import org.apache.hadoop.fs.FileSystem;
  3. import org.apache.hadoop.fs.Path;
  4. import java.io.IOException;
  5. import java.net.URI;
  6. import java.net.URISyntaxException;
  7. public class HadoopTest2 {
  8. public static void main(String[] args) throws IOException, URISyntaxException, InterruptedException {
  9. Configuration conf = new Configuration();
  10. conf.set("fs.defaultFS","hdfs://192.168.59.100:9000");
  11. //FileSystem fs = FileSystem.get(conf);
  12. FileSystem fs = FileSystem.get(new URI("hdfs://192.168.59.100:9000"),conf,"clover");
  13. fs.mkdirs(new Path("/1107/clover"));
  14. fs.close();
  15. System.out.println("over");
  16. }
  17. }

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/506349
推荐阅读
相关标签
  

闽ICP备14008679号