赞
踩
为了装spark,先装Hadoop;
为了装Hadoop,先搭建Linux环境和设置环境变量,于是有了本文的报错“E212: Can’t open file for writing” 。
照着帖子中指示安装JDK ing(如下图)
随附链接:http://dblab.xmu.edu.cn/blog/install-hadoop/ Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
其中,上图红框那两步,用vim 编辑bashrc文件,以配置环境变量(如下图)
以为按照上图(已输入wq–保存退出指令)按个enter回车就搞定,结果,报错“E212: Can’t open file for writing”(如下图)。
通过万能的搜索得知,这个报错是由于权限问题导致的,解决方法有以下思路:(来源 https://www.cnblogs.com/EasonJim/p/6851020.html )
1、使用root进行登录,然后再操作。
2、在使用命令时,前面加sudo。
3、如果是多级文件夹的文件时,由于这个文件夹没有创建,所以要先创建这个文件夹,再来操作这个文件。
然而问题来了,
第一,我不懂怎么使用root进行登录……或许可以百度一下。。。
第二,前面加sudo,是指哪个命令,①保存退出的那个“:wq”?还是②打开bashrc的那个 “vim /.bashrc”?
第三,不会创建文件夹。。。
好了,看起来第二个方法比较简单可试,那先试第二个方法的①在“:wq”前面加sudo,结果发现不可行(如下图)。那接下来就试试第二个方法的②。
第二个方法的②在打开bashrc的那个 “vim /.bashrc”前面加sudo。修改bashrc成功!(如下图,是修改后,保存退出的界面)
sudo vim /.bashrc
可喜可贺。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。