当前位置:   article > 正文

查看及切换目录_hdfs切换目录

hdfs切换目录

一、Linux树型目录结构

1.Linux文档存放

最顶层为根目录(/)−“计算机”--> “文件系统”

2.树型目录结构

就像一颗倒挂的树

−路径之间分隔符:/

−分层次深入 

3.认识目录用途

执行man hier命令

−查看关于目录结构的手册页

常见的一级目录

/bin: 存放二进制可执行文件(ls,cat,mkdir等),常用命令一般都在这里;

/etc: 存放系统管理和配置文件;

/home: 存放所有用户文件的根目录,是用户主目录的基点,比如用户user的主目录就                 是/home/user,可以用~user表示;

/usr : 用于存放系统应用程序;

/opt: 额外安装的可选应用程序包所放置的位置。一般情况下,我们可以把tomcat等都安装

               到这里;

/proc: 虚拟文件系统目录,是系统内存的映射。可直接访问这个目录来获取系统信息; /root: 超级用户(系统管理员)的主目录(特权阶级o);

/sbin: 存放二进制可执行文件,只有root才能访问。这里存放的是系统管理员使用的系统级别

        的管理命 令和程序。如ifconfig等;

/dev: 用于存放设备文件;

/mnt: 系统管理员安装临时文件系统的安装点,系统提供这个目录是让用户临时挂载其他的

        文件系统;

/boot: 存放用于系统引导时使用的各种文件;

/lib : 存放着和系统运行相关的库文件 ;

/tmp: 用于存放各种临时文件,是公用的临时文件存储点;

/var: 用于存放运行时需要改变数据的文件,也是某些大文件的溢出区,比方说各种服务的

        日志文件 (系统启动日志等。)等;

/lost+found: 这个目录平时是空的,系统非正常关机而留下“无家可归”的文件(windows下叫什 么.chk)就在这里。

二、查看及切换目录

1.查看工作目录pwd

  1. [root@hadoop ~]# pwd 查看当前路径
  2. /root

查看软链接的实际路径

  1. [root@hadoop ~]# pwd -P
  2. /root

2.切换工作目录

  1. [root@hadoop ~]# cd /etc
  2. [root@hadoop etc]#

3.绝对&相对路径

4.列出目录内容

  1. [root@hadoop ~]# ls -a#显示所有文件,包括隐藏文件
  2. . .bashrc .pki
  3. .. class_four2 sanguo
  4. abc.log .cshrc .ssh
  5. anaconda-ks.cfg hadoop4.txt .tcshrc
  6. .bash_history install.log Test1
  7. .bash_logout install.log.syslog Test2
  8. .bash_profile .oracle_jre_usage .viminfo
  9. [root@hadoop ~]# ls -l#详细信息显示
  10. total 36
  11. -rw-r--r--. 1 root root 0 Nov 17 02:56 abc.log
  12. -rw-------. 1 root root 1124 Nov 16 19:35 anaconda-ks.cfg
  13. drwxr-xr-x. 2 root root 4096 Nov 17 01:33 class_four2
  14. -rw-r--r--. 1 root root 0 Nov 17 20:52 hadoop4.txt
  15. -rw-r--r--. 1 root root 9458 Nov 16 19:35 install.log
  16. -rw-r--r--. 1 root root 3161 Nov 16 19:34 install.log.syslog
  17. drwxrwxrwx. 2 root root 4096 Nov 21 05:03 sanguo
  18. -rw-r--r--. 1 root root 591 Nov 18 07:51 Test1
  19. -rw-r--r--. 1 root root 767 Nov 18 08:02 Test2
  20. [root@hadoop ~]# ls -d#查看目录属性
  21. .
  22. [root@hadoop ~]# ls#文件目录
  23. abc.log hadoop4.txt sanguo
  24. anaconda-ks.cfg install.log Test1
  25. class_four2 install.log.syslog Test2
  26. [root@hadoop ~]# ll #列出当前文件或者目录的详细信息,是ls -l的缩写
  27. total 40
  28. -rw-r--r--. 1 root root 0 Nov 21 06:06 0316.txt
  29. -rw-r--r--. 1 root root 0 Nov 21 06:06 {1..20.txt}
  30. -rw-r--r--. 1 root root 0 Nov 17 02:56 abc.log
  31. -rw-------. 1 root root 1124 Nov 16 19:35 anaconda-ks.cfg

5.评估文档占用空间

  1. [root@hadoop etc]# du -s init
  2. 60 init
  3. [root@hadoop etc]# du -h init
  4. 60K init

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/738900
推荐阅读
相关标签
  

闽ICP备14008679号