当前位置:   article > 正文

基于HDFS实现的简易云盘系统(代码开源)_基于hdfs实现云盘项目

基于hdfs实现云盘项目


前言

基于HDFS的云盘系统实现了云盘的基本数据存储和访问功能。此为大二下大数据平台与架构的综合实验内容,本文旨在记录过程和问题,固然存在很多不合理的地方。


一、实验简介

云盘系统通过互联网为企业和个人提供信息的存储、读取、下载等服务。具有安全稳定、海量等特点。目前,云盘系统逐步走向成熟,特别是公有云盘能够向用户提供免费存储,,离线下载,文件智能分类等功能。随着互联网的不断普及,用户存储在云盘上的数据量越来越大,数据类型页越来越多样化,不仅有传统的文本文件,二进制文件,还有视频,音频,图像,图片等。这些数据不仅类型繁多,而且数据量普遍庞大。例如,一个视频文件可能高达几个G甚至几十个G。因此充分利用大数据平台的优势,可以为云盘提供一套适合上述特点的底层环境。(一堆没啥用的特色废话)


二、分析与设计

1. 功能需求分析:

用户管理

  • 实现用户的注册,登录,退出。
  • 注册成功时需要将用户信息写入数据库(呃,能存、能用即可),并在HDFS中建立用户的专属目录。

文件管理

  • 提供文件上传,下载,浏览,删除等功能。
  • 提供目录的管理,可以创建目录,复制或移动文件或目录到指定目录下面;可以删除目录。删除目录时需要给出提示。
  • 提供文件搜索功能。(没做qaq)

2. 系统设计

本系统基于B/S架构,采用HDFS 和 hadoop 分布式系统基础框架对数据和文件信息进行存储,实现处理数据量非常大的数据和数据性能的线性扩展,同时HDFS底层保存三份数据副本,实现文件系统的高可靠。

此外,系统借助IDEA开发工具,使用 Big Data Tools 插件与虚拟机的hadoop 进行交互,提高开发速度和开发效率。


三、效果展示

1. 登录界面(注册页面类似)
在这里插入图片描述

2. 主界面
在这里插入图片描述


四、环境配置

Hadoop 的基础环境配置如:xxxx。此为项目启动时的所需的配置。

1. 在Windows环境下,借助IDEA中的Big Data Tools 插件连接Ubuntu的HDFS
首先,我们需要让虚拟机与Windows的IP地址在终端能够互相ping通。这里存在一个不知道原因的必要步骤。

  • 当Windows通过WIFI连入互联网时,虚拟机(Ubuntu)的网络连接设置应采用如下的方式:
    在这里插入图片描述
  • 当Windows通过网线(以太网)连入互联网时,虚拟机(Ubuntu)的网络连接设置应采用如下的方式:
    在这里插入图片描述
    对了,记得关闭虚拟机与Windows 的防火墙,否则也无法相互ping 通.
    在这里插入图片描述
    Windows ping 虚拟机:(成功)
    在这里插入图片描述
    虚拟机 ping Windows:(成功)
    在这里插入图片描述

2. 修改虚拟机的主机信息(Hadoop的启动地址)
vim /etc/hosts
将此处修改为当前虚拟机的IP地址.(可能每次虚拟机启动,IP地址都会发生变化,此处建议每次启动项目时,进行查看和必要的修改)
在这里插入图片描述

3. 使用 Big Data Tools 连接HDFS
在这里插入图片描述
连接成功后,即可查看HDFS的存储结构了.(完成此步骤后,后面在开发代码阶段就不用担心连接问题啦)
在这里插入图片描述
4. 在Ubuntu 中启动Hadoop
bash cd /usr/local/hadoop ./sbin/start-all.sh
通过jps 查看是否启动成功:
在这里插入图片描述
5. 在浏览器中,打开HDFS的页面
在这里插入图片描述
通过访问 Ubuntu的IP地址 : 9870,跳转到此页面,说明所有都配置好了,接下来就可以开始实现功能了.
在这里插入图片描述


五、功能实现

(再次声明,本实验由本人独自完成,所以只顾着实现大致的功能,要求能跑即可.因此,肯定会存在很多的问题. qaq)
本系统实现的大部分功能,主要借助于hadoop 提供的 FileSystem类.

1. 基础部分

a. 在配置文件中配置远程连接Hadoop 的地址:
在这里插入图片描述
在这里插入图片描述

b. 初始化FileSystem 相关信息:
本系统采用文件记录实现用户管理,即在注册用户时,在文件中追加一条记录,但HDFS 设计之初不支持给文件追加内容,所以需要手动开启文件追加功能。

在这里插入图片描述

2. 用户管理

将用户的信息存放在 userinfo.dat文件中,文件中存储着用户名以及登录密码的信息.在用户登陆时,根据该文件的信息实现简单的校验;在用户注册信息时,将信息追加到该文件末尾.

a. 用户登录:

	// 用户登录检查(OK)
    public boolean loginCheck(String userName,String password) throws IOException {
        FileSystem fs = getFileSystem();
        Path srcPath = new Path("/userinfo.dat");
        FSDataInputStream in = fs.open(srcPath);
        BufferedReader reader = new BufferedReader(new InputStreamReader(in));

        String line = "";
        while((line = reader.readLine()) != null){
            String[] userinfo = line.split(",");
            if(userinfo[0].equals(userName) && userinfo[1].equals(password)){
                // 用户名密码正确
                fs.close();
                return true;
            }
        }
        // 未找到
        fs.close();
        return false;
    }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

b. 用户注册:

// 用户注册
    @RequestMapping("/register")
    public void register(HttpServletRequest request,HttpServletResponse response) throws IOException {
        System.out.println("register is running.....");
        String userName = request.getParameter("username");
        String password = request.getParameter("password");
        String password_confirm = request.getParameter("confirmPassword");

        PrintWriter pw = response.getWriter();

        response.setCharacterEncoding("utf-8");
        response.setContentType("text/json; charset=UTF-8");

        JSONObject json = new JSONObject();

        if(!password.equals(password_confirm)){
            json.put("status","notsame");
            pw.write(JSON.toJSONString(json));
            return;
        }

        // 检验用户名是否存在
        if(fileSystemDao.userExistCheck(userName)){
            json.put("status","userexist");
            pw.write(JSON.toJSONString(json));
            return;
        }

        // 添加用户信息到userinfo.dat 文件中
        fileSystemDao.insertUserInfoToFile(userName,password);

        json.put("status","ok");
        pw.write(JSON.toJSONString(json));
    }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34

c. 删除用户:

    // 删除用户
    @RequestMapping("/deleteUser")
    public String deleteUser(HttpServletRequest request,HttpServletResponse response,HttpSession session,Model model) throws IOException {
        String userName = session.getAttribute("path").toString().split("/")[1];
        if(!fileSystemDao.userExistCheck(userName)){
            System.out.println("未找到相关用户信息!");
            return "deleteUser";
        }
        else {
            fileSystemDao.deleteUserInfoFromFile(userName);
            fileSystemDao.delete("/" + userName);
            return "index";
        }
    }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

3. 文件管理

文件管理的代码太多了,懒得cv (bushi).
总结一下,文件管理大致包含以下部分:

  1. 获取指定目录下的所有文件信息
  2. 创建目录
  3. 删除文件或目录
  4. 移动文件(剪切 + 粘贴)
  5. 复制文件到指定位置(复制 + 粘贴)
  6. 更改文件名称
  7. 文件上传与下载
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

六、项目资源

本项目托管在Gitee上,欢迎各位大佬随意发挥.
基于HDFS实现的简易云盘系统

关于Ubuntu和Hadoop 的环境搭建存在的问题,或者直接需要当前已经配置好的虚拟机,完全可以私信笔者.

此外,本项目的代码很多借鉴于csdn其他优秀作者分享的内容.若有侵权,请及时联系笔者!


七、其他

1. hadoop的core-site.xml 配置文件

<configuration>
    <configuration>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/usr/local/hadoop/tmp</value>
            <description>Abase for other temporary directories.</description>
        </property>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

2. hadoop的hdfs-site.xml 配置文件

<configuration>
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
        <property>
            <name>dfs.permissions</name>
            <value>false</value>
        </property>
    </configuration>
</configuration>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

3. 创建目录时出现Permission denied: user=xxx, access=WRITE, inode=“/“:root:supergroup:drwxr-xr-x 的问题
出现此问题是因为用户对所操作的文件没有写的权限,创建目录需要拥有写权限,在测试的时候可以将所有文件的所有权限都开放,就不会出现这种错误。

解决方法: 修改hdfs-site.xml,追加dfs.permissions配置。如果是true,则打开权限检查系统;如果是false,权限检查就是关闭的。

<property>
   <name>dfs.permissions</name>
   <value>false</value>
</property>
  • 1
  • 2
  • 3
  • 4

八、参考文件

  1. HDFS文件内容追加(Append). 王树民. Hadoop专栏. 2018-09-12.
  2. 基于Hadoop的数据云盘的实现. Youth-shouting. 2018-11-28.
  3. hadoop 文件 复制 移动 FileUtil.copy. weixin_30552811. 2015-08-11.

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/338082
推荐阅读
相关标签
  

闽ICP备14008679号