大数据--hdfs--java编程

news/2024/5/20 2:22:02 标签: 大数据, hdfs, java

环境:

virtualbox ubantu1604

 Linux idea社区版2023

jdk1.8

hadoop相关依赖 

使用java操作

1. 判断/user/stu/input/test.txt文件是否存在,存在则读出文件内容,打印在控制台上。反之,输出“文件不存在”。

package abc;

import java.io.BufferedReader;
import java.io.InputStreamReader;
import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;

public class HDFSFlieifExit {
    public static void main(String[] args) {
        try {
            String filename = "input/test.txt";

            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);
            Path file = new Path(filename);

            if (fs.exists(file)) {
                FSDataInputStream getIt = fs.open(file);
                BufferedReader d = new BufferedReader(new InputStreamReader(
                            getIt));
                String con = null;

                while ((con = d.readLine()) != null) {
                    System.out.println(con);
                }

                d.close(); //关闭文件
                fs.close(); //关闭hdfs
            } else {
                System.out.println("文件不存在");
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

 

2. 使用JAVA编程实现
1) 在根目录下创建hdfsjava目录

package abc;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class createDir {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);
            boolean isok = fs.mkdirs(new Path("hdfs:/hdfsjava"));

            if (isok) {
                System.out.println("成功创建目录!");
            } else {
                System.out.println("创建目录失败");
            }

            fs.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

2) 在hdfsjava目录下创建文件mobiles.txt,内容是“My telephone is HUAWEI”

package abc;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class Writemobile {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);

            Path inFile = new Path("hdfs:/hdfsjava/mobile.txt");

            FSDataOutputStream outputStream = fs.create(inFile);
            outputStream.writeUTF("My telephone is HUAWEI");
            outputStream.flush();
            outputStream.close();

            fs.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

3) 将linux本地的myLocalFile.txt文件上传到hdfsjava目录下。

package abc;

import com.sun.org.apache.xerces.internal.util.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class putfile {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);
            Path src = new Path("/usr/local/hadoop/myLocalFile.txt");
            Path dst = new Path("/hdfsjava");
            fs.copyFromLocalFile(src, dst);
            System.out.println("上传完成...");

            fs.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

 

4) 列表显示hdfsjava下的所有文件,打印在控制台上。

package abc;

import com.sun.org.apache.xerces.internal.util.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class printconsole {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);
            Path dst = new Path("/hdfsjava");
            FileStatus[] status = fs.listStatus(dst);

            for (int i = 0; i < status.length; i++) {
                System.out.println(status[i].getPath().toString());
            }

            fs.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

5) 查看hdfs上的hdfsjava目录下myLocalFile.txt文件内容

package abc;

import com.sun.org.apache.xerces.internal.util.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.io.BufferedReader;
import java.io.InputStreamReader;


public class readfile {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);

            Path dst = new Path("/hdfsjava/myLocalFile.txt");
            FSDataInputStream in = fs.open(dst);
            BufferedReader d = new BufferedReader(new InputStreamReader(in));
            String line = null;

            while ((line = d.readLine()) != null) {
                String[] stra = line.split(" ");

                for (int i = 0; i < stra.length; i++) {
                    System.out.print(stra[i]);
                    System.out.print(" ");
                }

                System.out.println(" ");
            }

            fs.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

 

 6) 将hdfs上的hdfsjava目录下mobiles.txt文件下载到本地/home/hadoop中。

 7) 删除hdfsjava目录。

package abc;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class delete {
    public static void main(String[] args) {
        try {
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl",
                "org.apache.hadoop.hdfs.DistributedFileSystem");

            FileSystem fs = FileSystem.get(conf);
            Path src = new Path("/hdfsjava");
            fs.delete(src, true);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}


http://www.niftyadmin.cn/n/5437716.html

相关文章

个人知识管理平台SilverBullet

什么是 SilverBullet &#xff1f; SilverBullet 是一个可扩展的开源个人知识平台。它的核心是一个干净的基于 markdown 的写作/笔记应用程序&#xff0c;它将您的页面&#xff08;笔记&#xff09;作为普通的 markdown 文件存储在一个称为 space 的文件夹中。可以使用 [[link …

html--蝴蝶

<!DOCTYPE html> <html lang"en" > <head> <meta charset"UTF-8"> <title>蝴蝶飞舞</title> <link rel"stylesheet" href"https://cdnjs.cloudflare.com/ajax/libs/meyer-reset/2.0/reset.min.cs…

【每日一题】13. 罗马数字转整数

罗马数字包含以下七种字符: I&#xff0c; V&#xff0c; X&#xff0c; L&#xff0c;C&#xff0c;D 和 M。 字符 数值 I 1 V 5 X 10 L 50 C 100 D 500 M 1000 例如&#xff0c; 罗马数字 2 写做 II &#xff0c;即为两个并列的 1 。12 写做 XII &#xff0c;即为 X II 。 …

pytorch升级打怪(八)

保存模型和加载已有模型 保存并加载模型保存加载 保存并加载模型 在本节中&#xff0c;我们将研究如何通过保存、加载和运行模型预测来保持模型状态。 import torch import torchvision.models as models保存 PyTorch模型将学习的参数存储在内部状态字典中&#xff0c;称为s…

分享5款专注于实用简洁的工具软件

​ 电脑上的各类软件有很多&#xff0c;除了那些常见的大众化软件&#xff0c;还有很多不为人知的小众软件&#xff0c;专注于实用功能&#xff0c;简洁干净、功能强悍。 1.数据安全——Cryptomator ​ Cryptomator是一款专业的文件加密软件&#xff0c;旨在保护用户的隐私和…

redis cpu百分百问题

系统使用spring cloud alibaba微服务框架&#xff0c;应用使用K8S发布&#xff0c;使用redis作为缓存数据库&#xff0c;运行一段时间之后开发反应早高峰时整个系统响应缓慢&#xff0c;排查发现服务网关gateway的pod健康状态频繁unhealthy&#xff0c;导致重启&#xff0c;且此…

c++复数计算器

定制魏:QTWZPW,获取更多源码等 目录 题目 目的 要求 涉及的知识 类声明 构造函数 核心算法实现代码 总体设计 运行效果 总结 完整代码 题目 为复数定义一个类。复数的形式 a+bi 其中,a和b是double类型的数字,而i表示虚数单位√-1。将复数表示成double类型的两…

Solidity 智能合约开发 - 基础:基础语法 基础数据类型、以及用法和示例

苏泽 大家好 这里是苏泽 一个钟爱区块链技术的后端开发者 本篇专栏 ←持续记录本人自学两年走过无数弯路的智能合约学习笔记和经验总结 如果喜欢拜托三连支持~ 本篇主要是做一个知识的整理和规划 作为一个类似文档的作用 更为简要和明了 具体的实现案例和用法 后续会陆续给出…