美文网首页初见
javaAPI操作HDFS文件

javaAPI操作HDFS文件

作者: 熊仔不是饼干 | 来源:发表于2020-03-29 12:43 被阅读0次

javaAPI写入HDFS文件。

package com.twq.hdfs;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.IOException;
import java.io.OutputStream;
import java.net.URI;
/**
* 需要执行
* hadoop fs -chmod 757 hdfs://master:9999/user/hadoop-twq/cmd/
*/
public class FileWriter {
    public static void main(String[] args) throws IOException {
        String content = "this is an example";
        String dest = "hdfs://master:9999/user/hadoop-twq/cmd/java_writer.txt";
        Configuration configuration = new Configuration();
         FileSystem fileSystem = FileSystem.get(URI.create(dest), configuration);
        FSDataOutputStream out = fileSystem.create(new Path(dest));
        out.write(content.getBytes("UTF-8"));
        out.close();
    }
}
image.png

javaAPI读取HDFS

package com.twq.hdfs;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.*;
import java.net.URI;

public class FileReader {
    public static void main(String[] args) throws IOException {
        String dest = "hdfs://master:9999/user/hadoop-twq/cmd/java_writer.txt";
        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(URI.create(dest), configuration);
        FSDataInputStream in = fileSystem.open(new Path(dest));

        BufferedReader bufferedReader = new BufferedReader(new InputStreamReader(in));

        String line = null;

        while ((line = bufferedReader.readLine()) != null) {
            System.out.println(line);
        }
        in.close();
    }
}
image.png

javaAPI删除HDFS

package com.twq.hdfs;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.net.URI;

public class FileDeleter {

    public static void main(String[] args) throws IOException {
        String dest = "hdfs://master:9999/user/hadoop-twq/cmd/java_writer.txt";

        Configuration configuration = new Configuration();
        FileSystem fileSystem = FileSystem.get(URI.create(dest), configuration);
        fileSystem.delete(new Path(dest), false);
        fileSystem.delete(new Path(""), true);
    }
}
image.png

相关文章

  • javaAPI操作HDFS文件

    javaAPI写入HDFS文件。 javaAPI读取HDFS javaAPI删除HDFS

  • Hadoop之操作HDFS示例

    1.引入pom文件 JavaApi对HDFS进行文件上传删除 重命名等操作

  • HDFS读写和冷备份原理

    HDFS写文件流程 当用户通过命令行或者JavaAPI向Hadoop集群发起写入文件操作时,将触发写文件流程,分为...

  • javaAPI操作HDFS

  • JavaAPI操作HDFS

    Maven 通俗上讲就是我们不在手动导入jar包,交给Maven去管理Maven通过pom.xml中的坐标进行管理...

  • 扣丁学堂大数据开发JavaAPI操作HDFS之文件上传实现

    今天扣丁学堂大数据培训老师给大家介绍一下关于JavaAPI操作HDFS之文件上传实现的详细介绍,希望对同学们学习大...

  • JAVA操作Hbase

    实际开发中可以利用javaAPI去操作控制Hbase 【准备】1:开启集群,一次开启(zookeeper,hdfs...

  • 通过API访问HDFS

    通过API操作HDFS 今天的主要内容 HDFS获取文件系统 HDFS文件上传 HDFS文件下载 HDFS目录创建...

  • 2、hadoop运行wordcount实例

    1:hdfs文件操作命令 建立文件夹 hdfs dfs -mkdir -p /data/input 把linux上...

  • HDFS文件操作

    HDFS 什么是HDFS 它是一个分布式文件系统,适合一次写入多次读出。 不支持文件的随机读写,支持对文件的追加。...

网友评论

    本文标题:javaAPI操作HDFS文件

    本文链接:https://www.haomeiwen.com/subject/bawyuhtx.html