美文网首页
HDFS文件读取实验

HDFS文件读取实验

作者: Mr_K_ | 来源:发表于2019-12-25 17:15 被阅读0次

'''

#package org.hadoop.sort;

import java.io.BufferedReader;

import java.lang.Object;

import java.util.List;

//import java.util.Arrays;

import java.io.InputStreamReader;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

public class HDFSfileifexist {

public static void myWrite(String content, String name){

try

{

Configuration conf=new Configuration();

conf.set("fs.defaultFS", "hdfs://localhost:9000");

conf.set("fs.hdfs.omp", "org.apache.hadoop.hdfs.DistributedFileSystem");

FileSystem fs=FileSystem.get(conf);

byte[] buff=content.getBytes();

String filename=name;

FSDataOutputStream os=fs.create(new Path(filename));

os.write(buff,0,buff.length);

System.out.println("Creat:"+filename);

os.close();

fs.close();

}

catch(Exception e)

{

e.printStackTrace();

}

}

public static String myRead(String fileName){

String content = null;

try

{

Configuration conf=new Configuration();

conf.set("fs.defaultFS", "hdfs://localhost:9000");

conf.set("fs.hdfs.omp", "org.apache.hadoop.hdfs.DistributedFileSystem");

FileSystem fs=FileSystem.get(conf);

Path file=new Path(fileName);

FSDataInputStream getIt=fs.open(file);

BufferedReader d=new BufferedReader(new InputStreamReader(getIt));

content=d.readLine();

System.out.println(""+content);

d.close();

fs.close();

}

catch(Exception e)

{

e.printStackTrace();

}

return content;

}

public static String merge(String s1){

String a = s1;

String [] s = a.split(" ");

String b = "";

s[0].compareTo(s[1]);

int temp;

int i,j;

for(i=0;i<s.length;i++)

        {

            for(j=0;j<s.length-1-i;j++)

            {

                if(Integer.parseInt(s[j])>Integer.parseInt(s[j+1]))

                {

                    String temp1=s[j];

                    s[j]=s[j+1];

                  s[j+1]=temp1;

                }

            }

        }

//Arrays.sort(s);

//Connections.sort();

System.out.println("a:"+a);

for(int i1 = 0; i1 < s.length; i1++){

b += s[i1]+" ";

}

System.out.println(b);

return b;

}

public static void main(String[] args) {

String s1 = myRead("hdfs://localhost:9000/input/1_3.txt");

//String s2 = myRead("hdfs://localhost:9000/input/1_2.txt");

String s3 = merge(s1);

myWrite(s3,"hdfs://localhost:9000/input/result.txt");

}

}

'''

相关文章

  • HDFS文件读取实验

    ''' #package org.hadoop.sort; import java.io.BufferedRead...

  • Hadoop HDFS 的 I/O 流操作

    HDFS 文件上传 HDFS 文件下载 定位文件读取 文件合并

  • HDFS下文件读取实验

    实现在hadoop hdfs下读出指定文件,并将指定文件中的内容排序,输出到hdfs中。具体代码如下 头文件: 其...

  • javaAPI操作HDFS文件

    javaAPI写入HDFS文件。 javaAPI读取HDFS javaAPI删除HDFS

  • HDFS 文件读写过程

    一、HDFS 文件读取剖析 客户端通过调用FileSystem对象的open()来读取希望打开的文件。对于HDFS...

  • Hadoop Java API

    获取HDFS客户端对象 创建文件夹 读取HDFS文件 创建文件、写文件 重命名文件 从本地复制文件到hdfs 复制...

  • 关于HDFS的几个操作纯代码

    一.功能实现: 1:将本地文件上传到HDFS上 2:从HDFS上读取文件到本地 3:删除HDFS上的文件 4:遍历...

  • spark 2.4 操作

    sc.textfile()一读取 本地文件系统目录要加 file:读取hdfs 的要加 hdfs: 二 遇到 这个...

  • 读取HDFS高可用配置下的文件

    Flink/Spark读取hadoop文件 当HDFS开启高可用时,需要传入路径hdfs://mycluster/...

  • HDFS JAVA 接口

    HDFS的java访问接口——FileSystem 写文件 create 读取文件 open 删除文件 delet...

网友评论

      本文标题:HDFS文件读取实验

      本文链接:https://www.haomeiwen.com/subject/heococtx.html