import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
@RestController
public class HadoopFileController {
@RequestMapping("/hadoop")
public void hadoop() throws URISyntaxException, IOException, InterruptedException {
Configuration conf = new Configuration();
//指定客服端上传hdfs上传副本数为2
// conf.set("dfs.replication","2");
// conf.set("dfs.blocksize","64m");
FileSystem fs= FileSystem.get(new URI("hdfs://192.168.96.130:9000/"),conf,"root");
fs.mkdirs(new Path("/xx/yy/zz"));
fs.close();
}
}
分享到:
相关推荐
java操作hdfs 修改参数配置与本机一致; 有五个示例文档,有用到springboot, Big data projects using HDFS and MapReduce
java操作hdfs文件系统的完整依赖包,如果是tomcat服务器,解压后全部放在web工程的lib文件夹下即可.
大数据-java操作HDFS的增、删、查等基本操作,maven项目
Java操作HDFS.md
第七节、使用Java操作HDFS第七节、使用Java操作HDFS一、准备jar包二、解决环境冲突问题1. 在windows下添加HADOOP_HOME系统环境变
本篇文章主要介绍了JAVA操作HDFS案例的简单实现,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
java操作Hadoop源码之HDFS Java API操作-创建目录,附带所需全部jar包,欢迎下载学习。
大数据技术基础实验报告-调用Java API实现HDFS操作
自己整理的hadoop的java-api。各个API写得比较简单,比较细,适合初学者参考。PS:集群请自行搭建
javaAPI操作HDFS,测试可用 window环境需要下载hadoop客户端
java操作hadoop的hdfs的各种操作,包括文件创建,删除,文件夹创建,上传文件,下载文件,读取文件等
Windows下配置Hadoop的Java开发环境以及用Java API操作HDFS: https://blog.csdn.net/BADAO_LIUMANG_QIZHI/article/details/119379055
java操作Hbase之从Hbase中读取数据写入hdfs中源码,附带全部所需jar包,欢迎下载学习。
分布式文件系统hdfs 使用Java API操作HDFS分布式文件系统
java操作Hadoop源码之HDFS Java API操作-上传文件,附带所需全部jar包,欢迎下载学习。
Java操作Hdfs,配置开发环境,NameNode详解,DataNode详解,namenode与datanode的工作机制
java对大数据HDFS文件操作jar包和maven2个项目,有jar包,有依赖,2个项目呦
A.2实验二:熟悉常用的HDFS操作 ...(3)熟悉HDFS操作常用的Java API。 A.2.2 实验平台 (1)操作系统:Linux(建议Ubuntu 16.04)。(2) Hadoop版本:2.7.1。 (3)JDK版本:1.7或以上版本。(4) Java IDE:Eclipse。
hdfs代码实例 通过Java代码在HDFS上创建目录、上传文件、下载文件、删除文件、文件重命名、文件列表等操作。
Javaapi操作HDFS综合练习.pdf 学习资料 复习资料 教学资源