宝贝腿开大点我添添你视频男男,中文字幕熟女人妻av一区二区三区,爱色成人网,大地资源高清播放在线观看在线电影在线观看 ,777米奇影视第四色

集團站切換校區(qū)

驗證碼已發(fā)送,請查收短信

復(fù)制成功
微信號:togogoi
添加微信好友, 詳細了解課程
已復(fù)制成功,如果自動跳轉(zhuǎn)微信失敗,請前往微信添加好友
打開微信
圖標(biāo)

業(yè)界新聞

當(dāng)前位置:首頁 > >業(yè)界新聞 > >

大數(shù)據(jù)培訓(xùn)_使用maven工程構(gòu)建java 的hadoop客戶端

發(fā)布時間: 2019-09-08 13:37:30

  大數(shù)據(jù)培訓(xùn)_使用maven工程構(gòu)建java 的hadoop客戶端

  項目說明
  通過java操作hadoop中的hdfs分布式文件系統(tǒng),首先我們要建新一個maven的java工程,然后在pom.xml導(dǎo)入hadoop的如果的依賴java包。再編寫一個java的測試類去連接hadoop的集群環(huán)境。
  注意hadoop集群版本與導(dǎo)入hadoop-client的版本要一致,避免產(chǎn)生其它的問題。

  工程目錄

?大數(shù)據(jù)培訓(xùn)

  ?導(dǎo)入Maven的依賴包?

    <dependencies>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.11</version>
            <scope>test</scope>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.0.0</version>
        </dependency>
    </dependencies>

  ?編寫一個hadoop的客戶端類操作hadoop集群?

package net.togogo.hdfs;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator;
import org.junit.Before;
import org.junit.Test;

import java.io.IOException;
import java.net.URI;

/**
 * 構(gòu)建HdfsClient來操作hadoop集群
 */
public class HdfsClient {

    private FileSystem fs = null;

    /**
     * 構(gòu)建分布式文件系統(tǒng)的操作對象FileSystem
     */
    @Before
    public void init() {
        System.out.println(" init methon start ....");
        try {
            Configuration conf = new Configuration();
            //連接集群的地址
            URI uri = new URI("hdfs://192.168.20.32:9000");
            fs = FileSystem.get(uri, conf, "hd");
            System.out.println("FileSystem---->" + fs);
        } catch (Exception e) {
            e.printStackTrace();
        }
        System.out.println(" init methon end ....");
    }

    /**
     * 命令 hadoop fs -ls /
     */
    @Test
    public void listRoot() {
        try {
            System.out.println("listRoot method ....");
            //訪問 hadoop fs -ls /
            RemoteIterator<LocatedFileStatus> it = fs.listFiles(new Path("/"), true);
            //循環(huán)
            while (it.hasNext()) {
                LocatedFileStatus lf = it.next();
                System.out.println(lf.getPath().getName());
            }
            fs.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    /**
     * 命令 hadoop fs -mkdir /test0831
     */
    @Test
    public void mkdir() {
        try {

            Path path = new Path("/test0831");
            fs.mkdirs(path);
            fs.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    /**
     * 命令 hadoop fs -put F:/hello.log   /
     */
    @Test
    public void upload() {
        try {
            Path src = new Path("F:/hello.log");
            Path dst = new Path("/");
            fs.copyFromLocalFile(src, dst);
        } catch (IOException e) {
            e.printStackTrace();
        }
    }


    /**
     * 命令 hadoop fs -get /hello.log  F:/dsthello.log
     */
    @Test
    public void download() {
        try {
            Path src = new Path("/hello.log");
            Path dst = new Path("F:/dsthello.log");
            fs.copyToLocalFile(src, dst);

        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}


上一篇: Java培訓(xùn)_SpringCloud Eureka服務(wù)注冊中心

下一篇: 人工智能AI培訓(xùn)_垃圾郵件識別案例

在線咨詢 ×

您好,請問有什么可以幫您?我們將竭誠提供最優(yōu)質(zhì)服務(wù)!