iT邦幫忙

2018 iT 邦幫忙鐵人賽
DAY 7
1

前面介紹完了HDFS的基本操作與指令介紹後,接下來要來簡介MapReduce分散式運算的實作,終於可以寫點程式啦!

由於Hadoop原始碼是由Java所撰寫,當然MapReduce也需要使用Java來實作囉。本篇將會實作MapReduce界中的Hello World - word count。

WordCount的範例程式

import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class HadoopWordCountSample {
    public static class WordCountMapper
            extends Mapper<Object, Text, Text, IntWritable>{

        //計數使用,設定為1。每當找到相同的字就會+1。
        private final static IntWritable plugOne  = new IntWritable(1);
        private Text word = new Text();

        @Override
        public void map(Object key, Text value, Context context
        ) throws IOException, InterruptedException {
            //使用StringTokenizer效能會比使用split好。預設使用空白、tab或是換行當作分隔符號。
            StringTokenizer st = new StringTokenizer(value.toString());
            while (st.hasMoreTokens()) {
                word.set(st.nextToken());
                context.write(word, plugOne);
            }
        }
    }

    public static class WordCountReducer
            extends Reducer<Text,IntWritable,Text,IntWritable> {

        private IntWritable result = new IntWritable();

        @Override
        public void reduce(Text key, Iterable<IntWritable> values,
                           Context context
        ) throws IOException, InterruptedException {
            int reduceSum = 0;
            for (IntWritable val : values) {
                reduceSum += val.get();
            }
            result.set(reduceSum);
            context.write(key, result);
        }
    }

    public static void main(String[] args) throws Exception {
        Configuration config = new Configuration();
        Job job = Job.getInstance(config, "hadoop word count example");
        job.setJarByClass(HadoopWordCountSample.class);
        job.setReducerClass(WordCountReducer.class);
        job.setMapperClass(WordCountMapper.class);
        //設定setCombinerClass後,每個mapper會在sorting後,對結果先做一次reduce
        job.setCombinerClass(WordCountReducer.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        //執行程式時,第一個參數(agrs[0])為欲計算檔案路徑
        FileInputFormat.addInputPath(job, new Path(args[0]));
        //第二個參數(agrs[1])為計算結果存放路徑
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}

使用說明

  • Step1. 複製程式碼:
    • 使用筆記本或是vivim等指令將上列程式碼複製貼上後存擋。假設檔案名稱為:HadoopWordCountSample.java
  • Step2. 設定環境。
    • 假設儲存程式碼的環境是安裝hadoop的其中一台node,已經設定完JAVA_HOMEHADOOP_HOME等環境變數,接下來只要設定HADOOP_CLASSPATH即可。
    #編輯~/.bashrc檔案
    sudo vi ~/.bashrc
    #加入HADOOP_CLASSPATH。注意!記得放在JAVA_HOME後面得行數,否則會出錯。
    export HADOOP_CLASSPATH=${JAVA_HOME}/lib/tools.jar
    
  • Step3. 編譯並打包程式碼。
#Compile
hadoop com.sun.tools.javac.Main HadoopWordCountSample.java
#Package
jar cf hwcs.jar HadoopWordCountSample*.class
  • Step4. 準備要計算的字數的檔案,並上傳至HDFS。
    寫好了word count程式碼,那也要有計算目標。為了讓MapReduce發揮淋漓盡致,需要將要計算的檔案上傳至HDFS,有了分散式儲存再加上分散式運算,真是天作之合啊!(威!離題了!)
    • 首先使用先在本機機器產生兩個檔案:wordcount_target1wordcount_target2,內容分別為:

      • wordcount_target1
      I am Jack
      I am the king of the world
      
      • wordcount_target2
      I am Rose
      I am looking for Jack
      
    • 接下來在HDFS上建立一個資料夾,並且將這兩個檔案上傳到資料夾內:

      #建立資料夾
      hadoop fs -mkdir -p /tmp/wordcount_target
      #上傳
      hadoop fs -put wordcount_target1 wordcount_target2 /tmp/wordcount_target
      
  • Step5. 在Hadoop上執行程式碼
hadoop jar hwcs.jar HadoopWordCountSample /tmp/wordcount_target /tmp/wordcount_result
#說明
hwcs.jar:              要執行計算的MapReduce jar檔案路徑(需要包含的檔案名稱)
HadoopWordCountSample: 欲執行的class name
/tmp/wordcount_target: 欲計算檔案路徑
/tmp/wordcount_result: 計算結果存放路徑

如果MapReduce job成功送出到Hadoop上執行後,Yarn會接手資源控管,可以透過web ui:
http://{host_or_ip}:8088 觀察MapReduce運作的情形。
註:{host_or_ip}請輸入安裝時namenode所在的host name或是ip。如果是Standalone安裝模式,請輸入localhost

  • Step6. 查看結果:
hadoop fs -cat /tmp/wordcount_result/part-r-00000
#結果
am 4
for 1
king 1
looking 1
of 1
the 2
world 1
I 4
Jack 2
Rose 1

成功執行程式碼後,想必有些人應該是滿臉問號,下一篇就來解釋程式碼的運作流程吧。


上一篇
Day 6-Hadoop指令介紹-HDFS篇
下一篇
Day 8 - Hadoop 之 MapReduce WordCount 程式碼說明
系列文
Hadoop ecosystem 工具簡介, 安裝教學與各種情境使用30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

1 則留言

0
Ho.Chun
iT邦新手 5 級 ‧ 2019-11-07 18:17:13

不好意思,又來問問題
請問 hwcs.jar 是哪來的 (??
/images/emoticon/emoticon16.gif

Ho.Chun iT邦新手 5 級 ‧ 2019-11-07 18:21:25 檢舉

抱歉! 打擾了
原來是自己要打包出來的 jar 檔
/images/emoticon/emoticon06.gif

我要留言

立即登入留言