日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
Hadoop之完全分布式集群

hadoop之完全分布式集群

作者:kocdaniel 2019-09-26 15:43:52

開(kāi)發(fā)

架構(gòu)

分布式

Hadoop 首先準(zhǔn)備三臺(tái)客戶機(jī)(hadoop102,hadoop103,hadoop104),關(guān)閉防火墻,修改為靜態(tài)ip和ip地址映射

讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來(lái)自于我們對(duì)這個(gè)行業(yè)的熱愛(ài)。我們立志把好的技術(shù)通過(guò)有效、簡(jiǎn)單的方式提供給客戶,將通過(guò)不懈努力成為客戶在信息化領(lǐng)域值得信任、有價(jià)值的長(zhǎng)期合作伙伴,公司提供的服務(wù)項(xiàng)目有:空間域名、網(wǎng)絡(luò)空間、營(yíng)銷軟件、網(wǎng)站建設(shè)、孟連網(wǎng)站維護(hù)、網(wǎng)站推廣。

 首先準(zhǔn)備三臺(tái)客戶機(jī)(hadoop102,hadoop103,hadoop104),關(guān)閉防火墻,修改為靜態(tài)ip和ip地址映射

配置集群

編寫集群分發(fā)腳本

  1. 創(chuàng)建一個(gè)遠(yuǎn)程同步的腳本xsync,并放到當(dāng)前用戶下新建的bin目錄下,配置到PATH中,使得此腳本在任何目錄下都可以執(zhí)行
  2. 腳本實(shí)現(xiàn)
  
 
 
 
  1. [kocdaniel@hadoop102 ~]$ mkdir bin 
  2. [kocdaniel@hadoop102 ~]$ cd bin/ 
  3. [kocdaniel@hadoop102 bin]$ vim xsync 

在文件中編寫如下腳本代碼

  
 
 
 
  1. #!/bin/bash 
  2. #1 獲取輸入?yún)?shù)個(gè)數(shù),如果沒(méi)有參數(shù),直接退出 
  3. pcount=$# 
  4. if((pcount==0)); then 
  5. echo no args; 
  6. exit; 
  7. fi 
  8.  
  9. #2 獲取文件名稱 
  10. p1=$1 
  11. fname=`basename $p1` 
  12. echo fname=$fname 
  13.  
  14. #3 獲取上級(jí)目錄到絕對(duì)路徑 –P指向?qū)嶋H物理地址,防止軟連接 
  15. pdir=`cd -P $(dirname $p1); pwd` 
  16. echo pdir=$pdir 
  17.  
  18. #4 獲取當(dāng)前用戶名稱 
  19. user=`whoami` 
  20.  
  21. #5 循環(huán) 
  22. for((host=103; host<105; host++)); do 
  23.         echo ------------------- hadoop$host -------------- 
  24.         rsync -rvl $pdir/$fname $user@hadoop$host:$pdir 
  25. done 
  1. 修改腳本xsync具有執(zhí)行權(quán)限,并調(diào)用腳本,將腳本復(fù)制到103和104節(jié)點(diǎn)
  
 
 
 
  1. [kocdaniel@hadoop102 bin]$ chmod 777 xsync 
  2. [kocdaniel@hadoop102 bin]$ xsync /home/atguigu/bin 

集群配置

1.集群部署規(guī)劃

由于計(jì)算機(jī)配置有限,只能使用三臺(tái)虛擬機(jī),工作環(huán)境中根據(jù)需要規(guī)劃集群

2.配置集群

切換到hadoop安裝目錄/etc/hadoop/

  • 配置core-site.xml
  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vim core-site.xml 
  2. # 在文件中寫入如下內(nèi)容 
  3.  
  4.  
  5.     fs.defaultFS 
  6.       hdfs://hadoop102:9000 
  7.  
  8.  
  9.  
  10.  
  11.         hadoop.tmp.dir 
  12.         /opt/module/hadoop-2.7.2/data/tmp 
  • HDFS配置文件

配置hadoop-env.sh

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vim hadoop-env.sh 
  2. export JAVA_HOME=/opt/module/jdk1.8.0_144 

export JAVA_HOME=/opt/module/jdk1.8.0_144

注意:我們已經(jīng)在/etc/profile文件中配置了JAVA_HOME,這里為什么還需要配置JAVA_HOME?

答:因?yàn)镠adoop運(yùn)行是守護(hù)進(jìn)程(守護(hù)進(jìn)程是一個(gè)在后臺(tái)運(yùn)行并且不受任何終端控制的進(jìn)程。--摘自百度百科)),正是因?yàn)樗笈_(tái)運(yùn)行,不接受任何終端控制,所以它讀取不到我們配置好的環(huán)境變量,所以這里需要單獨(dú)配置一下。

  • 配置hdfs-site.xml
  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vim hdfs-site.xml 
  2. # 寫入如下配置 
  3.  
  4.  
  5.         dfs.replication 
  6.         3 
  7.  
  8.  
  9.  
  10.  
  11.       dfs.namenode.secondary.http-address 
  12.       hadoop104:50090 
  13.  
  • YARN配置文件

配置yarn-env.sh

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vim yarn-env.sh 
  2. export JAVA_HOME=/opt/module/jdk1.8.0_144 

配置yarn-site.xml

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vi yarn-site.xml 
  2. # 增加如下配置 
  3.  
  4.  
  5.         yarn.nodemanager.aux-services 
  6.         mapreduce_shuffle 
  7.  
  8.  
  9.  
  10.  
  11.         yarn.resourcemanager.hostname 
  12.         hadoop103 
  13.  
  • MapReduce配置文件

配置mapred-env.sh

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vim mapred-env.sh 
  2. export JAVA_HOME=/opt/module/jdk1.8.0_144 

配置mapred-site.xml

  
 
 
 
  1. # 如果是第一次配置的話,需要先將mapred-site.xml.template重命名為mapred-site.xml 
  2. [kocdaniel@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml 
  3. [kocdaniel@hadoop102 hadoop]$ vim mapred-site.xml 
  4. # 在文件中增加如下配置 
  5.  
  6.  
  7.         mapreduce.framework.name 
  8.         yarn 
  9.  

3.將配置好的文件利用集群分發(fā)腳本同步到hadoop103和hadoop104節(jié)點(diǎn)

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/ 
  • 最好在同步完成之后檢查一下同步結(jié)果,避免錯(cuò)誤

單點(diǎn)啟動(dòng)

1.如果是第一次啟動(dòng),需要格式化namenode,否則跳過(guò)此步

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop namenode -format 
  • 格式化需要注意的問(wèn)題:
  1. 只有第一次啟動(dòng)需要格式化,以后不要總是格式化,否則會(huì)出現(xiàn)namenode和datanode的集群id不一致的情況,導(dǎo)致datanode啟動(dòng)失敗
  2. 正確的格式化姿勢(shì):
  • 在執(zhí)行第一次格式化時(shí)會(huì)在hadoop安裝目錄下產(chǎn)生data文件夾,里面會(huì)生成namenode的信息
  • 在啟動(dòng)namenode和datanode后,還會(huì)在同樣的目錄下產(chǎn)生logs的日志文件夾
  • 所以在格式化之前需要先將這兩個(gè)文件夾刪除,然后再格式化,最后啟動(dòng)namenode和datanode

2.在hadoop102上啟動(dòng)namenode

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode 
  2. [kocdaniel@hadoop102 hadoop-2.7.2]$ jps 
  3. 3461 NameNode 

3.在hadoop102、hadoop103以及hadoop104上分別啟動(dòng)DataNode

  
 
 
 
  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode 
  2. [kocdaniel@hadoop102 hadoop-2.7.2]$ jps 
  3. 3461 NameNode 
  4. 3608 Jps 
  5. 3561 DataNode 
  6. [kocdaniel@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode 
  7. [kocdaniel@hadoop103 hadoop-2.7.2]$ jps 
  8. 3190 DataNode 
  9. 3279 Jps 
  10. [kocdaniel@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode 
  11. [kocdaniel@hadoop104 hadoop-2.7.2]$ jps 
  12. 3237 Jps 
  13. 3163 DataNode 

4.訪問(wèn)hadoop102:50070查看結(jié)果

  • 但是以上單點(diǎn)啟動(dòng)有一個(gè)問(wèn)題:

每次都一個(gè)一個(gè)節(jié)點(diǎn)啟動(dòng),如果節(jié)點(diǎn)數(shù)增加到1000個(gè)怎么辦?

配置ssh免密登錄

1.配置ssh

ssh 另一個(gè)節(jié)點(diǎn)的ip 就可以切換到另一臺(tái)機(jī)器,但是得輸入密碼

2.免密ssh配置

免密登錄原理

  • 在配置namenode的主機(jī)hadoop102上生成私鑰和公鑰

切換目錄到/home/用戶名/.ssh/

  
 
 
 
  1. [kocdaniel@hadoop102 .ssh]$ ssh-keygen -t rsa 
  
 
 
 
  1. - 然后敲(三個(gè)回車),就會(huì)生成兩個(gè)文件id_rsa(私鑰)、id_rsa.pub(公鑰) 
  2.  - 將公鑰拷貝到要免密登錄的目標(biāo)機(jī)器上 
  3.  
  4.  ```shell 
  5.  [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop103 
  6.  [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop104 
  7.  # 注意:ssh訪問(wèn)自己也需要輸入密碼,所以我們需要將公鑰也拷貝給102 
  8.  [kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop102 
  9.   
  10.  ``` 
  • 同樣,在配置resourcemanager的主機(jī)hadoop103上執(zhí)行同樣的操作,然后就可以群起集群了

群起集群

1.配置slaves

  • 切換目錄到:hadoop安裝目錄/etc/hadoop/
  • 在目錄下的slaves文件中添加如下內(nèi)容
  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ vim slaves 
  2. # 注意結(jié)尾不能有空格,文件中不能有空行 
  3. hadoop102 
  4. hadoop103 
  5. hadoop104 
  • 同步所有節(jié)點(diǎn)的配置文件
  
 
 
 
  1. [kocdaniel@hadoop102 hadoop]$ xsync slaves 

2.啟動(dòng)集群

  • 同樣,如果是第一次啟動(dòng),需要格式化
  • 啟動(dòng)HDFS
  
 
 
 
  1. [kocdaniel@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh 
  2.  
  3. # 查看啟動(dòng)結(jié)果,和集群規(guī)劃(配置文件中)的一致 
  4. [atguigu@hadoop102 hadoop-2.7.2]$ jps 
  5. 4166 NameNode 
  6. 4482 Jps 
  7. 4263 DataNode 
  8.  
  9. [atguigu@hadoop103 hadoop-2.7.2]$ jps 
  10. 3218 DataNode 
  11. 3288 Jps 
  12.  
  13. [atguigu@hadoop104 hadoop-2.7.2]$ jps 
  14. 3221 DataNode 
  15. 3283 SecondaryNameNode 
  16. 3364 Jps 
  • 啟動(dòng)YARN
  
 
 
 
  1. # 注意:NameNode和ResourceManger如果不是同一臺(tái)機(jī)器,不能在NameNode上啟動(dòng) YARN,應(yīng)該在ResouceManager所在的機(jī)器上啟動(dòng)YARN 
  2. [kocdaniel@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh 

3.web端查看相關(guān)信息


網(wǎng)站名稱:Hadoop之完全分布式集群
文章地址:http://www.5511xx.com/article/dpghpcp.html