日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
基于云原生的Flink計算平臺實踐

基于云原生的Flink計算平臺實踐

作者:移動Labs 2022-08-21 07:25:09

云計算

云原生 最近這幾年,大數(shù)據(jù)領(lǐng)域比如Flink,Spark等計算引擎也紛紛表示對K8S的支持,使得大數(shù)據(jù)應(yīng)用從傳統(tǒng)的yarn時代轉(zhuǎn)變?yōu)樵圃鷷r代。本文以Flink和k8s為主要技術(shù)手段,介紹如何搭建一個云原生計算平臺。
作者|王杰,單位:中國移動智慧家庭運營中心

企業(yè)建站必須是能夠以充分展現(xiàn)企業(yè)形象為主要目的,是企業(yè)文化與產(chǎn)品對外擴(kuò)展宣傳的重要窗口,一個合格的網(wǎng)站不僅僅能為公司帶來巨大的互聯(lián)網(wǎng)上的收集和信息發(fā)布平臺,創(chuàng)新互聯(lián)建站面向各種領(lǐng)域:木屋成都網(wǎng)站設(shè)計、網(wǎng)絡(luò)營銷推廣解決方案、網(wǎng)站設(shè)計等建站排名服務(wù)。


?Labs 導(dǎo)讀

隨著云原生的普及,越來越多的后端應(yīng)用進(jìn)行了容器化遷移,并通過k8s進(jìn)行編排管理。而最近這幾年,大數(shù)據(jù)領(lǐng)域比如Flink,Spark等計算引擎也紛紛表示對k8s的支持,使得大數(shù)據(jù)應(yīng)用從傳統(tǒng)的yarn時代轉(zhuǎn)變?yōu)樵圃鷷r代。本文以Flink和k8s為主要技術(shù)手段,介紹如何搭建一個云原生計算平臺。

Part 01  K8s概述 

Kubernetes,又稱為k8s或者kube,是一種可自動實施Linux容器操作的開源平臺。它可以幫助用戶省去應(yīng)用容器化過程的許多手動部署和擴(kuò)展操作。也就是說,您可以將運行Linux容器的多組主機(jī)聚合在一起。由k8s幫助您輕松高效地管理這些集群。而且,這些集群可跨公共云、私有云或混合云部署主機(jī)。其架構(gòu)圖如下:

注:

  1. kubectl: 使用Kubernetees API與Kubernetes集群的控制面通信的命令行工具。
  2. ETCD: 一種分布式健值存儲,用于分布式系統(tǒng)或計算機(jī)集群的配置、服務(wù)發(fā)現(xiàn)和調(diào)度協(xié)調(diào)。
  3. Node(節(jié)點): 負(fù)責(zé)執(zhí)行請求和所分配任務(wù)的計算機(jī)。
  4. Pod(容器集): 被部署在單個節(jié)點上的,且包含一個或多個容器的容器組。
  5. Kubelet: 運行在節(jié)點上的服務(wù),可讀取容器清單,確保指定的容器啟動并運行。

1.在Master上,是由Controller,API Server,Scheduler 以及包括做存儲的Etcd等構(gòu)成。Etcd可以算成Master,也可以作為獨立于Master之外的存儲來對待。Master的Controller、API Server、Scheduler都是單獨的進(jìn)程模式。這和Yarn有一些不同,Yarn的整個Master是一個單進(jìn)程的模式。K8s的Master還可以在多個Master之間完成自發(fā)的選舉,然后由active狀態(tài)的Master對外提供服務(wù)。

2.在Slave上,它主要是包括Kube proxy、Kubelet,以及Docker等相關(guān)的組件,每個Node上部署的相關(guān)組件都是類似的,通過它來管理上面運行的多個Pod。

3.根據(jù)不同用戶的習(xí)慣,可以通過UI或者CLI的方式向K8s提交任務(wù)。用戶可以通過K8s提供的Dashboard Web UI的方式將任務(wù)進(jìn)行提交,也可以通過Kubectl命令行的方式進(jìn)行提交。

Part 02  Flink概述

Apache Flink 是一個框架和分布式處理引擎,用于在無邊界和有邊界數(shù)據(jù)流上進(jìn)行有狀態(tài)的計算。Flink 能在所有常見集群環(huán)境中運行,并能以內(nèi)存速度和任意規(guī)模進(jìn)行計算。其架構(gòu)圖如下:

Flink整個系統(tǒng)包含三個部分:

Client:Flink Client主要給用戶提供向Flink系統(tǒng)提交用戶任務(wù)(流式作業(yè))的能力。

TaskManager:Flink系統(tǒng)的業(yè)務(wù)執(zhí)行節(jié)點,執(zhí)行具體的用戶任務(wù)。TaskManager可以有多個,各個TaskManager都平等。

JobManager:Flink系統(tǒng)的管理節(jié)點,管理所有的TaskManager,并決策用戶任務(wù)在哪些Taskmanager執(zhí)行。JobManager在HA模式下可以有多個,但只有一個主JobManager。

Part 03  Flink on K8s部署模式 

Flink的部署方式有很多,支持Local,Standalone,Yarn,Docker,Kubernetes模式等。而根據(jù)Flink job的提交模式,又可以分為三種模式:

模式1:Application Mode

Flink提交的程序,被當(dāng)做集群內(nèi)部Application,不再需要Client端做繁重的準(zhǔn)備工作。(例如執(zhí)行main函數(shù),生成JobGraph,下載依賴并分發(fā)到各個節(jié)點等)。main函數(shù)被提交給JobManager執(zhí)行。一個Application一個Cluster實例。

模式2:Per-Job Mode

可以理解為 Client 模式的Application Mode,利用資源管理框架,例如Yarn,Mesos等,資源隔離性更強(qiáng)。一個Job一個Cluster實例。逐漸被廢棄。

模式3:Session Mode

也是由Client提交,做一些預(yù)備工作。但是Cluster的實例已經(jīng)被創(chuàng)建,是所有Job共享的。一個Job導(dǎo)致的JobManager失敗可能會導(dǎo)致所有的Job失敗。

總的來說,在k8s上可以運行以下四種模式:standalone session,standalone application, native session和native application。其特點如下:

根據(jù)以上特點,一般生產(chǎn)采用native application模式部署。其啟動流程圖如下:

1.首先創(chuàng)建出了 Service、Master 和 ConfigMap 這幾個資源以后,Flink Master Deployment 里面已經(jīng)帶了一個用戶 Jar,這個時候 Cluster Entrypoint 就會從用戶 Jar 里面去提取出或者運行用戶的 main,然后產(chǎn)生 JobGraph。之后再提交到 Dispatcher,由 Dispatcher 去產(chǎn)生 Master,然后再向 ResourceManager 申請資源,后面的邏輯的就和 Session 的方式是一樣的。

2.它和 Session 最大的差異就在于它是一步提交的。因為沒有了兩步提交的需求,如果不需要在任務(wù)起來以后訪問外部 UI,就可以不用外部的 Service??芍苯油ㄟ^一步提交使任務(wù)運行。通過本地的 port-forward 或者是用 K8s ApiServer 的一些 proxy 可以訪問 Flink 的 Web UI。此時,External Service 就不需要了,意味著不需要再占用一個 LoadBalancer 或者占用 NodePort。

Part 04  Flink on native k8s部署實戰(zhàn)

部署Flink之前需要一個正在運行的k8s集群,且滿足以下幾點需求:

  • Kubernetes >= 1.9。
  • KubeConfig,它可以列出、創(chuàng)建、刪除 Pod 和服務(wù),可通過 ~/.kube/config 進(jìn)行配置。您可以通過運行 kubectl auth can-i pods 來驗證權(quán)限。
  • 啟用 Kubernetes DNS。
  • 具有創(chuàng)建、刪除 Pod 的 RBAC 權(quán)限的默認(rèn)服務(wù)帳戶。

在有了以上的k8s集群后,接下去我們需要執(zhí)行以下步驟來啟動一個k8s native application任務(wù):

1.創(chuàng)建一個名字為flink-cluster的namespace

kubectl create namespace flink-cluster

2.創(chuàng)建一個賬戶

Kubectl create serviceaccount flink -n flink-cluster

3.Service account和角色綁定

kubectl create clusterrolebinding flink-role-binding-flink \
--clusterrole=edit \
--serviceaccount=flink-cluster:flink

4.編寫Dockerfile文件

# base image
FROM apache/flink:1.14.5-scala_2.11
RUN mkdir -p $FLINK_HOME/usrlib
RUN mkdir -p $FLINK_HOME/hadoopconf
COPY flink-1.14.5/examples/streaming/TopSpeedWindowing.jar $FLINK_HOME/usrlib/TopSpeedWindowing.jar
COPY core-site.xml $FLINK_HOME/hadoopconf
COPY hdfs-site.xml $FLINK_HOME/hadoopconf
# 添加hdfs的相關(guān)的jar,為了讀取hdfs
COPY flink-shaded-hadoop2-uber-2.8.3-1.8.3.jar $FLINK_HOME/lib
# 配置HADOOP_CONF_DIR為了獲取hadoop的core-site.xml and hdfs-site.xml ,因為checkpoint是存在hdfs的,需要讀寫hdfs
ENV HADOOP_CONF_DIR=$FLINK_HOME/hadoopconf:$HADOOP_CONF_DIR

5.打鏡像

docker build -t apache/flink:v0.1 .

打鏡像的目錄下存在的文件

core-site.xml
Dockerfile
flink-1.14.5
flink-shaded-hadoop2-uber-2.8.3-1.8.3.jar
hdfs-site.xml

6.啟動application mode的任務(wù)

./flink-1.14.5/bin/flink run-application \
--target kubernetes-application \
-Dkubernetes.namespace=flink-cluster \
-Dkubernetes.jobmanager.service-account=flink \
-Dkubernetes.cluster-id=my-first-application-cluster \
-Dkubernetes.high-availability=org.apache.flink.kubernetes.highavailability.KubernetesHaServicesFactory \
-Dkubernetes.cluster-id=my-first-application-cluster \
-Dhigh-availability.storageDir=hdfs://${your hdfs cluster name}/flink/recovery \
-Dkubernetes.container.image=apache/flink:v0.1 \
-Dkubernetes.rest-service.exposed.type=NodePort \
-Dstate.backend=rocksdb \
-Dstate.checkpoints.dir=hdfs://${your hdfs cluster name}/flink/flink-checkpoints \
-Dstate.backend.incremental=true \
local:///opt/flink/usrlib/TopSpeedWindowing.jar

啟動之后會在最后出現(xiàn)如下的日志,最后的地址就是該任務(wù)的web ui地址

2022-07-27 16:45:00,320 INFO  org.apache.flink.kubernetes.KubernetesClusterDescriptor      [] - Create flink application cluster my-first-application-cluster successfully, JobManager Web Interface: http://ip:port

啟動之后我們會看到k8s啟動了以下的flink的組件?

[root@master1 ~]# kubectl get svc -n flink-cluster
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
my-first-application-cluster ClusterIP None 6123/TCP,6124/TCP 1h
my-first-application-cluster-rest ClusterIP ip xxxx 8082/TCP 46h
[root@master1 ~]# kubectl get deployments -n flink-cluster
NAME READY UP-TO-DATE AVAILABLE AGE
my-first-application-cluster 1/1 1 1 1h
[root@master1 ~]# kubectl get pods -n flink-cluster
NAME READY STATUS RESTARTS AGE
my-first-application-cluster-7c4d9d7994-6vwjr 1/1 Running 0 1h
my-first-application-cluster-taskmanager-1-1 1/1 Running 0 461h

這樣,就表示Flink啟動成功了。我們看到在k8s上有2個pod,分別是jobmanger和taskmanger,一個service用于端口映射。

Part 05  Flink平臺k8s改造實踐

在k8s改造之前,我們已經(jīng)有了一個Flink計算平臺。其主要包含3個部分,web ui用于用戶提交SQL任務(wù)或者JAR任務(wù),web服務(wù)端用于解析SQL或者JAR,然后生成Flink Client提交命令,最后執(zhí)行命令提交任務(wù)到集群上去。

如上圖所示,我們的平臺已經(jīng)有Yarn和Standalone模式提交。那么支持云原生,只需要在原先基礎(chǔ)上增加一個native k8s提交方式即可。在代碼層面就是在提交任務(wù)抽象類上增加一個native k8s的實現(xiàn)。

下圖為具體的一個native k8s SQL任務(wù)提交頁面。只需要設(shè)置運行模式、運行參數(shù)和依賴的第三方j(luò)ar包,再加上具體的SQL腳本即可完成一個Flink任務(wù)的提交。

文獻(xiàn)來源

[1]Flink官網(wǎng),《Flink Documentation》

[2]Kubernetes官網(wǎng),《kubernetes Documentation》、

[3]騰訊云開發(fā)者社區(qū),《原生的在K8s上運行Flink》

[4]騰訊云開發(fā)者社區(qū),《Flink 1.13 在Native k8s的部署實踐》

[5]51CTO,《網(wǎng)易游戲 Flink SQL 平臺化實踐》?



當(dāng)前文章:基于云原生的Flink計算平臺實踐
標(biāo)題URL:http://www.5511xx.com/article/djgjhpi.html