原文链接:ewanvalentine.io ,翻译已获作者 Ewan Valentine 授权。
本节未细致介绍 Docker,更多可参考:《第一本Docker书 修订版》
前言 在上一篇中,我们使用 gRPC 初步实现了我们的微服务,本节将 Docker 化该微服务并引入 go-micro 框架代替 gRPC 简化服务的实现。
Docker 背景 占据着云计算的优势,微服务架构越来越流行,同时它的云端分布式的运行环境也对我们的开发、测试和部署提出了很高的要求,容器(container)便是一项解决方案。
在传统软件开发中,应用直接部署在环境和依赖都准备好的系统上,或在一台物理服务器上部署在由 Chef 或 Puppet 管理的虚拟集群里。这种部署方案不利于横向扩展,比如要部署多台物理服务器,需要都安装相同的依赖,再部署,很是麻烦。
vagrant 这类管理多个虚拟机的工具,虽然使项目的部署更为遍历,但每个虚拟机都运行有一个完整的操作系统,十分耗费宿主主机的资源,并不适合微服务的开发和部署。
容器 特性 容器 是精简版的操作系统,但并不运行一个 kernel 或系统底层相关的驱动,它只包含一些 run-time 必需的库,多个容器共享宿主主机的 kernel,多个容器之间相互隔离,互补影响。可参考:Redhat topic
优势 容器的运行环境只包含代码所需要的依赖,而不是使用完整的操作系统包含一大堆不需要的组件。此外,容器本身的体积相比虚拟机是比较小的,比如对比 ubuntu 16.04 优势不言而喻:
虚拟机大小
容器镜像大小
Docker 与容器 一般人会认为容器技术就是 Docker,实则不然,Docker 只是容器技术的一种实现,因为其操作简便且学习门槛低,所以如此流行。
Docker 化微服务 Dockerfile 创建微服务部署的 Dockerfile
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 FROM alpine:latestRUN mkdir /app WORKDIR /app ADD consignment-service /app/consignment-service CMD ["./consignment-service" ]
alpine 是一个超轻量级 Linux 发行版本,专为 Docker 中 Web 应用而生。它能保证绝大多数 web 应用可以正常运行,即使它只包含必要的 run-time 文件和依赖,镜像大小只有 4 MB,相比上边 Ubuntu16.4 节约了 99.7% 的空间:
由于 docker 镜像的超轻量级,在上边部署和运行微服务耗费的资源是很小的。
编译项目 为了在 alpine 上运行我们的微服务,向 Makefile 追加命令:
1 2 3 4 5 6 build: ... GOOS=linux GOARCH=amd64 go build docker build -t consignment-service .
需手动指定 GOOS
和 GOARCH
的值,否则在 macOS 上编译出的文件是无法在 alpine 容器中运行的。
其中 docker build
将程序的执行文件 consignment-service 及其所需的 run-time 环境打包成了一个镜像,以后在 docker 中直接 run
镜像即可启动该微服务。
你可以把你的镜像分享到 DockerHub ,二者的关系类比 npm 与 nodejs、composer 与 PHP,去 DockerHub 瞧一瞧,会发现很多优秀的开源软件都已 Docker 化,参考演讲:Willy Wonka of Containers
关于 Docker 构建镜像的细节,请参考书籍《第一本 Docker 书》第四章
运行 Docker 化后的微服务 继续在 Makefile 中追加命令:
1 2 3 4 5 6 build: ... run: docker run -p 50051:50051 consignment-service
由于 Docker 有自己独立的网络层,所以需要指定将容器的端口映射到本机的那个端口,使用 -p
参数即可指定,比如 -p 8080:50051
是将容器 50051端口映射到本机 8080 端口,注意顺序是反的。更多参考:Docker 文档
现在运行 make build && make run
即可在 docker 中运行我们的微服务,此时在本机执行微服务的客户端代码,将成功调用 docker 中的微服务:
Go-micro 为什么不继续使用 gRPC ? 管理麻烦 在客户端代码(consignment-cli/cli.go)中,我们手动指定了服务端的地址和端口,在本地修改不是很麻烦。但在生产环境中,各服务可能不在同一台主机上(分布式独立运行),其中任一服务重新部署后 IP 或运行的端口发生变化,其他服务将无法再调用它。如果你有很多个服务,彼此指定 IP 和端口来相互调用,那管理起来很麻烦
服务发现 为解决服务间的调用问题,服务发现(service discovery)出现了,它作为一个注册中心会记录每个微服务的 IP 和端口,各微服务上线时会在它那注册,下线时会注销,其他服务可通过名字或 ID 找到该服务类比门面模式。
为不重复造轮子,我们直接使用实现了服务注册的 go-micro 框架。
安装 1 2 go get -u github.com/micro/protobuf/proto go get -u github.com/micro/protobuf/protoc-gen-go
使用 go-micro 自己的编译器插件,在 Makefile 中修改 protoc 命令:
1 2 3 build: protoc -I. --go_out=plugins=micro:$(GOPATH) /src/shippy/consignment-service proto/consignment/consignment.proto
服务端使用 go-micro 你会发现重新生成的 consignment.pb.go 大有不同。修改服务端代码 main.go 使用 go-micro
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 package mainimport ( pb "shippy/consignment-service/proto/consignment" "context" "log" "github.com/micro/go-micro" ) type IRepository interface { Create(consignment *pb.Consignment) (*pb.Consignment, error ) GetAll() []*pb.Consignment } type Repository struct { consignments []*pb.Consignment } func (repo *Repository) Create(consignment *pb.Consignment) (*pb.Consignment, error ) { repo.consignments = append (repo.consignments, consignment) return consignment, nil } func (repo *Repository) GetAll() []*pb.Consignment { return repo.consignments } type service struct { repo Repository } func (s *service) CreateConsignment(ctx context.Context, req *pb.Consignment, resp *pb.Response) error { consignment, err := s.repo.Create(req) if err != nil { return err } resp = &pb.Response{Created: true , Consignment: consignment} return nil } func (s *service) GetConsignments(ctx context.Context, req *pb.GetRequest, resp *pb.Response) error { allConsignments := s.repo.GetAll() resp = &pb.Response{Consignments: allConsignments} return nil } func main () { server := micro.NewService( micro.Name("go.micro.srv.consignment" ), micro.Version("latest" ), ) server.Init() repo := Repository{} pb.RegisterShippingServiceHandler(server.Server(), &service{repo}) if err := server.Run(); err != nil { log.Fatalf("failed to serve: %v" , err) } }
go-micro 的实现相比 gRPC 有 3 个主要的变化:
创建 RPC 服务器的流程 micro.NewService(...Option)
简化了微服务的注册流程, micro.Run()
也简化了 gRPCServer.Serve()
,不再需要手动创建 TCP 连接并监听。
微服务的 interface 注意看代码中第 47、59 行,会发现 go-micro 将响应参数 Response 提到了入参,只返回 error,整合了 gRPC 的 四种运行模式
运行地址的管理 服务的监听端口没有在代码中写死,go-mirco 会自动使用系统或命令行中变量 MICRO_SERVER_ADDRESS
的地址
对应更新一下 Makefile
1 2 3 4 5 run: docker run -p 50051:50051 \ -e MICRO_SERVER_ADDRESS=:50051 \ -e MICRO_REGISTRY=mdns \ consignment-service
-e 选项用于设置镜像中的环境变量,其中 MICRO_REGISTRY=mdns
会使 go-micro 在本地使用 mdns 多播作为服务发现的中间层。在生产环境一般会使用 Consul 或 Etcd 代替 mdns 做服务发现,在本地开发先一切从简。
现在执行 make build && make run
,你的 consignment-service 就有服务发现的功能了。
客户端使用 go-micro 我们需要更新一下客户端的代码,使用 go-micro 来调用微服务:
1 2 3 4 5 6 func main () { cmd.Init() client := pb.NewShippingServiceClient("go.micro.srv.consignment" , microclient.DefaultClient) ... }
现在运行 go run cli.go
会报错:
因为服务端运行在 Docker 中,而 Docker 有自己独立的 mdns,与宿主主机 Mac 的 mdns 不一致。把客户端也 Docker 化,这样服务端与客户端就在同一个网络层下,顺利使用 mdns 做服务发现。
Docker 化客户端 创建客户端的 Dokerfile
1 2 3 4 5 6 7 8 9 FROM alpine:latestRUN mkdir -p /app WORKDIR /app ADD consignment.json /app/consignment.json ADD consignment-cli /app/consignment-cli CMD ["./consignment-cli" ]
创建文件 consignment-cli/Makefile
1 2 3 4 5 build: GOOS=linux GOARCH=amd64 go build docker build -t consignment-cli . run: docker run -e MICRO_REGISTRY=mdns consignment-cli
调用微服务 执行 make build && make run
,即可看到客户端成功调用 RPC:
注明:译者的代码暂时未把 Golang 集成到 Dockerfile 中,读者有兴趣可参考原文。
VesselService 上边的 consignment-service 负责记录货物的托运信息,现在创建第二个微服务 vessel-service 来选择合适的货轮来运送货物,关系如下:
consignment.json 文件中的三个集装箱组成的货物,目前可以通过 consignment-service 管理货物的信息,现在用 vessel-service 去检查货轮是否能装得下这批货物。
创建 protobuf 文件 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 syntax = "proto3" ; package go.micro.srv.vessel;service VesselService { rpc FindAvailable (Specification) returns (Response) { } } message Vessel { string id = 1 ; int32 capacity = 2 ; int32 max_weight = 3 ; string name = 4 ; bool available = 5 ; string ower_id = 6 ; } message Specification { int32 capacity = 1 ; int32 max_weight = 2 ; } message Response { Vessel vessel = 1 ; repeated Vessel vessels = 2 ; }
创建 Makefile 与 Dockerfile 现在创建 vessel-service/Makefile
来编译项目:
1 2 3 4 5 6 7 8 build: protoc -I. --go_out=plugins=micro:$(GOPATH) /src/shippy/vessel-service proto/vessel/vessel.proto GOOS=linux GOARCH=amd64 go build docker build -t vessel-service . run: docker run -p 50052:50051 -e MICRO_SERVER_ADDRESS=:50051 -e MICRO_REGISTRY=mdns vessel-service
注意第二个微服务运行在宿主主机(macOS)的 50052 端口,50051 已被第一个占用。
现在创建 Dockerfile 来容器化 vessel-service:
1 2 3 4 5 6 FROM alpine:latestRUN mkdir /app WORKDIR /app ADD vessel-service /app/vessel-service CMD ["./vessel-service" ]
实现货船微服务的逻辑 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 package mainimport ( pb "shippy/vessel-service/proto/vessel" "github.com/pkg/errors" "context" "github.com/micro/go-micro" "log" ) type Repository interface { FindAvailable(*pb.Specification) (*pb.Vessel, error ) } type VesselRepository struct { vessels []*pb.Vessel } func (repo *VesselRepository) FindAvailable(spec *pb.Specification) (*pb.Vessel, error ) { for _, v := range repo.vessels { if v.Capacity >= spec.Capacity && v.MaxWeight >= spec.MaxWeight { return v, nil } } return nil , errors.New("No vessel can't be use" ) } type service struct { repo Repository } func (s *service) FindAvailable(ctx context.Context, spec *pb.Specification, resp *pb.Response) error { v, err := s.repo.FindAvailable(spec) if err != nil { return err } resp.Vessel = v return nil } func main () { vessels := []*pb.Vessel{ {Id: "vessel001" , Name: "Boaty McBoatface" , MaxWeight: 200000 , Capacity: 500 }, } repo := &VesselRepository{vessels} server := micro.NewService( micro.Name("go.micro.srv.vessel" ), micro.Version("latest" ), ) server.Init() pb.RegisterVesselServiceHandler(server.Server(), &service{repo}) if err := server.Run(); err != nil { log.Fatalf("failed to serve: %v" , err) } }
货运服务与货船服务交互 现在需要修改 consignent-service/main.go
,使其作为客户端去调用 vessel-service,查看有没有合适的轮船来运输这批货物。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 package mainimport (...)type service struct { repo Repository vesselClient vesselPb.VesselServiceClient } func (s *service) CreateConsignment(ctx context.Context, req *pb.Consignment, resp *pb.Response) error { vReq := &vesselPb.Specification{ Capacity: int32 (len (req.Containers)), MaxWeight: req.Weight, } vResp, err := s.vesselClient.FindAvailable(context.Background(), vReq) if err != nil { return err } log.Printf("found vessel: %s\n" , vResp.Vessel.Name) req.VesselId = vResp.Vessel.Id consignment, err := s.repo.Create(req) if err != nil { return err } resp.Created = true resp.Consignment = consignment return nil } func main () { server.Init() repo := Repository{} vClient := vesselPb.NewVesselServiceClient("go.micro.srv.vessel" , server.Client()) pb.RegisterShippingServiceHandler(server.Server(), &service{repo, vClient}) if err := server.Run(); err != nil { log.Fatalf("failed to serve: %v" , err) } }
增加货物并运行 更新 consignment-cli/consignment.json
中的货物,塞入三个集装箱,重量和容量都变大。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 { "description" : "This is a test consignment" , "weight" : 55000 , "containers" : [ { "customer_id" : "cust001" , "user_id" : "user001" , "origin" : "Manchester, United Kingdom" } , { "customer_id" : "cust002" , "user_id" : "user001" , "origin" : "Derby, United Kingdom" } , { "customer_id" : "cust005" , "user_id" : "user001" , "origin" : "Sheffield, United Kingdom" } ] }
至此,我们完整的将 consignment-cli,consignment-service,vessel-service 三者流程跑通了。
客户端用户请求托运货物,货运服务向货船服务检查容量、重量是否超标,再运送:
总结 本节中将更为易用的 go-micro 替代了 gRPC 同时进行了微服务的 Docker 化。最后创建了 vessel-service 货轮微服务来运送货物,并成功与货轮微服务进行了通信。
不过货物数据都是存放在文件 consignment.json 中的,第三节我们将这些数据存储到 MongoDB 数据库中,并在代码中使用 ORM 对数据进行操作,同时使用 docker-compose 来统一 Docker 化后的两个微服务。