Published on

这可能是网络上唯一一篇给前端写的Docker+Node.js+Nginx+Mongo的本地开发+部署教程

Authors
  • avatar
    Name
    Hansuku
    Twitter

本文由 Han 和运维小哥哥哼哼合力研究发出

当前端需要往更高的方向需要进阶的时候,就需要抢一点的后端的饭碗了,从前一些很简单的需求都需要求着后端给,不妨自己尝试着做一些微服务,来完成一些轻量级的服务端任务吧。

这篇文章面对的是对于前端、计算机领域已经相对熟悉的同学,你需要有计算机的基础常识(了解系统、镜像、linux)。此外,本文不会深入去讲解理论知识,看理论知识不如去爬官网文档。如果你已经了解过 Docker,只是在寻找一种解决方案,可以直接跳到编写 Docker-Compose 的地方。

另外,我已经准备好了一个模板库,可以根据这个模板库来作为基底来构建你的项目

粗暴的讲一下 Docker

还记得在上学的时候学校机房里的 VMware Workstation 吗?他可以让我们在 windows 或 mac 上运行许多系统的虚拟机,而VMware Workstation里重要的一个概念就是宿主机-虚拟机

初学者可以先把Docker理解为跟VMware Workstation类似的产品,但如果需要深究他们区别在哪,我们则需要记住:他们相似的仅仅是提供了在系统上运行另外一个隔离系统。

通常情况下,虚拟机的性能相对差,对电脑配置、服务器配置本身要求高,而Docker降低了那个门槛,性能接近裸机。

安装 Docker

如果是你 MacOS 或 Windows ,直接下载Docker Desktop,下载很慢的话,可以去 DaoCloud。 如果是 linux 的话,需要以下几个步骤,如果你的服务器没有yum的话,需要先去安装 yum,安装yum篇幅不小就不在这边展开。 以防万一,清理 Docker

sudo yum remove docker \
				docker-client \
                docker-client-latest \
                docker-common \
                docker-latest \
                docker-latest-logrotate \
                docker-logrotate \
                docker-selinux \
                docker-engine-selinux \
                docker-engine

安装依赖

sudo yum install -y yum-utils device-mapper-persistent-data lvm2

设置 yum 源(可以任意其他的,我这里用的阿里)

sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

更新缓存

sudo yum makecache fast

安装 Docker-ce(CE 是指社区版,不要钱)

sudo yum -y install docker-ce

启动 Docker

sudo systemctl start docker

测试命令

docker -v

到这里安装就完成了。下面我们开始安装 Docker-Compose

Docker-Compose

传统的Docker,一个容器需要一个Dockerfile来描述,如果说一个项目比较大,用到了较多的技术,就会有很多个容器,如果需要挨个执行 Dockerfile,甚至启动的时候也是挨个去启动,开发会累死,运维也会累死。Docker-Compose解决了这个问题,为每个项目提供一个描述文件,并且批处理项目中的所有容器。 安装 docker-compose

curl -L https://get.daocloud.io/docker/compose/releases/download/1.22.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose

验证

$ docker-compose -v
> docker-compose version 1.24.1, build 4667896b

项目架构

首先看一下我们项目目录是如何编排的,需要注意的是,项目存放的位置对于 Docker 的配置是有影响的。我们的 node 框架使用了阿里的Egg.js

.
├── docker-compose.yml // docker-compose 配置入口
├── logs // 日志存放位置
│   └── nginx
│       ├── access.log
│       └── error.log
├── mongo // mongo 配置入口
│   ├── Dockerfile
│   └── mongo.conf
├── nginx // nginx 配置
│   ├── cert
│   ├── conf.d
│   │   └── MicroServer.conf
│   ├── Dockerfile
│   └── nginx.conf
└── node // node 项目存放目录
    ├── Dockerfile
    └── Microservice // 项目目录 以下为 Egg 的架构目录
        ├── app
        │   ├── controller
        │   ├── database
        │   │   ├── init.js
        │   │   └── schemas
        │   ├── extend
        │   │   └── application.js
        │   ├── middleware
        │   │   ├── gzip.js
        │   │   └── jwt_error_handler.js
        │   ├── public
        │   └── router.js
        ├── app.js
        ├── appveyor.yml
        ├── config
        │   ├── config.default.js
        │   └── plugin.js
        ├── config.js
        ├── jsconfig.json
        ├── logs
        ├── node_modules
        ├── package.json
        ├── README.md
        ├── test
        └── typings

整体上架构比较清晰,这边我们打算给每一个程序都单独起一个容器,nodenode的,nginxnginx 的,mongomongo 的。Do it,上大菜。

nginx 的 Dockerfile

FROM nginx:alpine

# 拷贝 nginx 全局配置文件
COPY nginx.conf /etc/nginx/

# apk 国内源
RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.aliyun.com/' /etc/apk/repositories

# 安装 nginx
RUN apk update \
    && apk upgrade \
    && apk add --no-cache openssl \
    && apk add --no-cache bash

# 起 nginx
CMD nginx

EXPOSE 80 443

node 的 Dockerfile

FROM node:10.16.3-alpine

## 拷贝项目文件进行构建
WORKDIR /app/Microservice
COPY ./Microservice/package.json ./
RUN npm install --registry=https://registry.npm.taobao.org

COPY ./Microservice/* ./

CMD ["npm","run","dev"]

EXPOSE 7001

需要注意的是,这里我们跑的是npm run dev,因为 docker 的进程需要你的程序跑在前台,如果用了npm run start,容器内没有东西持续占用输出,会导致容器认为程序已经执行完毕。 另外这里我们单独把 package.json 拷了一份,是为了应对下面我们需要单独为node_modules创建一个卷而做的。

mongo 的 Dockerfile

FROM mongo:latest

COPY mongo.conf /usr/local/etc/mongo/mongo.conf

VOLUME /data/db /data/configdb

CMD ["mongod"]

EXPOSE 27017

在 docker-compose.yml 中编写 Node/Nginx/Mongo 的配置文件

version: "3"

networks:				# 自定义网络
  my-network:           # 网络名字
    driver: bridge      # 由网关驱动

volumes:                # 创建自定义卷
    node_modules:       # 卷名
    mongo_data:

services:               # 定义每个服务的容器

### nginx #################
  nginx:                # nginx 容器 这里的名字可以当做变量使用
    build:              # 定义需要构建的内容
      context: ./nginx  # 选取 nginx 文件夹
    ports:              # 映射端口
      -  80:80
      -  443:443
    volumes:            # 挂载文件夹,配置我们可以写在宿主机,然后挂载进去
      - ./nginx/conf.d:/etc/nginx/conf.d
      - ./nginx/cert:/etc/nginx/cret
      - ./logs/nginx:/var/log/nginx
    restart: always     # 服务挂了的时候始终自动重启
    depends_on:         # 定义容器启动顺序 附带容器间的依赖关系
      - nodejs
    networks:           # 使用我们上面定义的网络
      - my-network

### node ##############
  nodejs:
    build:
      context: ./node   # 构建 node 目录 他会去 node 下面寻找 Dockerfile
    ports:
      - 127.0.0.1:7001:7001    # 映射 7001
    volumes:
      - ./node/Microservice:/app/Microservice    # 项目文件映射
      - node_modules:/app/Microservice/node_modules    # 单独处理 node_modules
    restart: always
    depends_on:
      - mongo
    networks:
      - my-network

### mongoDB ########################
  mongo:
    build:
      context: ./mongo
    ports:
      - 127.0.0.1:27017:27017
    volumes:
      - mongo_data:/data/db    # 这里的 mongo_data 用的是上面的自定卷
    restart: always
    networks:
      - my-network

以上有几个点需要注意:

内部端口防火墙 ports 端口的地方,如果我们在前面的端口前加上127.0.0.1,docker 会阻止外网访问这个端口,只允许内部访问,像上面我们给数据库和 node 加了,正常数据库是不允许外网访问的,node 我们也用 nginx 做过了代理所以不需要直接访问,你可以根据自己的需要来决定是否开放。

node_modules单独处理 nodejsnode_modules需要单独处理,这里是为了我们本地开发的时候用的,当我们在本地开发的时候,容器起来了,我们去写业务代码,不需要再 build 容器,docker 会自动映射进去,但 node_modules 是我们每次执行 nodenpm run build跑出来的,这个文件夹只会在容器内产生,不会在宿主机产生,而我们更改宿主机的业务代码需要自动同步到容器内,这个同步的操作因为我们宿主机是没有node_modules的,那么同步的时候也会导致容器里的node_modules也没了,代码就不能正常运行。把node_modules作为独立卷拎出来以后,除开需要更新依赖包包我们要重新 build,正常更改应用代码只需要保存即可。

运行

OK,至此你的环境基本上是准备好了,执行

docker-compose up -d

看看是否在正常跑

CONTAINER ID        IMAGE                           COMMAND                  CREATED             STATUS              PORTS                                      NAMES
4bedfab2a306        front-end-microservice_nginx    "/bin/sh -c nginx"       18 seconds ago      Up 15 seconds       0.0.0.0:80->80/tcp, 0.0.0.0:443->443/tcp   front-end-microservice_nginx_1
d1d539672df5        front-end-microservice_nodejs   "docker-entrypoint.s…"   20 seconds ago      Up 18 seconds       127.0.0.1:7001->7001/tcp                   front-end-microservice_nodejs_1
8f1b1401a4dc        front-end-microservice_mongo    "docker-entrypoint.s…"   24 seconds ago      Up 20 seconds       127.0.0.1:27017->27017/tcp                 front-end-microservice_mongo_1

完成,你的项目应该跑起来了,接下来送佛送到西,我们配上 mongo 看看 进入 mongo 的容器

docker exec -it front-end-microservice_mongo_1 /bin/sh

进入到容器后打开mongo shell

$ mongo
// 用户表
> use admin
// 创建管理员
> db.createUser(
{
    user: "admin",    // 用户名
    pwd: "admin",     // 密码
        roles: [ { role: "userAdminAnyDatabase", db: "admin" } ]
}
)
> use test // 创建 test 数据库
> db.createUser( // 创建 test 库账号
{
    user: "test",
    pwd: "test",
    roles: [
        { role: "readWrite", db: "test" }   #读写帐号
    ]
}
)

ok ,然后打开你的 mongo 连接工具,我这边用的是 mongo 官方的 MongoDB Compass mongodb compass 链接成功即可 mongodb compass 然后本地用 Postman 访问 127.0.01:7001 ,你的任意一个接口 postman 配置已经完成。

部署上线

得益于 Docker,我们部署上线,只需要在服务器上也安装好 Docker、docker-compose,然后跑一局

docker-compose up -d

其他要修改的,无非是你的配置,如 nodejs 里链接数据库的域名、端口,额外说一下,由于我们用 docker-compose 注册了 mongo 的变量名,所以在 nodejs 中,我们可以直接使用 mongo 这个名字充当主机名

DB_USER=test
DB_PASSWD=#test
DB_HOST=mongo
DB_PORT=27017
DB_NAME=test

这样他会自动链接跟 node 在一起的本地 mongo。

*/}