- Published on
这可能是网络上唯一一篇给前端写的Docker+Node.js+Nginx+Mongo的本地开发+部署教程
- Authors
- Name
- Hansuku
本文由 Han 和运维小哥哥哼哼合力研究发出
当前端需要往更高的方向需要进阶的时候,就需要抢一点的后端的饭碗了,从前一些很简单的需求都需要求着后端给,不妨自己尝试着做一些微服务,来完成一些轻量级的服务端任务吧。
这篇文章面对的是对于前端、计算机领域已经相对熟悉的同学,你需要有计算机的基础常识(了解系统、镜像、linux)。此外,本文不会深入去讲解理论知识,看理论知识不如去爬官网文档。如果你已经了解过 Docker,只是在寻找一种解决方案,可以直接跳到编写 Docker-Compose 的地方。
另外,我已经准备好了一个模板库,可以根据这个模板库来作为基底来构建你的项目
粗暴的讲一下 Docker
还记得在上学的时候学校机房里的 VMware Workstation
吗?他可以让我们在 windows 或 mac 上运行许多系统的虚拟机,而VMware Workstation
里重要的一个概念就是宿主机-虚拟机
。
初学者可以先把Docker
理解为跟VMware Workstation
类似的产品,但如果需要深究他们区别在哪,我们则需要记住:他们相似的仅仅是提供了在系统上运行另外一个隔离系统。
通常情况下,虚拟机的性能相对差,对电脑配置、服务器配置本身要求高,而Docker
降低了那个门槛,性能接近裸机。
安装 Docker
如果是你 MacOS 或 Windows ,直接下载Docker Desktop,下载很慢的话,可以去 DaoCloud。 如果是 linux 的话,需要以下几个步骤,如果你的服务器没有yum
的话,需要先去安装 yum
,安装yum
篇幅不小就不在这边展开。 以防万一,清理 Docker
sudo yum remove docker \
docker-client \
docker-client-latest \
docker-common \
docker-latest \
docker-latest-logrotate \
docker-logrotate \
docker-selinux \
docker-engine-selinux \
docker-engine
安装依赖
sudo yum install -y yum-utils device-mapper-persistent-data lvm2
设置 yum 源(可以任意其他的,我这里用的阿里)
sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
更新缓存
sudo yum makecache fast
安装 Docker-ce(CE 是指社区版,不要钱)
sudo yum -y install docker-ce
启动 Docker
sudo systemctl start docker
测试命令
docker -v
到这里安装就完成了。下面我们开始安装 Docker-Compose
Docker-Compose
传统的Docker
,一个容器需要一个Dockerfile
来描述,如果说一个项目比较大,用到了较多的技术,就会有很多个容器,如果需要挨个执行 Dockerfile
,甚至启动的时候也是挨个去启动,开发会累死,运维也会累死。Docker-Compose
解决了这个问题,为每个项目提供一个描述文件,并且批处理项目中的所有容器。 安装 docker-compose
curl -L https://get.daocloud.io/docker/compose/releases/download/1.22.0/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
验证
$ docker-compose -v
> docker-compose version 1.24.1, build 4667896b
项目架构
首先看一下我们项目目录是如何编排的,需要注意的是,项目存放的位置对于 Docker 的配置是有影响的。我们的 node
框架使用了阿里的Egg.js
.
├── docker-compose.yml // docker-compose 配置入口
├── logs // 日志存放位置
│ └── nginx
│ ├── access.log
│ └── error.log
├── mongo // mongo 配置入口
│ ├── Dockerfile
│ └── mongo.conf
├── nginx // nginx 配置
│ ├── cert
│ ├── conf.d
│ │ └── MicroServer.conf
│ ├── Dockerfile
│ └── nginx.conf
└── node // node 项目存放目录
├── Dockerfile
└── Microservice // 项目目录 以下为 Egg 的架构目录
├── app
│ ├── controller
│ ├── database
│ │ ├── init.js
│ │ └── schemas
│ ├── extend
│ │ └── application.js
│ ├── middleware
│ │ ├── gzip.js
│ │ └── jwt_error_handler.js
│ ├── public
│ └── router.js
├── app.js
├── appveyor.yml
├── config
│ ├── config.default.js
│ └── plugin.js
├── config.js
├── jsconfig.json
├── logs
├── node_modules
├── package.json
├── README.md
├── test
└── typings
整体上架构比较清晰,这边我们打算给每一个程序都单独起一个容器,node
是 node
的,nginx
是 nginx
的,mongo
是 mongo
的。Do it,上大菜。
nginx 的 Dockerfile
FROM nginx:alpine
# 拷贝 nginx 全局配置文件
COPY nginx.conf /etc/nginx/
# apk 国内源
RUN sed -i 's/dl-cdn.alpinelinux.org/mirrors.aliyun.com/' /etc/apk/repositories
# 安装 nginx
RUN apk update \
&& apk upgrade \
&& apk add --no-cache openssl \
&& apk add --no-cache bash
# 起 nginx
CMD nginx
EXPOSE 80 443
node 的 Dockerfile
FROM node:10.16.3-alpine
## 拷贝项目文件进行构建
WORKDIR /app/Microservice
COPY ./Microservice/package.json ./
RUN npm install --registry=https://registry.npm.taobao.org
COPY ./Microservice/* ./
CMD ["npm","run","dev"]
EXPOSE 7001
需要注意的是,这里我们跑的是npm run dev
,因为 docker 的进程需要你的程序跑在前台,如果用了npm run start
,容器内没有东西持续占用输出,会导致容器认为程序已经执行完毕。 另外这里我们单独把 package.json
拷了一份,是为了应对下面我们需要单独为node_modules
创建一个卷而做的。
mongo 的 Dockerfile
FROM mongo:latest
COPY mongo.conf /usr/local/etc/mongo/mongo.conf
VOLUME /data/db /data/configdb
CMD ["mongod"]
EXPOSE 27017
在 docker-compose.yml 中编写 Node/Nginx/Mongo 的配置文件
version: "3"
networks: # 自定义网络
my-network: # 网络名字
driver: bridge # 由网关驱动
volumes: # 创建自定义卷
node_modules: # 卷名
mongo_data:
services: # 定义每个服务的容器
### nginx #################
nginx: # nginx 容器 这里的名字可以当做变量使用
build: # 定义需要构建的内容
context: ./nginx # 选取 nginx 文件夹
ports: # 映射端口
- 80:80
- 443:443
volumes: # 挂载文件夹,配置我们可以写在宿主机,然后挂载进去
- ./nginx/conf.d:/etc/nginx/conf.d
- ./nginx/cert:/etc/nginx/cret
- ./logs/nginx:/var/log/nginx
restart: always # 服务挂了的时候始终自动重启
depends_on: # 定义容器启动顺序 附带容器间的依赖关系
- nodejs
networks: # 使用我们上面定义的网络
- my-network
### node ##############
nodejs:
build:
context: ./node # 构建 node 目录 他会去 node 下面寻找 Dockerfile
ports:
- 127.0.0.1:7001:7001 # 映射 7001
volumes:
- ./node/Microservice:/app/Microservice # 项目文件映射
- node_modules:/app/Microservice/node_modules # 单独处理 node_modules
restart: always
depends_on:
- mongo
networks:
- my-network
### mongoDB ########################
mongo:
build:
context: ./mongo
ports:
- 127.0.0.1:27017:27017
volumes:
- mongo_data:/data/db # 这里的 mongo_data 用的是上面的自定卷
restart: always
networks:
- my-network
以上有几个点需要注意:
内部端口防火墙 ports
端口的地方,如果我们在前面的端口前加上127.0.0.1
,docker 会阻止外网访问这个端口,只允许内部访问,像上面我们给数据库和 node 加了,正常数据库是不允许外网访问的,node
我们也用 nginx
做过了代理所以不需要直接访问,你可以根据自己的需要来决定是否开放。
node_modules
单独处理 nodejs
的node_modules
需要单独处理,这里是为了我们本地开发的时候用的,当我们在本地开发的时候,容器起来了,我们去写业务代码,不需要再 build 容器,docker 会自动映射进去,但 node_modules
是我们每次执行 node
的npm run build
跑出来的,这个文件夹只会在容器内产生,不会在宿主机产生,而我们更改宿主机的业务代码需要自动同步到容器内,这个同步的操作因为我们宿主机是没有node_modules
的,那么同步的时候也会导致容器里的node_modules
也没了,代码就不能正常运行。把node_modules
作为独立卷拎出来以后,除开需要更新依赖包包我们要重新 build
,正常更改应用代码只需要保存即可。
运行
OK,至此你的环境基本上是准备好了,执行
docker-compose up -d
看看是否在正常跑
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
4bedfab2a306 front-end-microservice_nginx "/bin/sh -c nginx" 18 seconds ago Up 15 seconds 0.0.0.0:80->80/tcp, 0.0.0.0:443->443/tcp front-end-microservice_nginx_1
d1d539672df5 front-end-microservice_nodejs "docker-entrypoint.s…" 20 seconds ago Up 18 seconds 127.0.0.1:7001->7001/tcp front-end-microservice_nodejs_1
8f1b1401a4dc front-end-microservice_mongo "docker-entrypoint.s…" 24 seconds ago Up 20 seconds 127.0.0.1:27017->27017/tcp front-end-microservice_mongo_1
完成,你的项目应该跑起来了,接下来送佛送到西,我们配上 mongo 看看 进入 mongo 的容器
docker exec -it front-end-microservice_mongo_1 /bin/sh
进入到容器后打开mongo shell
$ mongo
// 用户表
> use admin
// 创建管理员
> db.createUser(
{
user: "admin", // 用户名
pwd: "admin", // 密码
roles: [ { role: "userAdminAnyDatabase", db: "admin" } ]
}
)
> use test // 创建 test 数据库
> db.createUser( // 创建 test 库账号
{
user: "test",
pwd: "test",
roles: [
{ role: "readWrite", db: "test" } #读写帐号
]
}
)
ok ,然后打开你的 mongo 连接工具,我这边用的是 mongo 官方的 MongoDB Compass 链接成功即可 然后本地用 Postman 访问 127.0.01:7001 ,你的任意一个接口 配置已经完成。
部署上线
得益于 Docker,我们部署上线,只需要在服务器上也安装好 Docker、docker-compose,然后跑一局
docker-compose up -d
其他要修改的,无非是你的配置,如 nodejs 里链接数据库的域名、端口,额外说一下,由于我们用 docker-compose 注册了 mongo 的变量名,所以在 nodejs 中,我们可以直接使用 mongo 这个名字充当主机名
DB_USER=test
DB_PASSWD=#test
DB_HOST=mongo
DB_PORT=27017
DB_NAME=test
这样他会自动链接跟 node 在一起的本地 mongo。