- VisualStudio2022插件的安装及使用-编程手把手系列文章
- pprof-在现网场景怎么用
- C#实现的下拉多选框,下拉多选树,多级节点
- 【学习笔记】基础数据结构:猫树
本文分享自华为云社区《Python微服务与容器化实践详解【从基础到高级应用】》,作者: 柠檬味拥抱.
在现代软件开发中,容器化和微服务架构已经成为主流。容器化技术使得应用程序可以在任何环境中一致运行,而微服务架构通过将应用拆分成多个独立的服务,从而提升了系统的可扩展性和维护性。本文将介绍如何在Python中实践容器化和微服务架构,并提供相关代码实例.
容器化技术主要依赖于Docker。Docker通过将应用及其依赖打包在一个独立的环境中,确保应用在不同环境中的一致性。以下是一个简单的Python应用Docker化的例子.
首先,我们创建一个简单的Flask应用.
# app.py from flask import Flask app = Flask(__name__) @app.route('/') def hello_world(): return 'Hello, Docker!' if __name__ == '__main__': app.run(host='0.0.0.0', port=5000)
接下来,我们创建一个Dockerfile来定义这个应用的容器.
# 使用官方Python基础镜像 FROM python:3.9-slim # 设置工作目录 WORKDIR /app # 复制当前目录内容到工作目录 COPY . /app # 安装依赖 RUN pip install flask # 暴露应用端口 EXPOSE 5000 # 运行应用 CMD ["python", "app.py"]
构建Docker镜像:
docker build -t python-flask-app .
运行容器:
docker run -d -p 5000:5000 python-flask-app
现在,可以在浏览器中访问http://localhost:5000,你将看到"Hello, Docker!".
微服务架构将一个单体应用拆分为多个独立的服务,每个服务负责特定的功能。这些服务通过HTTP或消息队列进行通信。以下示例展示了如何使用Flask构建简单的微服务架构.
# user_service.py from flask import Flask, jsonify app = Flask(__name__) @app.route('/users') def get_users(): users = [ {'id': 1, 'name': 'Alice'}, {'id': 2, 'name': 'Bob'} ] return jsonify(users) if __name__ == '__main__': app.run(host='0.0.0.0', port=5001)
# order_service.py from flask import Flask, jsonify app = Flask(__name__) @app.route('/orders') def get_orders(): orders = [ {'id': 1, 'item': 'Laptop', 'price': 1200}, {'id': 2, 'item': 'Phone', 'price': 800} ] return jsonify(orders) if __name__ == '__main__': app.run(host='0.0.0.0', port=5002)
为了管理多个容器,我们使用Docker Compose.
# docker-compose.yml version: '3' services: user-service: build: context: . dockerfile: Dockerfile-user ports: - "5001:5001" order-service: build: context: . dockerfile: Dockerfile-order ports: - "5002:5002"
构建并启动服务:
docker-compose up --build
现在,用户服务和订单服务分别运行在http://localhost:5001/users和http://localhost:5002/orders.
在微服务架构中,服务之间的通信通常通过HTTP或消息队列进行。以下示例展示了如何使用HTTP通信.
创建一个API网关来整合用户服务和订单服务.
# api_gateway.py from flask import Flask, jsonify import requests app = Flask(__name__) @app.route('/users') def get_users(): response = requests.get('http://user-service:5001/users') return jsonify(response.json()) @app.route('/orders') def get_orders(): response = requests.get('http://order-service:5002/orders') return jsonify(response.json()) if __name__ == '__main__': app.run(host='0.0.0.0', port=5000)
将API网关添加到Docker Compose文件中.
version: '3' services: user-service: build: context: . dockerfile: Dockerfile-user ports: - "5001:5001" order-service: build: context: . dockerfile: Dockerfile-order ports: - "5002:5002" api-gateway: build: context: . dockerfile: Dockerfile-gateway ports: - "5000:5000"
现在,可以通过API网关访问用户服务和订单服务:
http://localhost:5000/users
http://localhost:5000/orders
在微服务架构中,服务发现和负载均衡是关键组件。服务发现用于跟踪运行中的服务实例,负载均衡则在多个服务实例之间分发请求。以下示例展示了如何在Python微服务架构中实现服务发现和负载均衡.
Consul是一个流行的服务发现和配置工具。我们将使用Consul来注册和发现我们的服务.
首先,启动Consul代理:
docker run -d --name=consul -p 8500:8500 consul
我们需要在每个服务启动时将其注册到Consul。可以使用Python的requests库进行注册.
在user_service.py中添加注册逻辑:
# user_service.py import requests from flask import Flask, jsonify app = Flask(__name__) @app.route('/users') def get_users(): users = [ {'id': 1, 'name': 'Alice'}, {'id': 2, 'name': 'Bob'} ] return jsonify(users) def register_service(): payload = { "ID": "user-service", "Name": "user-service", "Address": "user-service", "Port": 5001 } requests.put('http://consul:8500/v1/agent/service/register', json=payload) if __name__ == '__main__': register_service() app.run(host='0.0.0.0', port=5001)
在order_service.py中添加注册逻辑:
# order_service.py import requests from flask import Flask, jsonify app = Flask(__name__) @app.route('/orders') def get_orders(): orders = [ {'id': 1, 'item': 'Laptop', 'price': 1200}, {'id': 2, 'item': 'Phone', 'price': 800} ] return jsonify(orders) def register_service(): payload = { "ID": "order-service", "Name": "order-service", "Address": "order-service", "Port": 5002 } requests.put('http://consul:8500/v1/agent/service/register', json=payload) if __name__ == '__main__': register_service() app.run(host='0.0.0.0', port=5002)
更新Docker Compose文件以包含Consul服务,并确保其他服务可以访问Consul.
version: '3' services: consul: image: consul ports: - "8500:8500" user-service: build: context: . dockerfile: Dockerfile-user depends_on: - consul environment: - CONSUL_HTTP_ADDR=consul:8500 ports: - "5001:5001" order-service: build: context: . dockerfile: Dockerfile-order depends_on: - consul environment: - CONSUL_HTTP_ADDR=consul:8500 ports: - "5002:5002" api-gateway: build: context: . dockerfile: Dockerfile-gateway depends_on: - consul - user-service - order-service environment: - CONSUL_HTTP_ADDR=consul:8500 ports: - "5000:5000"
为了实现负载均衡,可以使用Traefik,它是一个现代的HTTP反向代理和负载均衡器.
首先,添加Traefik到Docker Compose文件中:
version: '3' services: consul: image: consul ports: - "8500:8500" traefik: image: traefik:v2.5 command: - "--api.insecure=true" - "--providers.consulcatalog=true" - "--entrypoints.web.address=:80" ports: - "80:80" - "8080:8080" depends_on: - consul environment: - CONSUL_HTTP_ADDR=consul:8500 networks: - web user-service: build: context: . dockerfile: Dockerfile-user labels: - "traefik.enable=true" - "traefik.http.routers.user-service.rule=Host(`user-service.local`)" - "traefik.http.services.user-service.loadbalancer.server.port=5001" depends_on: - consul environment: - CONSUL_HTTP_ADDR=consul:8500 ports: - "5001:5001" networks: - web order-service: build: context: . dockerfile: Dockerfile-order labels: - "traefik.enable=true" - "traefik.http.routers.order-service.rule=Host(`order-service.local`)" - "traefik.http.services.order-service.loadbalancer.server.port=5002" depends_on: - consul environment: - CONSUL_HTTP_ADDR=consul:8500 ports: - "5002:5002" networks: - web api-gateway: build: context: . dockerfile: Dockerfile-gateway depends_on: - consul - user-service - order-service environment: - CONSUL_HTTP_ADDR=consul:8500 ports: - "5000:5000" networks: - web networks: web: external: true
现在,Traefik将自动从Consul获取服务信息并执行负载均衡。访问http://user-service.local和http://order-service.local将通过Traefik进行请求分发.
在微服务架构中,日志管理和监控是确保系统健康和排查问题的重要手段。以下示例展示了如何在Python微服务架构中实现日志管理和监控.
ELK(Elasticsearch、Logstash、Kibana)是一个流行的日志管理解决方案。我们将使用ELK Stack来收集和分析日志.
首先,添加ELK服务到Docker Compose文件中:
version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:7.13.3 environment: - discovery.type=single-node ports: - "9200:9200" - "9300:9300" logstash: image: docker.elastic.co/logstash/logstash:7.13.3 volumes: - ./logstash.conf:/usr/share/logstash/pipeline/logstash.conf ports: - "5044:5044" kibana: image: docker.elastic.co/kibana/kibana:7.13.3 ports: - "5601:5601"
创建logstash.conf文件来配置Logstash:
input { file { path => "/var/log/*.log" start_position => "beginning" } } output { elasticsearch { hosts => ["elasticsearch:9200"] } }
在Python应用中集成日志库(如logging)并将日志发送到Logstash.
在user_service.py和order_service.py中添加日志配置:
import logging logging.basicConfig(filename='/var/log/user_service.log', level=logging.INFO) logger = logging.getLogger(__name__) @app.route('/users') def get_users(): users = [ {'id': 1, 'name': 'Alice'}, {'id': 2, 'name': 'Bob'} ] logger.info('Fetched users: %s', users) return jsonify(users)
import logging logging.basicConfig(filename='/var/log/order_service.log', level=logging.INFO) logger = logging.getLogger(__name__) @app.route('/orders') def get_orders(): orders = [ {'id': 1, 'item': 'Laptop', 'price': 1200}, {'id': 2, 'item': 'Phone', 'price': 800} ] logger.info('Fetched orders: %s', orders) return jsonify(orders)
可以使用Prometheus和Grafana进行系统监控.
首先,添加Prometheus和Grafana到Docker Compose文件中:
version: '3' services: prometheus: image: prom/prometheus volumes: - ./prometheus.yml:/etc/prometheus/prometheus.yml ports: - "9090:9090" grafana: image: grafana/grafana ports: - "3000:3000"
创建prometheus.yml文件配置Prometheus:
global: scrape_interval: 15s scrape_configs: - job_name: 'flask' static_configs: - targets: ['user-service:5001', 'order-service:5002']
持续集成和持续部署(CI/CD)是现代软件开发流程的重要组成部分。通过自动化的构建、测试和部署流程,CI/CD能够显著提升开发效率和软件质量。以下是如何在Python微服务架构中实现CI/CD的示例.
GitHub Actions是GitHub提供的CI/CD平台,可以轻松集成到GitHub仓库中。我们将使用GitHub Actions来自动化构建和部署流程.
首先,在项目根目录下创建一个.github/workflows目录,并在其中创建一个CI/CD配置文件ci_cd.yml.
# .github/workflows/ci_cd.yml name: CI/CD Pipeline on: push: branches: - main jobs: build: runs-on: ubuntu-latest steps: - name: Checkout code uses: actions/checkout@v2 - name: Set up Docker Buildx uses: docker/setup-buildx-action@v1 - name: Build and push Docker images uses: docker/build-push-action@v2 with: push: true tags: | user-service:latest order-service:latest api-gateway:latest - name: Deploy to Docker Hub env: DOCKER_HUB_USERNAME: ${{ secrets.DOCKER_HUB_USERNAME }} DOCKER_HUB_PASSWORD: ${{ secrets.DOCKER_HUB_PASSWORD }} run: | echo $DOCKER_HUB_PASSWORD | docker login -u $DOCKER_HUB_USERNAME --password-stdin docker push user-service:latest docker push order-service:latest docker push api-gateway:latest
为了确保安全性,我们使用GitHub Secrets存储敏感信息,例如Docker Hub的凭据。在GitHub仓库中,进入Settings > Secrets and variables > Actions,添加以下Secrets:
DOCKER_HUB_USERNAME
DOCKER_HUB_PASSWORD
在微服务架构中,Kubernetes是一个流行的容器编排平台。我们将使用Kubernetes部署我们的微服务.
首先,创建Kubernetes配置文件.
# k8s/user-service.yaml apiVersion: apps/v1 kind: Deployment metadata: name: user-service spec: replicas: 2 selector: matchLabels: app: user-service template: metadata: labels: app: user-service spec: containers: - name: user-service image: user-service:latest ports: - containerPort: 5001 --- apiVersion: v1 kind: Service metadata: name: user-service spec: selector: app: user-service ports: - protocol: TCP port: 80 targetPort: 5001
# k8s/order-service.yaml apiVersion: apps/v1 kind: Deployment metadata: name: order-service spec: replicas: 2 selector: matchLabels: app: order-service template: metadata: labels: app: order-service spec: containers: - name: order-service image: order-service:latest ports: - containerPort: 5002 --- apiVersion: v1 kind: Service metadata: name: order-service spec: selector: app: order-service ports: - protocol: TCP port: 80 targetPort: 5002
# k8s/api-gateway.yaml apiVersion: apps/v1 kind: Deployment metadata: name: api-gateway spec: replicas: 2 selector: matchLabels: app: api-gateway template: metadata: labels: app: api-gateway spec: containers: - name: api-gateway image: api-gateway:latest ports: - containerPort: 5000 --- apiVersion: v1 kind: Service metadata: name: api-gateway spec: selector: app: api-gateway ports: - protocol: TCP port: 80 targetPort: 5000
确保Kubernetes集群已经配置好,并且kubectl工具可以访问集群。执行以下命令将服务部署到Kubernetes:
kubectl apply -f k8s/user-service.yaml kubectl apply -f k8s/order-service.yaml kubectl apply -f k8s/api-gateway.yaml
在GitHub Actions配置中添加步骤,以在推送到主分支时自动部署到Kubernetes.
- name: Set up K8s uses: azure/setup-kubectl@v1 with: version: 'v1.18.0' - name: Deploy to Kubernetes run: | kubectl apply -f k8s/user-service.yaml kubectl apply -f k8s/order-service.yaml kubectl apply -f k8s/api-gateway.yaml
在微服务架构中,故障排除和调试是非常重要的。我们可以通过日志管理、分布式追踪和调试工具来实现.
我们之前已经集成了Elastic Stack进行日志管理。通过Kibana,我们可以方便地查看和分析日志.
Jaeger是一个开源的端到端分布式追踪工具。它可以帮助我们追踪请求在各个服务中的流转情况,方便排查性能瓶颈和故障点.
首先,添加Jaeger到Docker Compose文件中:
version: '3' services: jaeger: image: jaegertracing/all-in-one:1.21 ports: - "6831:6831/udp" - "16686:16686"
在Python应用中集成Jaeger Client:
from jaeger_client import Config def init_tracer(service): config = Config( config={ 'sampler': {'type': 'const', 'param': 1}, 'logging': True, }, service_name=service, validate=True, ) return config.initialize_tracer() tracer = init_tracer('user-service')
通过这种方式,我们可以在Kibana中查看日志,在Jaeger中追踪请求,轻松定位问题.
通过本文的深入分析和实践示例,我们详细介绍了如何在Python中实现容器化和微服务架构。从基础的Docker和Flask入门,到使用Consul进行服务发现、Traefik进行负载均衡,再到Elastic Stack日志管理和Jaeger分布式追踪,涵盖了微服务架构的各个关键环节。通过这些实践,开发者可以构建出高可用、高扩展性的微服务系统,提升开发效率和软件质量.
点击关注,第一时间了解华为云新鲜技术~ 。
。
最后此篇关于从基础到高级应用,详解用Python实现容器化和微服务架构的文章就讲到这里了,如果你想了解更多关于从基础到高级应用,详解用Python实现容器化和微服务架构的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 9 年前。 Improve th
使用微 Controller 时,通常您必须对寄存器进行写入和读取,为了使代码更具可读性,您需要定义寄存器地址及其位。这有点好,但是当您的寄存器名称彼此非常相似时,它很快就会变得困惑,例如此处所示 #
微 Controller 背景下的“原子操作”是什么? 我正在研究 TI F28027 MCU。 The data sheet says that its operations are atomic
我正在用 PIC 微 Controller 做一个项目。我有一个 ADC 采样并将数据保存到 RAM 存储器,一旦 RAM 被填满,我需要使用 PIC 微 Controller 通过蓝牙发送它。 我的
如何确定微 Controller 中特定程序所需的堆栈内存? 例如,假设我有一个内部可能有许多子例程或线程的程序。在我开始执行程序之前,我想修复这个程序的堆栈大小。我如何标记堆栈的终点。 最佳答案 我
我知道 printf 和 sprintf 之间的基本功能差异。但是,我想知道它们之间一些与时间/延迟相关的差异。显然,我想在我的一个自定义构建 RTOS 的任务中使用它。你怎么看 ?我想知道更多它会如
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 9 年前。 Improve this ques
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 5 年前。
我有一个一般性的问题。我在微 Controller 上记录错误。但是微 Controller 的资源比 Windows 计算机更有限。在我的例子中,我将 64 个错误代码保存在一个队列中,由 Free
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 6 年前。 Improve th
假设我有一个时钟速度为 20 Mhz 的 8 位定时器。计时器在多少时间内可以计数多远而不溢出。或者1秒内溢出多少次?我知道它可以数到 255 并且会溢出 最佳答案 时间和频率之间的关系是t = 1/
我正在开展一个全面的长期 C 编程项目,该项目需要模块化编程方法。作为设计的一部分,将创建库,因此我想确认头文件组织的正确/错误解释: 问题 假设您正在创建一个库。经过深思熟虑,您决定您希望构想的最终
1. #define timers ((dual_timers *)0x03FF6000) 这是 ARM 微 Controller 中使用的内存映射定义 结构定义在哪里 2. struct dua
我购买了 LinkSprite JPEG 彩色相机和 LPC1768 mbed 微 Controller 。通过“LinkSprite”相机,我可以拍摄 jpeg 格式的图像,根据他们提供的教程,我可
我有很多不同的时间来跟踪我的设计,但没有什么是 super 关键的。 10 毫秒 +/- 几毫秒根本不是什么大问题。但是可能有 10 个不同的定时器同时在不同的周期进行计数,显然我没有足够的专用定时器
是否可以通过串行端口与 PIC 单片机通信 Android 应用程序?我可以使用哪些低成本手机?对不起,我是哥伦比亚人。 最佳答案 不确定 PIC,但是 Arduino可能是一个很好的引用点,并且有一
今天我一直在思考以下问题: 在一台普通的 pc 中,当你分配一些内存时,你向操作系统请求它,它会跟踪哪些内存段被占用,哪些内存段没有被占用,并且不要让你弄乱其他程序的内存等。但是微 Controlle
我已经为微 Controller 的键盘开发了一个 c 驱动程序。我想改变它,例如,当我按下 1 时,它会显示 1,直到我按下另一个数字。截至目前,数字只有在我按下数字时才会改变,这意味着一旦我松开键
我有一个在线程之间共享的 volatile unsigned char array LedState[5] 变量。数组中的每个索引表示一个状态。根据每个状态,LED 将以不同的顺序闪烁。一个线程设置数
我有一个项目要对微 Controller PIC18F 进行编程,我必须将一个开关电路连接到微 Controller 板上,这个开关电路有一个电锁和一个蜂鸣器要连接到它。 锁最初是通电的。假设当我发送
我是一名优秀的程序员,十分优秀!