峰襞副 发表于 2025-6-8 13:38:06

驾驭FastAPI多数据库:从读写分离到跨库事务的艺术

title: 驾驭FastAPI多数据库:从读写分离到跨库事务的艺术
date: 2025/05/16 00:58:24
updated: 2025/05/16 00:58:24
author:cmdragon
excerpt:
在微服务架构中,FastAPI 多数据库配置管理通过独立数据存储实现隔离性、扩展性和性能优化。配置主从数据库时,使用 SQLAlchemy 创建异步引擎和会话工厂,并通过中间件实现动态数据库路由,实现读写分离。跨库事务处理采用 Saga 事务模式,确保分布式事务的一致性。以电商订单系统为例,展示了如何在 PostgreSQL、MongoDB 和 MySQL 之间进行跨库操作,并通过补偿机制处理事务失败。常见报错解决方案包括精确查询条件、正确管理会话和处理事务回滚。
categories:

[*]后端开发
[*]FastAPI
tags:

[*]FastAPI
[*]多数据库配置
[*]微服务架构
[*]分布式事务
[*]Saga模式
[*]数据库连接池
[*]电商系统
扫描二维码
关注或者微信搜一搜:编程智域 前端至全栈交流与成长
探索数千个预构建的 AI 应用,开启你的下一个伟大创意:https://tools.cmdragon.cn/
1. FastAPI多数据库配置管理实战

1.1 微服务架构下的数据库挑战

在微服务架构中,每个服务通常需要独立的数据存储。就像大型图书馆需要将不同学科的书籍分馆存放一样,电商系统可能将用户数据、订单数据、商品数据分别存储在不同数据库。这种架构带来三个核心需求:

[*]隔离性:每个服务的数据库独立运行,避免单点故障
[*]扩展性:不同数据库可按需选择存储引擎(如MySQL、MongoDB)
[*]性能优化:读写分离配置可提升系统吞吐量
1.2 多数据库配置实现

以下示例展示如何在FastAPI中配置主从数据库:
# database.py
from sqlalchemy.ext.asyncio import create_async_engine, AsyncSession
from sqlalchemy.orm import sessionmaker

# 主数据库配置(写操作)
MASTER_DATABASE_URL = "postgresql+asyncpg://user:password@master-host/dbname"
master_engine = create_async_engine(MASTER_DATABASE_URL, pool_size=10)

# 从数据库配置(读操作)
REPLICA_DATABASE_URL = "postgresql+asyncpg://user:password@replica-host/dbname"
replica_engine = create_async_engine(REPLICA_DATABASE_URL, pool_size=20)

# 创建会话工厂
MasterSession = sessionmaker(master_engine, class_=AsyncSession, expire_on_commit=False)
ReplicaSession = sessionmaker(replica_engine, class_=AsyncSession, expire_on_commit=False)关键配置参数说明:

[*]pool_size:连接池大小,根据服务负载调整
[*]max_overflow:允许超出连接池数量的临时连接
[*]pool_timeout:获取连接的超时时间(秒)
1.3 动态数据库路由

通过中间件实现读写分离:
# dependencies.py
from fastapi import Request, Depends
from database import MasterSession, ReplicaSession


async def get_db(request: Request):
    """智能路由数据库连接"""
    # 写操作路由到主库
    if request.method in ['POST', 'PUT', 'DELETE']:
      db = MasterSession()
    else:# 读操作使用从库
      db = ReplicaSession()

    try:
      yield db
    finally:
      await db.close()


# 在路由中使用
@app.post("/orders")
async def create_order(
      order: OrderSchema,
      db: AsyncSession = Depends(get_db)
):
# 业务逻辑2. 跨库事务处理方案

2.1 分布式事务的挑战

当订单服务需要同时更新订单库和扣减库存库时,传统ACID事务不再适用。这就像需要同时在两个不同银行账户之间转账,必须保证要么全部成功,要么全部失败。
2.2 Saga事务模式实现

# services/transaction_coordinator.py
from typing import List
from fastapi import HTTPException


class SagaCoordinator:
    def __init__(self):
      self.compensation_actions = []

    async def execute_transaction(self, steps: List):
      """执行Saga事务"""
      try:
            for step in steps:
                await step()
      except Exception as e:
            await self.compensate()
            raise HTTPException(500, "Transaction failed")

    async def compensate(self):
      """补偿操作执行"""
      for action in reversed(self.compensation_actions):
            try:
                await action()
            except Exception as compen_e:
                # 记录补偿失败日志
                logger.error(f"Compensation failed: {compen_e}")


# 使用示例
async def create_order_transaction():
    coordinator = SagaCoordinator()

    async def deduct_inventory():
      # 预留库存
      coordinator.compensation_actions.append(restore_inventory)

    async def create_order_record():
      # 创建订单记录
      coordinator.compensation_actions.append(delete_order_record)

    await coordinator.execute_transaction([
      deduct_inventory,
      create_order_record
    ])3. 企业级案例:电商订单系统

3.1 场景描述

用户下单时需要同时操作:

[*]订单数据库(PostgreSQL)
[*]库存数据库(MongoDB)
[*]用户积分数据库(MySQL)
3.2 完整实现代码

# models.py
from pydantic import BaseModel


class OrderCreate(BaseModel):
    user_id: int
    product_id: str
    quantity: int


# services/order_service.py
from sqlalchemy import text
from motor.motor_asyncio import AsyncIOMotorClient


class OrderService:
    def __init__(self):
      # 初始化各数据库连接
      self.pg_pool = MasterSession
      self.mongo_client = AsyncIOMotorClient(MONGO_URI)
      self.mysql_pool = create_async_engine(MYSQL_URI)

    async def create_order(self, order_data: OrderCreate):
      """创建订单事务"""
      async with self.pg_pool() as pg_session,
                self.mysql_pool.begin() as mysql_conn:
            # 步骤1:扣减MySQL库存
            mysql_update = text("""
                UPDATE inventory
                SET stock = stock - :quantity
                WHERE product_id = :product_id
                AND stock >= :quantity
            """)
            await mysql_conn.execute(
                mysql_update,
                product_id=order_data.product_id,
                quantity=order_data.quantity
            )

            # 步骤2:创建PostgreSQL订单
            pg_insert = text("""
                INSERT INTO orders (user_id, product_id, quantity)
                VALUES (:user_id, :product_id, :quantity)
            """)
            await pg_session.execute(pg_insert, order_data.dict())

            # 步骤3:更新MongoDB用户行为
            mongo_db = self.mongo_client.user_behavior
            await mongo_db.events.insert_one({
                "user_id": order_data.user_id,
                "event_type": "order_created",
                "timestamp": datetime.now()
            })

            # 提交PostgreSQL事务
            await pg_session.commit()课后Quiz

问题1: 当使用多个数据库时,如何保证跨库查询的事务一致性?
A. 使用数据库自带的分布式事务功能
B. 采用最终一致性模式配合补偿机制
C. 强制所有操作使用同个数据库
D. 增加重试机制自动处理失败
答案: B
解析: 在微服务架构中,不同服务通常使用不同数据库实例,传统ACID事务难以实施。采用Saga模式等最终一致性方案,配合补偿事务(如订单取消时的库存回补),是更可行的解决方案。
常见报错解决方案

错误1: MultipleResultsFound: Multiple rows were found when one was required
原因: 查询语句返回了多个结果,但期望单个结果
解决:

[*]检查查询条件是否足够精确
[*]使用.first()代替.one()
[*]添加LIMIT 1子句
错误2: InterfaceError: Connection already closed
原因: 数据库连接过早关闭
预防:

[*]使用上下文管理器管理会话
[*]检查连接池配置
[*]增加连接存活检测
# 正确使用方式
async def get_db():
    async with Session() as session:
      yield session错误3: DBAPIError: Can't reconnect until invalid transaction is rolled back
原因: 未正确处理事务回滚
解决:

[*]在异常处理中添加显式回滚
[*]设置事务自动回滚
async def safe_transaction():
    async with session.begin():
      try:
            # 业务操作
            await session.commit()
      except:
            await session.rollback()
            raise余下文章内容请点击跳转至 个人博客页面 或者 扫码关注或者微信搜一搜:编程智域 前端至全栈交流与成长,阅读完整的文章:驾驭FastAPI多数据库:从读写分离到跨库事务的艺术 | cmdragon's Blog
往期文章归档:


[*]数据库事务隔离与Alembic数据恢复的实战艺术 | cmdragon's Blog
[*]FastAPI与Alembic:数据库迁移的隐秘艺术 | cmdragon's Blog
[*]飞行中的引擎更换:生产环境数据库迁移的艺术与科学 | cmdragon's Blog
[*]Alembic迁移脚本冲突的智能检测与优雅合并之道 | cmdragon's Blog
[*]多数据库迁移的艺术:Alembic在复杂环境中的精妙应用 | cmdragon's Blog
[*]数据库事务回滚:FastAPI中的存档与读档大法 | cmdragon's Blog
[*]Alembic迁移脚本:让数据库变身时间旅行者 | cmdragon's Blog
[*]数据库连接池:从银行柜台到代码世界的奇妙旅程 | cmdragon's Blog
[*]点赞背后的技术大冒险:分布式事务与SAGA模式 | cmdragon's Blog
[*]N+1查询:数据库性能的隐形杀手与终极拯救指南 | cmdragon's Blog
[*]FastAPI与Tortoise-ORM开发的神奇之旅 | cmdragon's Blog
[*]DDD分层设计与异步职责划分:让你的代码不再“异步”混乱 | cmdragon's Blog
[*]异步数据库事务锁:电商库存扣减的防超卖秘籍 | cmdragon's Blog
[*]FastAPI中的复杂查询与原子更新指南 | cmdragon's Blog
[*]深入解析Tortoise-ORM关系型字段与异步查询 | cmdragon's Blog
[*]FastAPI与Tortoise-ORM模型配置及aerich迁移工具 | cmdragon's Blog
[*]异步IO与Tortoise-ORM的数据库 | cmdragon's Blog
[*]FastAPI数据库连接池配置与监控 | cmdragon's Blog
[*]分布式事务在点赞功能中的实现 | cmdragon's Blog
[*]Tortoise-ORM级联查询与预加载性能优化 | cmdragon's Blog
[*]使用Tortoise-ORM和FastAPI构建评论系统 | cmdragon's Blog
[*]分层架构在博客评论功能中的应用与实现 | cmdragon's Blog
[*]深入解析事务基础与原子操作原理 | cmdragon's Blog
[*]掌握Tortoise-ORM高级异步查询技巧 | cmdragon's Blog
[*]FastAPI与Tortoise-ORM实现关系型数据库关联 | cmdragon's Blog
[*]Tortoise-ORM与FastAPI集成:异步模型定义与实践 | cmdragon's Blog
[*]异步编程与Tortoise-ORM框架 | cmdragon's Blog
[*]FastAPI数据库集成与事务管理 | cmdragon's Blog
[*]FastAPI与SQLAlchemy数据库集成 | cmdragon's Blog
[*]FastAPI与SQLAlchemy数据库集成与CRUD操作 | cmdragon's Blog
[*]FastAPI与SQLAlchemy同步数据库集成 | cmdragon's Blog
[*]SQLAlchemy 核心概念与同步引擎配置详解 | cmdragon's Blog
[*]FastAPI依赖注入性能优化策略 | cmdragon's Blog
[*]FastAPI安全认证中的依赖组合 | cmdragon's Blog
[*]XML Sitemap
[*]

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: 驾驭FastAPI多数据库:从读写分离到跨库事务的艺术