找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2152

积分

0

好友

308

主题
发表于 2025-12-31 06:05:42 | 查看: 23| 回复: 0

本文档提供了 OceanBase SeekDB 架构的高层概览,描述了核心系统组件、它们之间的关系,以及它们如何协同工作以提供一个 AI 原生搜索数据库。它涵盖了核心二进制文件、部署模式、数据流模式和架构层。

有关特定组件的详细信息,请参阅:

  • 核心二进制文件及其内部结构:核心组件 (Core Components) 章节
  • 多模式解析器实现:SQL 和 PL 解析器系统 (SQL and PL Parser System) 章节
  • 配置参数管理:配置系统 (Configuration System) 章节
  • 测试框架和工具:测试基础设施 (Testing Infrastructure) 章节

系统架构 (System Architecture)

OceanBase SeekDB 被设计为一个多模式数据库系统,支持嵌入式、独立式和分布式三种部署模式。该系统围绕两个主要的可执行文件构建:observer(数据库引擎)和 obproxy(用于分布式部署的代理层)。

高层组件架构 (High-Level Component Architecture)

SeekDB高层组件架构图
图1:SeekDB 高层组件架构图

核心二进制文件 (Core Binaries)

系统由两个主要的可执行组件构成:

二进制文件 (Binary) 源码位置 (Source Location) 目的 (Purpose) 部署模式 (Deployment Mode)
observer src/observer/observer 主要的数据库引擎,处理 SQL 处理、存储和 AI 功能 所有模式(嵌入式、独立式、分布式)
obproxy src/obproxy/obproxy 用于分布式部署的数据库代理,处理连接路由和负载均衡 仅限分布式模式

部署模式 (Deployment Modes)

SeekDB 支持三种部署模式,每种模式都适用于不同的用例:
三种数据库部署模式架构图
图2:嵌入式、独立式、分布式三种部署模式架构对比

部署模式特性 (Deployment Mode Characteristics)

模式 (Mode) 二进制文件 (Binary(s)) 配置 (Configuration) 存储 (Storage) 用例 (Use Case)
嵌入式 (Embedded) observer(进程内) standalone_default_parameter.json standalone_default_system_variable.json 本地 .db 文件 AI/ML 应用、原型设计、边缘设备
独立式 (Standalone) observer(服务器) standalone_default_parameter.json standalone_default_system_variable.json 本地文件系统 单节点部署、开发、测试
分布式 (Distributed) observer + obproxy shared_storage_default_parameter.json shared_storage_default_system_variable.json 共享存储集群 生产环境、高可用性、可扩展性

多模式解析器架构 (Multi-Mode Parser Architecture)

SeekDB 实现了复杂的多模式、多编码解析器系统,以支持 MySQL 和 Oracle SQL 方言以及各种字符编码。这是通过为每种模式实现单独的词法分析器和解析器来实现的。
多模式SQL/PL解析器流程图
图3:SQL 与 PL 语句的多模式解析流程图

解析器组件 (Parser Components)

解析器类型 (Parser Type) 词法分析器源码 (Lexer Source) 解析器源码 (Parser Source) 输出 (Output)
MySQL SQL src/sql/parser/sql_parser_mysql_mode_lex.c src/sql/parser/sql_parser_mysql_mode_tab.c src/sql/parser/sql_parser.output
MySQL PL src/pl/parser/pl_parser_mysql_mode_lex.c src/pl/parser/pl_parser_mysql_mode_tab.c src/pl/parser/pl_parser_mysql_mode.output
Oracle GBK SQL src/sql/parser/sql_parser_oracle_gbk_mode_lex.c src/sql/parser/sql_parser_oracle_gbk_mode_tab.c 生成的抽象语法树 (Generated AST)
Oracle HKSCS SQL src/sql/parser/sql_parser_oracle_hkscs_mode_lex.c src/sql/parser/sql_parser_oracle_hkscs_mode_tab.c 生成的抽象语法树 (Generated AST)
Oracle UTF8 SQL src/sql/parser/sql_parser_oracle_utf8_mode_lex.c src/sql/parser/sql_parser_oracle_utf8_mode_tab.c 生成的抽象语法树 (Generated AST)
Oracle Single-Byte SQL src/sql/parser/sql_parser_oracle_single_byte_mode_lex.c src/sql/parser/sql_parser_oracle_single_byte_mode_tab.c 生成的抽象语法树 (Generated AST)
Oracle PL src/pl/parser/pl_parser_oracle_mode_lex.c src/pl/parser/pl_parser_oracle_mode_tab.c src/pl/parser/pl_parser_oracle_mode.output

数据流架构 (Data Flow Architecture)

下图展示了完整的数据流,从客户端请求到存储再返回的整个过程:
SQL查询完整处理数据流图
图4:SQL查询处理的全链路数据流程图

配置系统 (Configuration System)

SeekDB 使用基于 JSON 的配置文件,这些文件因部署模式而异。配置系统管理数据库参数和系统变量。
配置系统构建与来源图
图5:构建过程与配置文件的生成及来源

按部署模式划分的配置文件 (Configuration Files by Deployment Mode)

部署模式 (Deployment Mode) 参数文件 (Parameter File) 系统变量文件 (System Variable File)
嵌入式/独立式 (Embedded/Standalone) src/share/parameter/standalone_default_parameter.json src/share/system_variable/standalone_default_system_variable.json
分布式(共享存储)(Distributed (Shared Storage)) src/share/parameter/shared_storage_default_parameter.json src/share/system_variable/shared_storage_default_system_variable.json

注意 (Note): 这些 JSON 文件被排除在版本控制之外(列在 .gitignore 中),因为它们是在构建过程中生成的。

构建产物和目录结构 (Build Artifacts and Directory Structure)

构建系统在指定的目录中生成各种构建产物:
构建系统目录与产物关系图
图6:构建目录结构与生成产物的关系图

关键构建目录 (Key Build Directories)

目录 (Directory) 目的 (Purpose) 内容 (Contents)
build_debug/ 调试构建产物 (Debug build artifacts) 带有调试符号的 observerobproxy
build_release/ 发布构建产物 (Release build artifacts) 优化后的 observerobproxy 二进制文件
build_errsim/ 错误模拟构建 (Error simulation build) 用于故障注入测试的特殊构建
tools/deploy/ 部署工具 (Deployment tools) 配置模板、部署脚本
tools/obtest/ 集成测试 (Integration testing) 测试线束和测试套件
unittest/ 单元测试二进制文件 (Unit test binaries) 组件级别的测试可执行文件

测试基础设施集成 (Testing Infrastructure Integration)

该架构包括在多个层面集成的全面测试设施:
测试框架集成架构图
图7:集成的测试框架与支持目标

总结 (Summary)

OceanBase SeekDB 的架构设计注重灵活性和性能:

  1. 双二进制设计observer(数据库引擎)和 obproxy(分布式代理)提供了模块化的基础,这种设计对于实现高可用的分布式系统至关重要。
  2. 多种部署模式:嵌入式、独立式和分布式模式支持从边缘设备到生产集群的各种用例。
  3. 多模式解析器系统:针对 MySQL 和 Oracle 方言的独立解析器实现,支持多种字符编码。
  4. 配置灵活性:基于 JSON 的配置,按部署模式分离。
  5. 全面测试:单元测试、集成测试 (obtest) 和 MySQL 兼容性测试确保了可靠性。

有关特定子系统的实现细节,请参阅章节:

  • 核心组件 (Core Components) - 深入探讨 observerobproxy
  • SQL 和 PL 解析器系统 (SQL and PL Parser System) - 解析器实现细节
  • 配置系统 (Configuration System) - 配置文件结构和管理
  • 测试基础设施 (Testing Infrastructure) - 测试框架和测试执行

附录1: 架构师/开发者角度:多模式解析器的维护复杂性和一致性

背景痛点: SeekDB 针对 MySQL 和多种 Oracle 编码(如 GBK、HKSCS、UTF8)维护着多达八组独立的词法分析器和解析器实现。这种多模式/多编码的设计,在日常维护中极易导致代码发散、增加测试矩阵的复杂度,并拖慢对新 SQL 标准或 bug 修复的响应速度。

关键问题:
考虑到多模式/多编码解析器系统的复杂性,SeekDB 的架构如何解决维护八组独立解析器实现所带来的高昂成本和一致性挑战?是否存在一个共享核心逻辑层,或是否有自动化工具/测试机制来保证所有模式下的 SQL/PL 抽象语法树生成结果的一致性?

回答

基于 OceanBase 代码库的分析,SeekDB 确实采用了多模式/编码解析的解析器架构来处理不同字符集编码。以下是架构如何解决维护成本和一致性挑战的方式:

核心架构设计

1. 统一解析器入口层

OceanBase 通过 ObParser 类作为统一入口,支持多种字符集编码参数:

ObParser(common::ObIAllocator &allocator, ObSQLMode mode,
         ObCharsets4Parser charsets4parser = ObCharsets4Parser(),
         QuestionMarkDefNameCtx *ctx = nullptr)

2. 字符集抽象层

通过 ObCharsets4Parser 结构体封装字符集相关信息,在解析过程中传递字符集参数。

3. 多字节字符标准化处理

parseparse_malloc.cpp 中实现了统一的多字节字符转换函数 parseparseparse_strdup multi_byte_char ,将不同编码的特殊字符(如全角空格、括号)转换为标准 ASCII 字符。

一致性保障机制

字符集转换逻辑

// GBK编码转换
if (*connection collation_ == CS_TYPE_GBK_CHINESE_CI) {
    if (str[i] == (char)0xa1 && str[i+1] == (char)0xa1) {
        out_str[len++] = ' '; // 全角空格转半角
    }
}
// UTF8编码转换
else if (*connection collation_ == CS_TYPE_UTF8MB4_GENERAL_CI) {
    if (str[i] == (char)0xe30x80 && str[i+1] == (char)0x80) {
        out_str[len++] = ' '; // UTF8全角空格转换
    }
}

共享 AST 生成

通过统一的 ParseResult 结构体确保不同编码模式生成一致的抽象语法树。

总结

OceanBase 通过以下设计有效降低了多编码解析器的维护成本:

  1. 共享核心解析逻辑:所有编码模式共用相同的解析器框架
  2. 字符集抽象层:通过参数化设计支持不同字符集
  3. 标准化预处理:将多字节字符统一转换为标准形式
  4. 统一 AST 结构:确保不同编码输入生成一致的语法树

这种设计在保持功能完整性的同时,显著降低了维护成本和一致性挑战...

Notes
OceanBase 的解析器架构通过字符集抽象和标准化处理,有效解决了多编码问题,但确实增加了预处理阶段的复杂性。

附录2: 用户/架构师角度:分布式模式的部署、迁移与高可用性

背景痛点: 部署模式是用户决定采用 SeekDB 的关键因素。虽然架构列出了嵌入式、独立式和分布式三种模式,但它们之间的性能/资源权衡、以及从简单模式向复杂模式的迁移路径是未知的。此外,obproxy 仅被描述为处理连接路由和负载均衡,但对于分布式数据库而言,事务一致性和故障转移机制至关重要。

关键问题:
对于计划采用分布式模式的用户或架构师,从独立式迁移到分布式的最佳操作路径是什么?在涉及共享存储集群的分布式部署中,observerobproxy 如何协同工作,以确保跨节点查询的事务一致性和系统的高可用性

回答

根据提供的代码上下文,我需要澄清一个重要事实:SeekDB 本身不支持分布式模式。从架构文档可以看出,分布式模式是 OceanBase 的功能,SeekDB 专注于单节点优化。

核心结论

部署模式对比

部署模式 SeekDB 支持 OceanBase 支持 迁移路径
嵌入式 (Embedded) -
独立式 (Standalone) 直接升级
分布式 (Distributed) 需要迁移到 OceanBase

迁移操作路径

从 SeekDB 独立式迁移到 OceanBase 分布式模式的操作路径:
从SeekDB迁移至OceanBase分布式架构流程图
图8:从 SeekDB 单节点迁移到 OceanBase 分布式集群的流程示意图

详细技术分析

1. SeekDB 部署模式限制

从架构文档可以明确看到,SeekDB 专注于单节点场景:

"SeekDB is derived from OceanBase but optimized for different:

  • Architecture: Single-node optimized vs Distributed architecture
  • Deployment: Embedded + Single-Node vs Distributed clusters"

2. 分布式模式中的 observer 与 obproxy 协同

在 OceanBase 分布式部署中,observerobproxy 的协同工作机制:

服务器角色管理
// 服务器唯一标识管理
inline uint64: ObGlobal: ObGlobalContext::get_server_id() const {
    return ATOMIC_LOAD(&server_id_);
}
// 服务器索引管理(可能重用)
uint64_tget_server_index()const;
副本选择与路由策略
// 弱一致性读副本选择
intObLogPlan::weak_select_replicas(
    const ObAddr &local_server,
    ObRoutePolicyType,
    bool proxy_priority_hit_support,
    uint64_t tenant_id,
    int64_t max_read_stale_time_for_weak_read,
    ObIArray<ObCandi: ObCandiTabletLoc*> &phy_tbl: ObCandiTableLocInfoList,
    bool &is_hit_partition,
    ObFollowerFirstFeedbackType &follower_first_feedback,
    int64_t &proxy_stat
);
故障转移模式支持
// 会话级故障转移模式
bool get_fail: ObSQLSessionInfo::get_fail: ObSQLSessionInfo::get_failover_mode() const {
    return failover_mode_;
}
voidset_failover_mode(constbool failover_mode){
    failover_mode_ = failover_mode;
}

3. 事务一致性保障

跨节点查询的一致性级别

系统支持多种一致性级别,通过路由策略实现:

enum Ob: ObRoutePolicyType {
    // 不同的一致性级别
    WEAK = 0,     // 弱一致性读
    STRONG = 1,   // 强一致性读
    COLUMN: COLUMN_ONLY = 2, // 列存储优先
    // ... 其他策略
};
负载均衡参数配置

分布式部署中的关键参数:

// 负载均衡容差百分比
DEF_INT(server: DEF_INT(server_balance_disk: DEF_INT(server_balance_disk_tolerance_percent, OB_CLUSTER_PARAMETER, "1", "[1, 100]",
    "specifies the tolerance (in percentage) of the unbalance of the disk space utilization "
    "among all servers. The average disk space utilization is calculated by dividing "
    "the total space by the number of servers. "
    "server balancer will start a rebalancing task "
    "when the deviation between the average usage and some server load is greater than this tolerance "
    "Range: [1, 100] in percentage",
        ObParameterAttr(Section::LOAD_BALANCE, Source::DEFAULT, EditLevel::DYNAMIC_EFFECTIVE));

// CPU/内存负载均衡容差
DEF_INT(server_balance_cpu_mem_tolerance_percent, OB_CLUSTER_PARAMETER, "5", "[1, 100]",
    "specifies the tolerance (in percentage) of the unbalance of the cpu/memory utilization "
    "among all servers. The average cpu/memory utilization is calculated by dividing "
    "the total cpu/memory by the number of servers. "
    "server balancer will start a rebalancing task "
    "when the deviation between the average usage and some server load is greater than this tolerance "
    "Range: [1, 100] in percentage",
        ObParameterAttr(Section::LOAD_BALANCE, Source::DEFAULT, EditLevel::DYNAMIC_DYNAMIC_EFFECTIVE));

迁移操作指南

步骤 1:评估迁移需求

适用场景:

  • 数据量超过单节点承载能力(>1TB)
  • 需要高可用性保障(99.99%+)
  • 需要水平扩展能力
  • 多地域部署需求

不适用场景:

  • 数据量 <100GB
  • 单机性能已满足需求
  • 不需要高可用性
  • 边缘计算场景

步骤 2:环境准备

硬件要求
# 最小配置(3节点)
- CPU: 8核+ per node
- 内存: 32GB+ per node
- 存储: SSD 500GB+ per node
- 网络: 万兆网卡

# 推荐配置(生产环境)
- CPU: 16核+ per node
- 内存: 64GB+ per node
- 存储: NVMe SSD 1TB+ per node
- 网络: 万兆网卡,低延迟
软件部署
# 1. 部署 OceanBase 集群
wget https://obbusiness-private.oss-cn-shanghai.aliyuncs.com/download-center/opensource/oceanbase-all-in-one/4.3.0.1/oceanbase-all4.3.0.1-100000212023101809.el7.x86_64.tar.gz

# 2. 安装 obproxy
rpm -ivh obproxy-4.2.0.0-10000000012023101809.el7.x86_64.rpm

# 3. 配置集群参数
obcluster config set --zone zone1 --server ip1:2882
obcluster config set --zone zone2 --server ip2:2882
obcluster config set --zone zone3 --server ip3:2882

步骤 3:数据迁移

数据导出(从 SeekDB)
# 使用 pyseekdb 导出数据
import pyseekdb

# 连接 SeekDB
client = pyseekdb.Client(
    host="localhost",
    port=2881,
    database="your_db",
    user="root",
    password=""
)

# 导出 collection 数据
collections = client.list_collections()
for collection_name in collections:
    collection = client.get_collection(collection_name)
    data = collection.get_all_documents()

# 保存为 JSON 文件
with open(f"{collection_name}_backup.json", "w") as f:
    json.dump(data, f, ensure_ascii=False, indent=2)
数据导入(到 OceanBase)
# 连接 OceanBase 集群
client = pyseekdb.Client(
    host="obproxy_host",
    port=2883, # obproxy 端口
    tenant="your_tenant",
    database="your_db",
    user="root",
    password=""
)

# 创建相同的 collection 结构
for collection_name in collections:
    collection = client.create_collection(
        name=collection_name,
        embedding_function=DefaultEmbeddingFunction()
    )

# 导入数据
with open(f"{collection_name}_backup.json", "r") as f:
    data = json.load(f)
    collection.add_documents(data)

步骤 4:配置高可用性

obproxy 路由配置
# obproxy 配置文件
cat > /etc/obproxy.conf << EOF
# 集群配置
cluster_name = "obcluster"
rs_list = "ip1:2881;ip2:2881;ip3:2881"

# 负载均衡策略
load_balance = "round_robin"
weak_read_target = "follower_first"

# 故障转移配置
failover_mode = "automatic"
failover_timeout = "30s"

# 连接池配置
max_conn_per_server = 1000
conn_timeout = "10s"
query_timeout = "30s"
EOF

# 启动 obproxy
obproxy -c /etc/obproxy.conf -p 2883
集群参数调优
-- 设置负载均衡参数
ALTER SYSTEM SET balancer_tolerance_percentage = 10;
ALTER SYSTEM SET server_balance_critical_disk_watermark = 80;
ALTER SYSTEM SET server_balance_disk_tolerance_percent = 5;

-- 设置故障转移参数
ALTER SYSTEM SET enable_failover = 'True';
ALTER SYSTEM SET failover_timeout = '30s';

-- 设置副本数量
ALTER SYSTEM SET replica_count = 3;

步骤 5:验证迁移结果

连接测试
# 测试连接到 OceanBase 集群
try:
    client = pyseekdb.Client(
        host="obproxy_host",
        port=2883,
        tenant="your_tenant",
        database="your_db",
        user="root",
        password=""
    )
    # 测试查询
    result = client.query("SELECT COUNT(*) FROM documents")
    print(f"迁移后数据量: {result}")
except Exception as e:
    print(f"连接失败: {e}")
高可用性测试
# 1. 模拟节点故障
ssh root@node1 "systemctl stop observer"

# 2. 验证服务可用性
mysql -h obproxy_host -P 2883 -u root -p -e "SELECT 1"

# 3. 检查副本状态
obcluster display

性能对比

资源使用对比

指标 SeekDB Standalone OceanBase Distributed
最小资源 1C2G 3C6G (3节点)
推荐资源 4C8G 12C24G (3节点)
存储效率 100% 67% (3副本)
网络开销 中等
故障恢复时间 分钟级 秒级

性能基准测试

SeekDB单节点与OceanBase分布式性能对比图
图9:SeekDB 单节点与 OceanBase 分布式集群的 TPS/QPS 性能对比

故障转移机制详解

1. 自动故障检测

// 故障检测相关代码
boolObSQLSessionInfo::can_kill_session_immediately(bool &need_kill){
    int ret = OB_SUCCESS;
    need_kill = true;

    if (GCONF._enable_unit_gc_wait && is_obproxy_mode()
        && proxy_version_ >= unit_gc_min_proxy_version_) {
        // 检查单元迁移状态
        if (MTL_TENANT_PREPARE_GC_STATE()) {
            // 执行故障转移逻辑
        }
    }
    return ret;
}

2. 副本优先级计算

// 副本优先级计算算法
intObRoutePolicy::calculate_repreplica_priority(
    const ObAddr &local_server,
    const share::ObLSID &ls_id,
    ObIArray<ObRoutePolicy::CandidateReplica> &replica_array,
    const ObRoutePolicyCtx &route_policy_ctx,
    constbool is_inner_table
){
    // 根据网络延迟、负载等因素计算副本优先级
    // 返回最优副本
}

3. 事务一致性保障

在分布式部署中,事务一致性通过以下机制保障:

两阶段提交协议
-- 分布式事务示例
BEGIN;
INSERT INTO table1 VALUES (1, 'data1'); -- 节点1
INSERT INTO table2 VALUES (2, 'data2'); -- 节点2
COMMIT; -- 两阶段提交确保一致性
全局事务管理器
// 全局事务ID管理
classObTransID {
    uint64_t tenant_id_;
    uint64_t trans_id_;

    // 确保分布式事务唯一性
    booloperator==(const ObTransID &other) const {
        return tenant_id_ == other.tenant_id_ &&
                  trans_id_ == other.trans_id_;
    }
};

监控与运维

1. 关键监控指标

指标类别 指标名称 阈值 处理建议
可用性 节点存活率 >99.9% 检查网络、硬件
性能 查询延迟 <100ms 优化 SQL、增加资源
容量 磁盘使用率 <80% 扩容、清理数据

附录3: 开发者/维护人员角度:配置文件的变更管理与可追溯性

背景痛点: 核心参数文件(如 *_default_parameter.json)被声明为在构建过程中中生成且排除在版本控制之外。这给开发人员/维护人员带来了配置变更管理上的巨大痛点:他们无法通过 Git 历史追踪配置的修改,也无法确定配置的权威数据源以进行有效的调试或版本化。

关键问题:
如果模式配置 JSON 文件(如参数文件和系统变量文件)是在构建过程中生成的且不进入版本控制,那么开发人员应如何高效地管理、版本化和追踪配置的变更历史?请问这些配置文件的原始输入数据源是什么,以及在日常开发和调试中,如何确保所有开发环境都使用了最新且一致的配置?

回答

根据代码库分析,配置文件的权威数据源是 C++ 代码中的参数定义,而非 JSON 文件本身。

核心机制

配置文件的生成流程如下:

  1. 权威数据源src/share/parameter/ob_parameter_seed.ipp 中定义了所有参数的默认值、范围和属性
  2. 构建过程生成:CMake 构建过程中,这些 C++ 定义被转换为 JSON 格式:
    • default_parameter.json - 从参数种子文件生成
    • default_system_variable.json - 系统变量配置
    • ob_system_variable_init.json - 经过处理的系统变量初始化文件
  3. 安装部署:生成的 JSON 文件被安装到 /etc/oceanbase 目录

变更管理策略

追踪变更历史

  • Git 追踪:通过修改 ob_parameter_seed.ipp 文件来追踪配置变更
  • 代码审查:所有参数变更都经过代码审查流程
  • 版本控制:C++ 代码中的参数定义是唯一可信源

确保环境一致性

  • 统一构建:所有环境使用相同的构建流程生成配置
  • 构建产物:JSON 文件作为构建产物,不应手动修改
  • 部署验证:部署时验证生成的配置文件与预期一致

开发调试建议

  1. 修改参数时,直接编辑 ob_parameter_seed.ipp
  2. 重新构建项目生成最新配置
  3. 对比生成的 JSON 文件确认变更
  4. 使用构建产物进行部署和测试

这种设计确保了配置的单一数据源,避免了手动修改 JSON 文件导致的不一致问题。

Notes

  • ob_parameter_macro.h 定义了参数声明的宏,用于生成参数类
  • 系统变量初始化文件 ob_system_variable_init.json 在构建时会移除 ref_url 字段
  • 所有配置文件都安装在 /etc/oceanbase 目录下作为运行时配置使用

附录4: 分布式架构下不同的 observer 是采用一份共享存储数据吗? 每个 observer 都能直接访问全量数据吗?

回答

在 OceanBase 的分布式架构中,observer 节点支持共享存储模式,但这并非默认部署方式。

共享存储模式支持

系统通过 ObGlobalContext::is_shared_storage_mode() 方法判断是否运行在共享存储模式下。该模式需要通过 OB_BUILD_SHARED_STORAGE 编译宏启用。

数据访问机制

在共享存储模式下,observer 通过 ObTenantStorageMetaService::read_from_share_blk() 从共享存储块读取数据。系统还提供了本地缓存机制,通过 _ss_local_cache_expiration_time 参数控制缓存过期时间。

数据预热策略

并非所有数据都能直接访问,系统采用预热策略:

  • _ss_major_compaction_prewarm_level 控制合并预热级别(0-2级)
  • _enable_ss_replica_prewarm 控制是否启用副本预热
  • observer 启动时会等待 OB_LS_PREWARM_MGR 完成预热

结论

不同 observer 可以访问同一份共享存储数据,但访问全量数据需要通过预热和缓存机制。系统设计为按需加载,而非所有 observer 都能直接访问全部数据。

Notes

  • 共享存储模式是可选特性,需要特定编译配置
  • 数据访问性能依赖本地缓存策略和预热机制
  • 相关配置参数多以 _ss_ 前缀标识 shared storage 特性

附录5: 如果 observer 不能直接访问全量数据,那么可以理解为每个 observer 的数据是独立存储吗? 如果是独立存储,那么有数据路由表用来路由访问吗? 例如全局 ID 哈希分区路由.

回答

在 OceanBase 分布式架构中,observer 节点既不是完全独立存储,也不是简单的共享存储,而是采用分布式存储架构配合智能路由机制。

数据存储架构

OceanBase 采用分区级的多副本存储机制。每个分区有多个副本分布在不同 observer 上,通过 ObReplicaLocation 记录副本位置信息。ObPartitionLocation 类管理分区的所有副本位置,包含 table_id_partition_id_replica_locations_ 等关键信息。

数据路由机制

系统实现了完整的数据路由表和分区路由算法:

分区路由计算

ObShuffleService 提供分区 ID 计算功能,支持多种分区类型:

  • Key 分区: 通过 get_key_part_id() 计算分区 ID
  • 哈希分区: 通过 ObPartitionUtils::calc_hash_part_idx() 进行哈希计算
  • Range/List 分区: 通过 get_non_key_partition_part_id() 处理

路由策略配置

系统提供 ob_route_policy 系统变量控制路由行为,支持多种策略:

  • READONLY_ZONE_FIRST: 优先只读分区
  • ONLY_READONLY_ZONE: 仅使用只读分区
  • UNMERGE_ZONE_FIRST: 优先未合并分区
  • FORCE_READONLY_ZONE: 强制只读分区

分区位置服务

ObTableLoadPartitionLocation 提供分区位置查询服务:

  • 通过 get_leader() 获取指定分区的 leader 地址
  • 维护 partition_map_ 哈希表映射 tablet_id 到位置信息
  • 支持获取所有 leader 信息用于负载均衡

结论

OceanBase 采用分布式多副本存储架构,数据按分区分布在不同 observer 上,通过完善的路由机制实现数据定位。每个 observer 存储部分数据副本,而非独立存储或完全共享存储。路由表结合哈希分区算法和策略配置,确保高效的数据访问和负载均衡。

Notes

  • 分区路由支持动态调整,副本变更时会更新路由表
  • 哈希分区采用一致性哈希算法,减少数据重分布开销
  • 路由策略可根据业务需求灵活配置,支持读写分离和负载优化

深入了解数据库架构设计,探讨更多分布式系统实战经验,欢迎访问云栈社区开源实战板块。




上一篇:嵌入式与单片机的区别与关系:从硬件到软件的全面解析
下一篇:JavaScript框架的终结?探讨Web开发中框架的角色转变与务实选型策略
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-1-10 09:07 , Processed in 0.323608 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 云栈社区.

快速回复 返回顶部 返回列表