单机部署TiDB
目录[*]一、准备环境
[*]1、os版本确认
[*]2、关闭防火墙及SELinux
[*]2.1、关闭防火墙服务
[*]2.2、关闭SELinux
[*]3、关闭大页内存
[*]4、检测及关闭系统swap
[*]5、TiDB集群拓扑
[*]6、内存推荐
[*]二、实施部署
[*]1、下载并安装TiUP
[*]2、声明全局环境变量
[*]3、安装 TiUP 的 cluster 组件
[*]4、调大 sshd 服务的连接数限制
[*]5、创建拓扑配置文件
[*]6、执行集群部署命令
[*]6.1、交互式输入root用户密码和y继续
[*]7、启动集群
[*]8、查看集群列表和拓扑结构
[*]8.1、查看已部署的集群列表
[*]8.2、查看集群的拓扑结构和状态
[*]9、访问集群端点
[*]9.1、安装MySQL客户端
[*]9.2、使用MySQL客户端访问TiDB数据库
[*]10、访问Grafana监控页面
[*]11、集群 TiDB Dashboard 监控页面
[*]三、卸载TiDB
[*]1、语法
[*]2、选项
官网 - 在单机上模拟部署生产环境集群
一、准备环境
1、os版本确认
[*]目前 TiUP Cluster 支持在 x86_64(AMD64)和 ARM 架构上部署 TiDB 集群
[*]在 AMD64 架构下,建议使用 CentOS 7.3 及以上版本 Linux 操作系统
[*]在 ARM 架构下,建议使用 CentOS 7.6 (1810) 版本 Linux 操作系统
[*]仅centos版本
[*]cat /etc/centos-release
[*]通用脚本
[*]#!/bin/bash
bash <<'EOF'
# 获取详细系统信息
echo "===== ====="
echo "=== Generated at: $(date '+%Y-%m-%d %H:%M:%S %Z') ==="
# OS详细信息
echo -e "\n===== OS Details ====="
if [ -f /etc/os-release ]; then
cat /etc/os-release
else
echo "WARNING: /etc/os-release not found!"
fi
# 发行版特定信息
echo -e "\n===== Version Details ====="
{
# CentOS/RHEL
if [ -f /etc/centos-release ]; then
centos_ver=$(awk '{print $4}' /etc/centos-release 2>/dev/null)
echo "CentOS Version: $centos_ver"
rpm -q centos-release --queryformat 'Release Package: %{VERSION}-%{RELEASE}\n' 2>/dev/null
elif [ -f /etc/redhat-release ]; then
rhel_ver=$(awk '{print $(NF-1)}' /etc/redhat-release 2>/dev/null)
echo "RHEL Version: $rhel_ver"
rpm -q redhat-release-server --queryformat 'Release Package: %{VERSION}-%{RELEASE}\n' 2>/dev/null ||
rpm -q redhat-release --queryformat 'Release Package: %{VERSION}-%{RELEASE}\n' 2>/dev/null
fi
# Ubuntu
if [ -f /etc/lsb-release ]; then
echo "Ubuntu Version: $(lsb_release -ds 2>/dev/null || grep DISTRIB_DESCRIPTION /etc/lsb-release | cut -d= -f2)"
fi
# Debian
if [ -f /etc/debian_version ]; then
debian_ver=$(cat /etc/debian_version 2>/dev/null)
echo "Debian Version: $debian_ver"
fi
# Amazon Linux
if grep -q "Amazon Linux" /etc/os-release 2>/dev/null; then
echo "Amazon Linux Version: $(grep PRETTY_NAME /etc/os-release | cut -d'"' -f2)"
fi
# Alpine
if [ -f /etc/alpine-release ]; then
echo "Alpine Version: $(cat /etc/alpine-release)"
fi
} 2>/dev/null
# 核心系统信息
echo -e "\n===== Core System Info ====="
echo "Kernel Version: $(uname -r)"
echo "System Arch: $(uname -m)"
echo "Hostname: $(hostname -f 2>/dev/null || hostname)"
# 增强版uptime信息
echo -n "Uptime: "
if uptime -p &>/dev/null; then
uptime -p | sed 's/up //'
else
awk '{printf "%d days, %d hours", int($1/86400), int(($1%86400)/3600)}' /proc/uptime
fi
# 内存信息
echo -e "\n===== Memory Usage ====="
free -h | awk '/Mem:/{printf "Total: %s, Used: %s, Free: %s (%.1f%% used)\n", $2, $3, $4, $3/$2*100}'
# 磁盘根分区信息
echo -e "\n===== Disk Usage (Root) ====="
df -h / | awk 'NR==2{printf "Total: %s, Used: %s, Avail: %s (%.1f%% used)\n", $2, $3, $4, $5}'
echo -e "\n===== ====="
EOF
2、关闭防火墙及SELinux
2.1、关闭防火墙服务
systemctl stop firewalld.service
systemctl disable firewalld.service
systemctl status firewalld.service2.2、关闭SELinux
sed -i "s/SELINUX=enforcing/SELINUX=disabled/" /etc/selinux/config
getenforce
3、关闭大页内存
cat /sys/kernel/mm/transparent_hugepage/enabled
cat /sys/kernel/mm/transparent_hugepage/defrag
echo never > /sys/kernel/mm/transparent_hugepage/enabled
echo never > /sys/kernel/mm/transparent_hugepage/defrag
cat /sys/kernel/mm/transparent_hugepage/enabled
cat /sys/kernel/mm/transparent_hugepage/defrag
4、检测及关闭系统swap
echo "vm.swappiness = 0">> /etc/sysctl.conf
sysctl -p
swapoff -a && swapon -a如果在部署时使用参数 --user root -p 就可以忽略免密互信,对于有需求的可以参考免密互信
5、TiDB集群拓扑
最小规模的 TiDB 集群拓扑包含以下实例:
实际部署时IP即为本机实际IP
实例个数IP配置TiKV3127.0.0.1使用递增的端口号以避免冲突TiDB1127.0.0.1使用默认端口和其他配置PD1127.0.0.1使用默认端口和其他配置TiFlash1127.0.0.1使用默认端口和其他配置Monitor1127.0.0.1使用默认端口和其他配置6、内存推荐
最小化安装我尝试过的内存设置是至少8.6G,推荐本地测试集群内存设置为16G
二、实施部署
1、下载并安装TiUP
遇到 curl SSL 证书验证失败 的情况,在命令后面增加 --insecure 即可
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
2、声明全局环境变量
${your_shell_profile} 在安装TiUP输出的信息中有,对应着声明即可
source /root/.bash_profile3、安装 TiUP 的 cluster 组件
tiup cluster
# 如果机器已经安装 TiUP cluster,需要更新软件版本:
tiup update --self && tiup update cluster
4、调大 sshd 服务的连接数限制
[*]由于模拟多机部署,需要通过 root 用户调大 sshd 服务的连接数限制。修改 /etc/ssh/sshd_config 将 MaxSessions 调至 20。
[*]sed -i '/^#*MaxSessions[[:space:]]\+\+/s/.*/MaxSessions 20/' /etc/ssh/sshd_config
[*]
[*]重启sshd服务
[*]service sshd restart
5、创建拓扑配置文件
[*]user: "tidb":表示通过 tidb 系统用户(部署会自动创建)来做集群的内部管理,默认使用 22 端口通过 ssh 登录目标机器
[*]replication.enable-placement-rules:设置这个 PD 参数来确保 TiFlash 正常运行
[*]host:设置为本部署主机的 IP,单机部署IP设置为 127.0.0.1 即可
global:
user: "tidb"
ssh_port: 22
deploy_dir: "/tidb-deploy"
data_dir: "/tidb-data"
monitored:
node_exporter_port: 9100
blackbox_exporter_port: 9115
server_configs:
tidb:
instance.tidb_slow_log_threshold: 300
tikv:
readpool.storage.use-unified-pool: false
readpool.coprocessor.use-unified-pool: true
pd:
replication.enable-placement-rules: true
replication.location-labels: ["host"]
tiflash:
logger.level: "info"
pd_servers:
- host: 127.0.0.1
tidb_servers:
- host: 127.0.0.1
tikv_servers:
- host: 127.0.0.1
port: 20160
status_port: 20180
config:
server.labels: { host: "logic-host-1" }
- host: 127.0.0.1
port: 20161
status_port: 20181
config:
server.labels: { host: "logic-host-2" }
- host: 127.0.0.1
port: 20162
status_port: 20182
config:
server.labels: { host: "logic-host-3" }
tiflash_servers:
- host: 127.0.0.1
monitoring_servers:
- host: 127.0.0.1
grafana_servers:
- host: 127.0.0.16、执行集群部署命令
tiup cluster deploy <cluster-name> <version> ./topo.yaml --user root -p
[*]参数表示设置集群名称
[*]参数表示设置集群版本,例如 v8.5.1。可以通过 tiup list tidb 命令来查看当前支持部署的 TiDB 版本
[*]参数 --user 表示初始化环境的用户
[*]参数 -p 表示在连接目标机器时使用密码登录
tiup cluster deploy tidb_test1 v8.5.1 ./topo.yaml --user root -p6.1、交互式输入root用户密码和y继续
7、启动集群
tiup cluster start tidb_test1
8、查看集群列表和拓扑结构
8.1、查看已部署的集群列表
tiup cluster list
8.2、查看集群的拓扑结构和状态
tiup cluster display tidb_test1
9、访问集群端点
9.1、安装MySQL客户端
如果已安装,可以跳过这一步
yum install -y mysql
9.2、使用MySQL客户端访问TiDB数据库
密码为空
mysql -h 192.168.202.20 -P 4000 -u root
10、访问Grafana监控页面
默认用户名和密码都是admin
http://192.168.202.20:3000
11、集群 TiDB Dashboard 监控页面
http://{pd-ip}:2379/dashboard
三、卸载TiDB
当业务下线之后,如果想将集群占有的机器释放出来让给其他业务使用,需要清理掉集群上的数据以及部署的二进制文件。tiup cluster destroy 命令会执行以下操作销毁集群:
[*]停止集群
[*]对于每个服务,删除其日志目录,部署目录,数据目录
[*]如果各个服务的数据目录/部署目录的父目录是由 tiup-cluster 创建的,也一并删除
1、语法
tiup cluster destroy <cluster-name>
2、选项
--force
[*]在某些情况下,有可能集群中的某些节点已经宕机,导致无法通过 SSH 连接到节点进行操作,这个时候可以通过 --force 选项忽略这些错误。
[*]数据类型:BOOLEAN
[*]该选项默认关闭,默认值为 false。在命令中添加该选项,并传入 true 值或不传值,均可开启此功能。
--retain-node-data(StringArray,默认为空)
指定需要保留数据的节点,如需指定多个,重复使用多次该选项:--retain-node-data--retain-node-data 。
--retain-role-data(StringArray,默认为空)
指定需要保留数据的角色,如需指定多个,重复使用多次该选项:--retain-role-data--retain-role-data 。
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页:
[1]