目录
生产环境一般无法连接到外网环境 ,所以直接使用TiUP在线安装TiDB 的方式不太可取 。本篇博客介绍如何使用TiUP离线安装TiDB
1 下载TiDB离线组件包
wget https://download.pingcap.org/tidb–community–server–v6.5.5-linux-amd64.tar.gz
wget https://download.pingcap.org/tidb-community-toolkit-v6.5.5-linux-amd64.tar.gz
2 安装TiUP
将离线包发送到目标集群的中控机后,执行以下命令安装 TiUP 组件:
tar -zxvf tidb-community-server-v6.5.5-linux-amd64.tar.gz
cd tidb-community-server-v6.5.5-linux-amd64
sh local_install.sh # 脚本的内容大致为 :检查系统 ,架构 ,tar 命令是否存在 ,设置TiUP的环境变量 设置离线镜像等
设置离线镜像为 /home/software/tidb-community-server-v6.5.5-linux-amd64
生效环境变量 source /root/.bash_profile 或者 从新开一个终端
TiUP的可执行命令在目录下 /root/.tiup/bin/tiup
$ sh local_install.sh
Disable telemetry success
Successfully set mirror to /home/software/tidb-community-server-v6.5.5-linux-amd64
Detected shell: bash
Shell profile: /root/.bash_profile
/root/.bash_profile has been modified to to add tiup to PATH
open a new terminal or source /root/.bash_profile to use it
Installed path: /root/.tiup/bin/tiup
===============================================
1. source /root/.bash_profile
2. Have a try: tiup playground
===============================================
local_install.sh
脚本会自动执行 tiup mirror set tidb-community-server-${version}-linux-amd64
命令将当前镜像地址设置为 tidb-community-server-${version}-linux-amd64
。
若需将镜像切换到其他目录,可以通过手动执行 tiup mirror set <mirror-dir>
进行切换。如果需要切换到在线环境,可执行 tiup mirror set https://tiup-mirrors.pingcap.com
。
3 合并离线包
如果是通过官方下载页面下载的离线软件包,需要将 TiDB-community-server 软件包和 TiDB-community-toolkit 软件包合并到离线镜像中。执行以下命令合并离线组件到 server 目录下。
# 解压组件包
tar -xf tidb-community-toolkit-v6.5.5-linux-amd64.tar.gz
# 查看目录
ls -ld tidb-community-server-v6.5.5-linux-amd64 tidb-community-toolkit-v6.5.5-linux-amd64
cp -rp keys ~/.tiup/
# 合并镜像包
tiup mirror merge ../tidb-community-toolkit-v6.5.5-linux-amd64
$ tiup mirror show
/home/software/tidb-community-server-v6.5.5-linux-amd64
$ which tiup
/root/.tiup/bin/tiup
4 TIDB 软件和硬件环境建议配置
TiDB 软件和硬件环境建议配置 | PingCAP 文档中心
5 TiDB环境与系统配置检查
6 生成集群初始化配置文件模板
# 生成在执行命令的目录下
tiup cluster template > topology.yaml
7 执行部署命令
1 检查就能存在的潜在风险
tiup cluster check tidb.yaml
2 手动修复风险
例如 报错
10.79.23.47 limits Fail soft limit of ‘nofile’ for user ‘tidb’ is not set or too low
10.79.23.47 limits Fail hard limit of ‘nofile’ for user ‘tidb’ is not set or too low
10.79.23.47 limits Fail soft limit of ‘stack‘ for user ‘tidb’ is not set or too low
解决
cat << EOF >>/etc/security/limits.conf
tidb soft nofile 1000000
tidb hard nofile 1000000
tidb soft stack 32768
tidb hard stack 32768
EOF
3 部署 TiDB 集群
tiup cluster deploy tidb-test v6.5.5 tidb.yaml
tidb-test
为部署的集群名称。v6.5.5
为部署的集群版本,可以通过执行tiup list tidb
来查看 TiUP 支持的最新可用版本。- 初始化配置文件为tidb
.yaml
。 --user root
表示通过 root 用户登录到目标主机完成集群部署,该用户需要有 ssh 到目标机器的权限,并且在目标机器有 sudo 权限。也可以用其他有 ssh 和 sudo 权限的用户完成部署。- [-i] 及 [-p] 为可选项,如果已经配置免密登录目标机,则不需填写。否则选择其一即可,[-i] 为可登录到目标机的 root 用户(或 —user 指定的其他用户)的私钥,也可使用 [-p] 交互式输入该用户的密码。
预期日志结尾输出 Deployed cluster `tidb-test` successfully
关键词,表示部署成功。
8 查看TIUP管理的集群情况
TiUP 支持管理多个 TiDB 集群,该命令会输出当前通过 TiUP cluster 管理的所有集群信息,包括集群名称、部署用户、版本、密钥信息等。
$ tiup cluster list
tiup is checking updates for component cluster ...
Starting component `cluster`: /root/.tiup/components/cluster/v1.13.0/tiup-cluster list
Name User Version Path PrivateKey
---- ---- ------- ---- ----------
tidb-test tidb v6.5.5 /root/.tiup/storage/cluster/clusters/tidb-test /root/.tiup/storage/cluster/clusters/tidb-test/ssh/id_rsa
9 检查部署的 TiDB 集群情况
预期输出包括 tidb-test
集群中实例 ID、角色、主机、监听端口和状态(由于还未启动,所以状态为 Down/inactive)、目录信息。
$ tiup cluster display tidb-test
tiup is checking updates for component cluster ...
Starting component `cluster`: /root/.tiup/components/cluster/v1.13.0/tiup-cluster display tidb-test
Cluster type: tidb
Cluster name: tidb-test
Cluster version: v6.5.5
Deploy user: tidb
SSH type: builtin
Grafana URL: http://10.79.23.47:3001
ID Role Host Ports OS/Arch Status Data Dir Deploy Dir
-- ---- ---- ----- ------- ------ -------- ----------
10.79.23.47:9093 alertmanager 10.79.23.47 9093/9094 linux/x86_64 Down /home/storage/tidb_data/alertmanager-9093 /home/storage/tidb_deploy/alertmanager-9093
10.79.23.47:3001 grafana 10.79.23.47 3001 linux/x86_64 Down - /home/storage/tidb_deploy/grafana-3001
10.79.23.45:2379 pd 10.79.23.45 2379/2380 linux/x86_64 Down /home/storage/tidb_data/pd-2379 /home/storage/tidb_deploy/pd-2379
10.79.23.46:2379 pd 10.79.23.46 2379/2380 linux/x86_64 Down /home/storage/tidb_data/pd-2379 /home/storage/tidb_deploy/pd-2379
10.79.23.47:2379 pd 10.79.23.47 2379/2380 linux/x86_64 Down /home/storage/tidb_data/pd-2379 /home/storage/tidb_deploy/pd-2379
10.79.23.47:9090 prometheus 10.79.23.47 9090/12020 linux/x86_64 Down /home/storage/tidb_data/prometheus-9090 /home/storage/tidb_deploy/prometheus-9090
10.79.23.45:4000 tidb 10.79.23.45 4000/10080 linux/x86_64 Down - /home/storage/tidb_deploy/tidb-4000
10.79.23.46:4000 tidb 10.79.23.46 4000/10080 linux/x86_64 Down - /home/storage/tidb_deploy/tidb-4000
10.79.23.45:20160 tikv 10.79.23.45 20160/20180 linux/x86_64 N/A /home/storage/tidb_data/tikv-20160 /home/storage/tidb_deploy/tikv-20160
10.79.23.46:20160 tikv 10.79.23.46 20160/20180 linux/x86_64 N/A /home/storage/tidb_data/tikv-20160 /home/storage/tidb_deploy/tikv-20160
10.79.23.47:20160 tikv 10.79.23.47 20160/20180 linux/x86_64 N/A /home/storage/tidb_data/tikv-20160 /home/storage/tidb_deploy/tikv-20160
Total nodes: 11
10 启动集群
启动 tiup cluster start tidb-test
$ tiup cluster start tidb-test
tiup is checking updates for component cluster ...
Starting component `cluster`: /root/.tiup/components/cluster/v1.13.0/tiup-cluster start tidb-test
Starting cluster tidb-test...
+ [ Serial ] - SSHKeySet: privateKey=/root/.tiup/storage/cluster/clusters/tidb-test/ssh/id_rsa, publicKey=/root/.tiup/storage/cluster/clusters/tidb-test/ssh/id_rsa.pub
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.46
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.46
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.45
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.47
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.47
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.46
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.47
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.47
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.47
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.45
+ [Parallel] - UserSSH: user=tidb, host=10.79.23.45
+ [ Serial ] - StartCluster
Starting component pd
Starting instance 10.79.23.47:2379
Starting instance 10.79.23.46:2379
Starting instance 10.79.23.45:2379
Start instance 10.79.23.45:2379 success
Start instance 10.79.23.47:2379 success
Start instance 10.79.23.46:2379 success
Starting component tikv
Starting instance 10.79.23.47:20160
Starting instance 10.79.23.46:20160
Starting instance 10.79.23.45:20160
Start instance 10.79.23.47:20160 success
Start instance 10.79.23.46:20160 success
Start instance 10.79.23.45:20160 success
Starting component tidb
Starting instance 10.79.23.46:4000
Starting instance 10.79.23.45:4000
Start instance 10.79.23.45:4000 success
Start instance 10.79.23.46:4000 success
Starting component prometheus
Starting instance 10.79.23.47:9090
Start instance 10.79.23.47:9090 success
Starting component grafana
Starting instance 10.79.23.47:3001
Start instance 10.79.23.47:3001 success
Starting component alertmanager
Starting instance 10.79.23.47:9093
Start instance 10.79.23.47:9093 success
Starting component node_exporter
Starting instance 10.79.23.45
Starting instance 10.79.23.47
Starting instance 10.79.23.46
Start 10.79.23.45 success
Start 10.79.23.47 success
Start 10.79.23.46 success
Starting component blackbox_exporter
Starting instance 10.79.23.47
Starting instance 10.79.23.45
Starting instance 10.79.23.46
Start 10.79.23.45 success
Start 10.79.23.47 success
Start 10.79.23.46 success
+ [ Serial ] - UpdateTopology: cluster=tidb-test
Started cluster `tidb-test` successfully
停止
tiup cluster stop tidb-test
参考 :
使用 TiUP 离线部署 TiDB 集群 | PingCAP 文档中心
使用 TiUP 部署 TiDB 集群 | PingCAP 文档中心 (包含离线安装方式)
原文地址:https://blog.csdn.net/weixin_48154829/article/details/134579210
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_3722.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!