PART Ⅰ : 容器云OPENSHIFT
- 安装
- 数据持久化
- 集群管理
- 数据持久化
- 管理
- 网络
- 安全审计
- 工具应用部署
PART Ⅱ:容器云 KUBERNETES
- 基础
- 原理
- 系统应用/网络CNI/TRaefik
- 安装
- 集群管理
- 用户认证ServiceAccount与授权策略RBAC
- K8S应用管理工具Helm
- 问题
- 辅助工具
- Doing:K8S 多集群管理与网络互联
- VM On K8S
PART Ⅲ:持续集成与持续部署
- CICD优化总结
- Jenkins
- Gitlab
- Drone
- Nexus
- 配置
- 使用OrientDB Console在DB层面修改配置
- [设置SMTP邮件服务](https://www.wenjiangs.com/doc/krrcu7ebin9hh
- 仓库管理
- 数据备份恢复
- API
- Jenkins相关插件
- 配置
- SonarQube静态代码扫描分析
- LDAP
- Apollo
- 项目管理工具
- Jira
- Redmine
- Harbor
- Vault
- Alfred
- Web IDE: VSCode
- DolphinScheduler
PART Ⅴ:日志/监控/告警
- Logging
- Kafka/Zookeeper
- Filebeat
- Metrics
- Tracing
- Sentry日志聚合告警平台
PART Ⅵ:基础
- Docker
- Shell脚本
- Mave
- git
- 正则表达式
- SSL/TLS
- Ceph
- 性能压力测试
- PXE+Kickstart
- netboot.xyz
- Tool
- Windows
- MacOS小技巧
- Linux
- Linux排错优化
- iptables详解
- MySQL
- Redis
- 负载均衡与代理
- 代理服务器
- Nginx
- GitBook
- Telegram机器人
- OpenVPN Server
- iDRAC
- vSphere
- Raspberry Pi树莓派
- 钉钉机器人
- Aliyun CLI
- 音、视频处理工具:fffmpeg
- 图片处理工具:Imagemagick
- PDF处理工具:Ghostscript
- Nvidia
- Virtualbox 虚拟机管理
- 阿里云产品使用总结
- RustDesk:可自建远程控制软件
- Poste:自建邮件服务器
- 使用 Jlink构建最小化依赖的 JRE 环境
- Aria2
- Asuswrt-Merlin
- Trap:Shell脚本信号跟踪
- 零散知识汇总
- BarkServer通知
- Synology
PART Ⅶ:数据存储、处理
PART VIII:CODE
- Python学习笔记
- 基础语法
- statik 将静态资源文件打包到二进制文件中
- HTML/CSS 学习笔记
- JavaScript学习笔记
PART X:HACKINTOSH
PART XI:安全
文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
大数据量的迁移方案对比
迁移全量MySQL数据到TIDB。情况如下:
源库:RDS备份文件启动的MySQL实例,一个DB,数据量大约800张表,数据大小500+GB
目标库:TIDB集群
将源库中的数据导入TiDB
1、Navicat的数据传输工具
- 直接使用Navicat的数据传输工具,配置数据源连接和目标源连接。
2、TiDB生态圈工具
- TiDB Dumping导出:导出源MySQL中的数据为SQL文件
- 修改SQL文件命名:修改TiDB Dumping导出的SQL文件命名格式
- TiDB Lighting导入:将SQL文件导入到TiDB
TiDB Dumpling
version=v4.0.5 && \
curl -# https://download.pingcap.org/tidb-toolkit-$version-linux-amd64.tar.gz | tar -zxC /opt && \
ln -s /opt/tidb-toolkit-$version-linux-amd64 /opt/tidb-toolkit-$version && \
echo "export PATH=/opt/tidb-toolkit-$version/bin:$PATH" >> /etc/profile && \
mkdir -p /data/dumping-export/sql && \
source /etc/profile && \
nohup dumpling \
-u 用于导出数据的用户 \ # 用于导出数据的用户要拥有SELECT、RELOAD、LOCK TABLES、REPLICATION CLIENT服务器权限
-p 用于导出数据的用户密码 \
-P 3306 \
-h 192.168.1.4 \
-B database \ # 指定要导出的Database
--filetype sql \ # 指定导出文件类型(可为csv/sql)
--threads 32 \ # 指定备份并发线程数
-o /data/dumping-export/sql \ # 指定导出文件存储路径
-F 256MiB \ # 指定导出文件最大大小
--logfile /data/dumping-export/export-task.log >/data/dumping-export/dumpling-nohupout.log 2>&1 &
批量修改SQL文件
# 例如源库DB为Test,想把数据导入到目标库Test-2中
old_database_name=test
new_database_name=Test-2
for i in $(ls /data/dumping-export/sql/*.sql | grep -v schema-create );do
mv /data/dumping-export/sql/$i /data/dumping-export/sql/$new_database_name.${i#*.};
done
mv /data/dumping-export/sql/${old_database_name}-schema-create.sql /data/dumping-export/sql/${new_database_name}-schema-create.sql
echo "" > ${new_database_name}-schema-create.sql
TiDB Lighting
nohup /opt/tidb-toolkit-v4.0.5-linux-amd64/bin/tidb-lightning \
-config /data/dumping-export/tidb-lightning.toml \
--log-file /data/dumping-export/import-task.log > /data/dumping-export/lightning-nohupout.log 2>&1 &
nohup tidb-lightning \
-L info \
-log-file /data/dumping-export/import-task.log \
-backend tidb \
-status-addr 10080 \
-d /data/dumping-export/sql \
-tidb-host 192.168.1.4 \
-tidb-port 4000 \
-tidb-user root \
-tidb-password ***** > /data/dumping-export/lightning-nohupout.log 2>&1 &
大约三千万条
记录的表,Navicat数据传输工具同步完耗时约3个小时
,而使用TiDB生态圈的工具耗时26分钟
1、查询DB下所有表的行数
由于从INFORMATION_SCHEMA.TABLES
中显示的表的行数不准确,需要使用count函数来统计表的行数
SELECT CONCAT( 'SELECT "', TABLE_NAME, '", COUNT(*) FROM ', TABLE_SCHEMA, '.', TABLE_NAME, ' UNION ALL' ) EXEC_SQL
FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_SCHEMA = 'DB名字';
上述SQL会输出用于统计表的SQL语句,复制以后,删除最后一行末尾的UNION ALL
,然后执行
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论