【PPT 下载】TiDB 在小红书、爱奇艺、咪咕、华安基金、数禾科技的核心场景/简化技术栈/降本增效实践,一起探索国产数据库替换下简化技术栈的收益和实践!
其他
其他
商业咨询
其他
文档
其他
论坛
其他
专栏
其他
课程
其他
活动
其他
排行榜
其他
TiDB User Group
其他
TiDB 地区组织活动
其他
贡献者专区
其他
社区准则
其他
私信
orgtest1
V4
于 2019-11-27 加入
获赞
93
回答
983
文章
3
徽章
8/34
点亮更多徽章
回答 983
提问 56
文章 3
全部
测试帖子测试测试
okkk单机
2 年前
send keepalive message fail报错
好的
4 年前
send keepalive message fail报错
那么这个日志打印的问题在高版本已经修复,对业务是没有影响的。现在伴随着日志的输出,对线上有什么具体的影响吗?
4 年前
send keepalive message fail报错
这个报错是因为日志等级设置偏高打出来的 LOG 信息,不会影响集群使用,在 4.0.11 已经修复,具体 issue
https://github.com/tikv/tikv/pull/9818
。另外出现报错的集群是什么版本?
4 年前
send keepalive message fail报错
不好意思,正在内部咨询,晚点回复哈
4 年前
send keepalive message fail报错
具体问题还没有思路,推测是因为混合部署影响的。下次就不一定是leader了 可以看下文档这里,可以指定 PD 的 leader
https://docs.pingcap.com/zh/tidb/stable/pd-control#下载安装包
[image]
4 年前
关于 TiCDC `old_valuie` + `safe-mode=false` 模式下出现 `Duplicate entry` 的问题
请问下 这里使用 safe-mode=false 是基于什么需求?当前不建议设置 safe-mode=false
4 年前
tidb-ctl 无法获取分区表大小
请问下这里提到的不是一个有效值,是结果数据不对还是结果形式上无效?
4 年前
send keepalive message fail报错
可以把 PD 特别是 PD 的 leader 拆出来单独部署在一台服务试下?
4 年前
send keepalive message fail报错
两个问题:1、试着吧 PD 的 leader 节点单独拆出来部署试试 2、机器部署的配置是官网推荐的吗?
4 年前
send keepalive message fail报错
报错的 PD 日志是 PD leader 节点的吗
4 年前
send keepalive message fail报错
这么说吧,检查下是不是有 TiKV、PD 以及 TiDB 混合部署的情况,
https://github.com/pingcap/tidb/issues/14240
4 年前
send keepalive message fail报错
环境是怎么部署的,display 看下集群拓扑
4 年前
通过JDBC 执行SQL 语句 在 TIDB 4.0 下出现 java.sql.SQLException: ResultSet is from UPDATE. No Data. 错误
看下这里呢
https://github.com/alibaba/druid/issues/2091
看类似的报错解决方法比较多,整体看下来,跟 TiDB 关系不大。
4 年前
TIFLASH什么也没有干,CPU持续10%以上,好奇怪
https://docs.pingcap.com/zh/tidb/stable/tidb-scheduling#信息收集
可以看下这里介绍
4 年前
tidb4实时同步到mysql5.7
https://docs.pingcap.com/zh/tidb/v4.0/tidb-binlog-overview
https://docs.pingcap.com/zh/tidb/v4.0/ticdc-overview
都可以
4 年前
设置了session只读tiflash,无法正常select
这是没有把表同步到 tiflash 就这么设置之后做查询吧,试试把表同步到 tiflash 再查。
4 年前
TableRangeScan扫描方式实现和index join
区别可以看下这里:
https://docs.pingcap.com/zh/tidb/stable/explain-overview#如何阅读扫表的执行计划
这里什么没有带条件约束还是走的 tablerangescan 是因为主键是非负的,所以是 [0,+inf]。如果是全表扫,这里应该是[-inf , +inf]。
4 年前
新集群 io utilization
看起来就是 KV 三个节点的 IO 比较高,这个现象是从 lightning 导数结束开始的吗?可以提供下 PD 的监控看下是否是因为导数完成之后 region 调度引起的问题。
4 年前
没有更多内容了