【火热报名中】4 月 12 日 TiDB 社区活动在南京!传统技术栈替换和 AI 浪潮正当时,面向未来的国产数据库怎么选择?
其他
其他
商业咨询
其他
文档
其他
论坛
其他
专栏
其他
课程
其他
活动
其他
排行榜
其他
TiDB User Group
其他
TiDB 地区组织活动
其他
贡献者专区
其他
社区准则
其他
私信
orgtest1
V4
于 2019-11-27 加入
获赞
93
回答
983
文章
3
徽章
8/34
点亮更多徽章
回答 983
提问 56
文章 3
全部
测试帖子测试测试
okkk单机
3 年前
send keepalive message fail报错
好的
4 年前
send keepalive message fail报错
那么这个日志打印的问题在高版本已经修复,对业务是没有影响的。现在伴随着日志的输出,对线上有什么具体的影响吗?
4 年前
send keepalive message fail报错
这个报错是因为日志等级设置偏高打出来的 LOG 信息,不会影响集群使用,在 4.0.11 已经修复,具体 issue
https://github.com/tikv/tikv/pull/9818
。另外出现报错的集群是什么版本?
4 年前
send keepalive message fail报错
不好意思,正在内部咨询,晚点回复哈
4 年前
send keepalive message fail报错
具体问题还没有思路,推测是因为混合部署影响的。下次就不一定是leader了 可以看下文档这里,可以指定 PD 的 leader
https://docs.pingcap.com/zh/tidb/stable/pd-control#下载安装包
[image]
4 年前
关于 TiCDC `old_valuie` + `safe-mode=false` 模式下出现 `Duplicate entry` 的问题
请问下 这里使用 safe-mode=false 是基于什么需求?当前不建议设置 safe-mode=false
4 年前
tidb-ctl 无法获取分区表大小
请问下这里提到的不是一个有效值,是结果数据不对还是结果形式上无效?
4 年前
send keepalive message fail报错
可以把 PD 特别是 PD 的 leader 拆出来单独部署在一台服务试下?
4 年前
send keepalive message fail报错
两个问题:1、试着吧 PD 的 leader 节点单独拆出来部署试试 2、机器部署的配置是官网推荐的吗?
4 年前
send keepalive message fail报错
报错的 PD 日志是 PD leader 节点的吗
4 年前
send keepalive message fail报错
这么说吧,检查下是不是有 TiKV、PD 以及 TiDB 混合部署的情况,
https://github.com/pingcap/tidb/issues/14240
4 年前
send keepalive message fail报错
环境是怎么部署的,display 看下集群拓扑
4 年前
通过JDBC 执行SQL 语句 在 TIDB 4.0 下出现 java.sql.SQLException: ResultSet is from UPDATE. No Data. 错误
看下这里呢
https://github.com/alibaba/druid/issues/2091
看类似的报错解决方法比较多,整体看下来,跟 TiDB 关系不大。
4 年前
TIFLASH什么也没有干,CPU持续10%以上,好奇怪
https://docs.pingcap.com/zh/tidb/stable/tidb-scheduling#信息收集
可以看下这里介绍
4 年前
tidb4实时同步到mysql5.7
https://docs.pingcap.com/zh/tidb/v4.0/tidb-binlog-overview
https://docs.pingcap.com/zh/tidb/v4.0/ticdc-overview
都可以
4 年前
设置了session只读tiflash,无法正常select
这是没有把表同步到 tiflash 就这么设置之后做查询吧,试试把表同步到 tiflash 再查。
4 年前
TableRangeScan扫描方式实现和index join
区别可以看下这里:
https://docs.pingcap.com/zh/tidb/stable/explain-overview#如何阅读扫表的执行计划
这里什么没有带条件约束还是走的 tablerangescan 是因为主键是非负的,所以是 [0,+inf]。如果是全表扫,这里应该是[-inf , +inf]。
4 年前
新集群 io utilization
看起来就是 KV 三个节点的 IO 比较高,这个现象是从 lightning 导数结束开始的吗?可以提供下 PD 的监控看下是否是因为导数完成之后 region 调度引起的问题。
4 年前
没有更多内容了