一? 线上常见问题定位
常见问题 1:CPU 利用率高
CPU 使用率是衡量系统繁忙程度的重要指标,一般情况下单纯的 CPU 高并没有问题,它代表系统正在不断的处理我们的任务,但是如果 CPU 过高,导致任务处理不过来,从而引起 load 高,这个是非常
危险需要关注的。 CPU 使用率的安全值没有一个标准值,取决于你的系统是计算密集型还是 IO 密集型,一般计算密集型应用 CPU 使用率偏高 load 偏低,IO 密集型相反。
问题原因及定位:
1? 频繁 FullGC/YongGC
查看 gc 日志
jstat -gcutil pid? 查看
内存使用和 gc 情况
2? 代码消耗,如死
循环,md5 等内存态操作
1)art
has (已开源:https://github.com/alibaba/arthas)
thread -n 5? 查看 CPU 使用率最高的前 5 个
线程(包含
堆栈,第二部分有详解)
2)jstack 查找
ps -ef | grep java? 找到 Java 进程 id
top -Hp pid? 找到使用 CPU 最高的线程
printf ‘0x%x’? tid? 线程 id 转化 16 进制
jstack pid | grep tid? 找到线程堆栈
??????????????????
ps:输入“1”可查看每个 CPU 的情况,之前有团队遇到单个 CPU 被中间件绑定导致 CPU 飚高的 case。
常见问题 2:load 高
load 指单位时间内活跃进程数,包含运行态(runnable 和 running)和不可中断态( IO、
内核态锁)。
关键字是运行态和不可中断态,运行态可以联想到 Java 线程的 6 种状态,如下,线程 new 之后处于 NEW 状态,执行 start 进入 runnable 等待 CPU 调度,因此如果 CPU 很忙会导致 runnable 进程数增加;不可中断态主要包含网络 IO、磁盘 IO 以及内核态的锁,如 synchronized 等。
问题原因及定位:
1? CPU 利用率高,可运行态进程数多
排查方法见常见问题一
2? iowait,等待 IO
vmstat? 查看 blocked 进程状况
jstack -l pid | grep BLOCKED? 查看阻塞态线程堆栈
3? 等待内核态锁,如 synchronized
jstack -l pid | grep BLOCKED? 查看阻塞态线程堆栈
profiler? dump 线程栈,分析线程持锁情况
常见问题 3:持续 FullGC
在了解 FullGC 原因之前,先花一点时间回顾下 jvm 的内存相关知识:
内存模型
新 new 的对象放在 Eden 区,当 Eden 区满之后进行一次 MinorGC,并将存活的对象放入 S0;
当下一次 Eden 区满的时候,再次进行 MinorGC,并将存活的对象和 S0 的对象放入S1(S0 和 S1 始终有一个是空的);
依次循环直到 S0 或者 S1 快满的时候将对象放入 old 区,依次,直到 old 区满进行 FullGC。
jdk1.7 之前 Java 类信息、常量池、静态变量存储在 Perm 永久代,类的原数据和静态变量在类加载的时候放入 Perm 区,类
卸载的时候清理;在 1.8 中,MetaSpace 代替 Perm 区,使用本地内存,常量池和静态变量放入堆区,一定程度上解决了在运行时生成或加载大量类造成的 FullGC,如反射、代理、groovy 等。
回收器
年轻代常用 ParNew,复制
算法,多线程并行;
老年代常用
CMS,标记清除算法(会产生内存碎片),并发收集(收集过程中有用户线程产生对象)。
关键常用参数
CMSInitiatingOccupancyFraction 表示老年代使用率达到多少时进行 FullGC;
UseCMSCompactAtFullCollection 表示在进行 FullGC 之后进行老年代内存整理,避免产生内存碎片。
问题原因及定位:
1? prommotion
failed
从S区晋升的对象在老年代也放不下导致 FullGC(fgc 回收无效则抛 OOM)。
1)survivor 区太小,对象过早进入老年代。
jstat -gcutil pid 1000? 观察内存运行情况;
jinfo pid? 查看 SurvivorRatio 参数;
2)大对象分配,没有足够的内存。
日志查找关键字 “allocating large”;
profiler? 查看内存概况大对象分布;
3)old 区存在大量对象。
实例数量前十的类:jmap -histo pid | sort -n -r -k 2 | head -10
实例容量前十的类:jmap -histo pid | sort -n -r -k 3 | head -10
dump 堆,profiler 分析对象占用情况
2? concurrent mode failed
在 CMS GC 过程中业务线程将对象放入老年代(并发收集的特点)内存不足。详细原因:
1)fgc 触发比例过大,导致老年代占用过多,并发收集时用户线程持续产生对象导致达到触发 FGC 比例。
jinfo? 查看 CMSInitiatingOccupancyFraction 参数,一般 70~80 即可
2)老年代存在内存碎片。
jinfo? 查看 UseCMSCompactAtFullCollection 参数,在 FullGC 后整理内存
常见问题 4:线程池满
Java 线程池以有界
队列的线程池为例,当新任务提交时,如果运行的线程少于 corePoolSize,则创建新线程来处理请求。如果正在运行的线程数等于 corePoolSize 时,则新任务被添加到队列中,直到队列满。当队列满了后,会继续开辟新线程来处理任务,但不超过 maximumPoolSize。当任务队列满了并且已开辟了最大线程数,此时又来了新任务,ThreadPoolExecutor 会拒绝服务。
问题原因及定位:
1? 下游 RT 高,
超时时间不
合理
业务监控
sunfire
eagleeye
2? 数据库慢 sql 或者数据库死锁
日志关键字 “Deadlock found when trying to get lock”
Jstack 或 zprofiler 查看阻塞态线程
3? Java 代码死锁
jstack –l pid | grep -i –E 'BLOCKED | deadlock'
dump thread 通过 zprofiler 分析阻塞线程和持锁情况
常见问题 5:NoSuchMethodException
问题原因及定位:
1? jar 包冲突
java 在装载一个目录下所有 jar 包时,它加载的顺序完全取决于操作系统。
mvn dependency:tree? 分析报错方法所在的 jar 包
版本,留下新的
arthas:sc -d ClassName
XX:+TraceClassLoading
2? 同类问题
ClassNotFoundException
NoClassDefFoundError
ClassCastException
二? 常用工具介绍
常用命令
1? tail
-f?? 跟踪文件
2? grep
-i?? 忽略大小写
-v? 反转查找
-E? 扩展
正则表达式 :grep -E 'pattern1|pattern2' filename
3? pgm
-b?
开启并发
-p? 指定并发数
-A? 开启 askpass
4? awk
-F? 指定分隔符:awk -F “|”? '{print $1}‘ | sort -r | uniq -c
5? sed
时间段匹配:sed '/2020-03-02 10:00:00/,/2020-03-02 11:00:00/p' filename
arthas
阿里巴巴开源 Java 诊断工具(开源地址:https://github.com/alibaba/arthas),基于 javaAgent 方式,使用 Instrumentation 方式修改字节码方式进行 Java 应用诊断。
基础功能介绍
dashboard:系统实时数据面板, 可查看线程,内存,gc 等信息
thread:jvm 线程堆栈信息,如查看最繁忙的前 n 线程
getstatic:获取静态属性值,如 getstatic
className attrName 可用于查看线上开关真实值
sc:查看 jvm 已加载类信息,可用于排查 jar 包冲突
sm:查看 jvm 已加载类的方法信息
jad:反编译 jvm 加载类信息,排查代码逻辑没执行原因
watch:观测方法执行数据,包含出入参,
异常等;
watch xxxClass xxxMethod " {params, throwExp} "? -e -x 2
watch xxxClass xxxMethod "{params,returnObj}" "params[0].sellerId.equals('189')" -x 2
watch xxxClass xxxMethod sendMsg '@com.taobao.eagleeye.EagleEye@getTraceId()'
trace:方法内部调用时长,并输出每个节点的耗时,用于性能分析
tt:用于记录方法,并做回放
三? 常见问题恢复
1? 线程池满
rpc 框架线程池满
高 RT
接口进行线程数限流
应用内线程池满
重启可短暂缓解,具体还得看问题原因
2? CPU 高,load 高
单机置换或重启,可短暂缓解,恢复看具体原因
集群高且流量大幅增加,扩容,恢复看具体原因
3? 下游 RT 高
限流
降级
4? 数据库
死锁
kill 进程
慢 sql
sql 限流
线上问题的排查是一个
积累的过程,只有了解问题背后的原理才能更快速的定位和恢复,除此之外更需要有一些趁手的工具来辅助排查,从而降低整个团队问题定位和快恢的门槛。
转载自:https://mp.weixin.qq.com/s?__biz=MzIzOTU0NTQ0MA==&mid=2247495546&idx=1&sn=f435f56c3b92802ef649cd14bb60711b&chksm=e92ad275de5d5b63b9fc1e48463044ea1b234a4f28d0ad8d7964c42516f1cf7cae47c60162dc&scene=21#wechat_redirect