热门角色不仅是灵感来源,更是你的效率助手。通过精挑细选的角色提示词,你可以快速生成高质量内容、提升创作灵感,并找到最契合你需求的解决方案。让创作更轻松,让价值更直接!
我们根据不同用户需求,持续更新角色库,让你总能找到合适的灵感入口。
本提示词专为软件性能优化场景设计,通过系统化分析性能瓶颈,提供可操作的改进建议。它能帮助用户识别高负载下的资源争用、延迟异常及配置不合理问题,支持多维度指标深度诊断。亮点在于采用链式推理方法,结合实时阈值检测与根因定位,输出结构化优化方案,提升系统吞吐率与资源利用率,适用于微服务架构、数据库调优及云计算环境性能保障。
资源竞争分析(表格呈现) | 资源类型 | 使用率 | 健康阈值 | 异常时长 | | CPU(n-a) | 83→91% | ≤80% | 10:01、10:02、10:05 共3分钟 | | GC暂停(n-a) | 180→210ms | ≤150ms | 10:02、10:05 共2分钟 | | 线程池队列(order/worker) | 队列=280,等待=180ms | 队列≤100(SLA) | 10:02:20 1次事件 | | RPC超时(order→payment) | timeout=500ms | 错误率≤1% | 10:02:05 1次事件(影响尾延迟) | | DB查询(inventory) | 420ms | ≤100ms(读热点) | 10:02:10 1次事件(尾延迟放大) | | Kafka生产(order_created) | 延迟=800ms | ≤200ms | 10:05:02 1次事件(异步链路拥塞) |
说明:
调用链分析(关键路径延迟分布描述)
关键瓶颈路径:
措施1:流量再均衡与实例扩容(order服务)
措施2:线程池与背压治理(order/worker)
措施3:支付RPC保护与超时/重试策略
措施4:库存查询快速路径(热点缓存)
措施5:GC与Kafka快速稳态化(无激进参数)
综上:主要瓶颈为订单服务在 n-a 节点的负载倾斜与GC/线程池饱和叠加,下游支付与库存波动放大尾延迟,并伴随Kafka生产端背压。按上述紧急与中期方案执行,可在不超过30分钟停机窗口的前提下,24小时内使p95回落至阈值以内并稳定关键链路的可用性。
资源竞争分析 | 资源类型 | 使用率/数值 | 健康阈值 | 异常时长 | |---|---|---|---| | CPU(db1/db2) | 52%-61% | <80%(参考) | 正常 | | 内存(db1/db2) | 79%-83% | <85%-90%(参考) | 临近高位 | | IO wait | 17%-22% | ≤10% | 持续3分钟(11:00-11:02) | | 磁盘读延迟 | 14/18/12 ms | ≤12 ms | 2分钟(db1 11:00-11:01) | | 磁盘写延迟 | 20-26 ms | 无阈值(高于常规SLO 15-20ms) | 3分钟(观察性风险) | | 网络吞吐 | 140-190 Mbps | 无阈值 | 正常-偏高 | | 连接数 | 870-980 | 无阈值(易触发争用) | 高位持续 | | 慢查询 | 38/min(db采样) | >400ms计入 | 异常(orders/billing) | | 锁等待 | 240/min(db采样),单次3100ms | >800ms异常 | 异常 | | 死锁 | 1 次/≤5min | 0 | 异常 | | Buffer Pool命中 | 91% | ≥90% | 临界(有下滑风险) | | 临时磁盘表 | 62(db),analytics=3 | 无阈值 | 高(推动IO放大) |
调用链分析(关键路径延迟分布)
措施1:抑制分析型负载对OLTP的资源抢占
措施2:削减orders路径的锁时间与页访问
措施3:温和提升Buffer Pool命中率以削峰IO
措施4:连接与排队治理(防止连接风暴)
方案A:为orders构建覆盖索引并固化查询模式
方案B:读写隔离与负载分层
方案C:表设计与数据分布优化
方案D:临时表落盘治理
备注与合规
资源竞争分析(表格呈现) | 资源类型 | 使用率/数值 | 健康阈值 | 异常时长/事件 | |----------------------|-------------------------------|------------------|---------------| | 网络出口(edge-1) | 920/950/980 Mbps | 900 Mbps | ≈3 分钟 | | TCP 重传(edge-1) | 0.7/1.1/1.4 % | 0.5 % | ≈3 分钟 | | 对象存储超时 | 512 ms(PUT),HTTP 503 | 300 ms | 多次日志事件 | | 服务 p95(多服务) | 480/520/740 ms | 300 ms | ≈2–3 分钟 | | 队列深度(feed) | 1200 | 800 | ≈1–2 分钟 | | Pod 重启(media) | 1 次(LivenessProbeFailed) | 0 次/小时 | 1 事件 |
调用链分析(关键路径延迟分布)
结论:主根因是 edge-1 网络出口饱和与高重传导致到对象存储的访问质量下降;对象存储侧返回 503/超时引发应用层重试与熔断,最终放大为队列积压与全链路 p95 飙升。负载在 edge-1 与 edge-2 之间存在不均衡(edge-2 net_out=870Mbps 未超阈),加剧了拥塞集中。
措施1:对网关进行跨节点流量再均衡(edge-1 → edge-2)
措施2:对 edge-1 启用保守型出口速率整形与突发控制
措施3:对象存储客户端的并发与重试策略降压(避免放大效应)
辅助修复(可并行,零停机)
说明:以上方案均遵循企业级部署规范,不引入未经安全验证的第三方调优工具,且避免超过 30 分钟的停机操作;参数调整采取保守与灰度策略,先在非生产环境完成性能测试后再上线。
在高峰期出现响应告警时,三分钟拿到瓶颈报告,评估影响范围与业务损失,制定优先级路线图,对齐收益与风险,推动跨团队协同落地。
快速定位资源争用与异常阈值,生成应急修复清单与回滚方案,完善监控与告警规则,显著缩短故障处理时间并减少误报与漏报。
聚焦调用链与热点接口,识别慢路径与缓存策略缺口,拿到三类优化方案与收益预估,安排低风险改动,提升吞吐并降低超时率。
将“系统变慢、资源吃紧、查询拖沓”等复杂问题,快速转化为清晰可执行的行动清单。一次输入,即可获得:精准瓶颈诊断、至少三套落地优化方案(含步骤与预期效果)、优先级与风险提示、以及持续监控与预警建议。目标是帮助技术负责人、SRE、后端工程师和运维团队在3分钟内看清问题、24小时内见到改善、1—2周实现稳定提升;在不影响业务的前提下提升吞吐与稳定性、减少排障时间、降低资源成本,适配微服务、数据库与云环境,并遵循企业级安全规范。
将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。
把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。
在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。
免费获取高级提示词-优惠即将到期