¥
立即购买

性能优化方案生成

200 浏览
17 试用
3 购买
Nov 24, 2025更新

本提示词可基于用户提供的系统指标、日志和性能阈值,自动分析全链路性能瓶颈并生成结构化优化方案。支持紧急修复、中期优化及监控建议,适用于微服务架构、数据库调优及云计算环境,帮助提升系统吞吐率与资源利用率。

性能分析报告

核心问题摘要

  • 异常指标(偏离基线/阈值超过30%)
    • POST /orders p95 1.8s(SLO <300ms,超标6倍),p99 3.4s;错误率 1.2%(阈值 <0.5%)
    • API 网关 CPU 85–92%(目标 60–70%,>75%告警)
    • order-service CPU 88–95%;线程池占用 95%,阻塞率 12%,排队深度 180(限流阈值 100)
    • JVM G1 GC p99 暂停 180ms(阈值 <100ms);FGC 2 次/10min(阈值 <1次/小时)
    • 数据库连接池活跃 98/100,等待队列峰值 70,平均等待 450ms(阈值 <50ms)
    • 磁盘写延迟 p95 15ms(阈值 <10ms);I/O等待 21%(阈值 <15%)
    • Kafka inventory-consumer 滞后 125k(阈值 <10k),吞吐降至 14k msg/min(阈值 ≥20k)
  • 影响范围
    • 主要影响订单创建路径(order-service),经网关熔断导致 502/504;库存事件处理滞后影响库存一致性与下游通知
    • 高峰期(09:00–10:30)核心用户群体下单受阻,跨 AZ 请求均受影响

根因分析

  1. 资源竞争分析 | 资源类型 | 使用率/现象 | 健康阈值 | 异常时长 | |------------------------|-------------------------------|----------------------|----------------------| | API 网关 CPU | 85–92% | 60–70%(>75%告警) | ~90分钟 | | order-service CPU | 88–95% | 60–70% | ~90分钟 | | order-service 线程池 | 95%活跃,阻塞12%,队列180 | 队列≤100 | ~90分钟 | | JVM GC(G1) | p99=180ms,FGC 2次/10min | p99<100ms,FGC<1/h | ~60分钟 | | 容器内存/RSS | 1.8GB/2GB(未OOM),page fault 8k/min | 无硬阈值;异常升高 | ~60分钟 | | DB连接池(应用侧) | 活跃98/100,等待均值450ms | 使用率<85%,等待<50ms| ~80分钟 | | 数据库磁盘 I/O | 写 p95=15ms,I/O wait=21% | 写<10ms,iowait<15% | 80分钟 | | 网络(DB RTT) | p95=12ms | <15ms | 正常 | | Redis | 命中率96%,GET1.2ms,池占用92% | p95<3ms,≥95%命中 | 临近上限,基本正常 | | Kafka consumer | 滞后125k,吞吐14k/min | 滞后<10k,吞吐≥20k | ~80分钟 |

  2. 调用链分析(关键路径延迟分布)

    • Client -> Envoy 网关
      • 网关高CPU导致队列化;熔断窗口触发(p95_latency>1500ms),返回502/504(日志09:12:04/11)
    • Envoy -> order-service
      • 请求进入线程池:活跃 290/300,排队深度达 180,排队等待约 200–600ms
      • 获取 DB 连接:连接池耗尽,平均等待 ~450ms(WARN db_pool_exhausted;TimeoutException)
      • 库存校验 SQL:SELECT id, stock ... FOR UPDATE,单次慢查询达 2.8s(锁竞争+磁盘写延迟/IO wait)
      • JVM GC:G1 暂停 170ms 叠加尾部延迟
      • 外部依赖:支付接口偶发 900ms(但主瓶颈仍为 DB 锁与连接等待)
    • 异步链:order-service -> Kafka (order-events) -> inventory-service
      • inventory-consumer 滞后 125k、rebalance 频繁,库存事件处理落后;与 FOR UPDATE 锁相互放大
    • 结论:订单创建路径的主因是数据库侧锁竞争与连接池耗尽引发的级联排队,叠加 GC 暂停与网关熔断放大尾延迟;Kafka 滞后是并发写压力与锁竞争的副产物,进一步拖慢库存一致性与重试风暴

优化建议

紧急修复(24小时内可实施)

  • 措施1:数据库锁竞争快速缓解(不停机/滚动发布)

    • 操作步骤:
      1. 对 inventory 表核查 sku 索引(EXPLAIN ANALYZE 路径);若缺失,使用 CREATE INDEX CONCURRENTLY 为 sku 建立索引(在线,无表锁)。
      2. 将大批量 SKU 校验分批(例如单次 50–100 条),降低锁持有时间与单事务行锁范围。
      3. order-service 会话级设置 lock_timeout=500ms 与 statement_timeout=1200ms,超时进入降级路径(标记待校验或异步补偿),避免长时间阻塞。
      4. 针对 SELECT ... FOR UPDATE,优先在读取侧引入 “轻量避锁”策略:对已锁行返回“待重试”标记(不修改业务一致性语义),短路后续处理。
    • 预期效果:DB 连接等待降幅 30–50%,慢查询数量减少;订单 p95 延迟降至 600–900ms;错误率降至 ~0.6–0.8%。风险:批量切分需校验事务语义;索引构建需监控写放大(在线执行、分时段)。
  • 措施2:应用侧背压与重试收敛(遵守限流阈值,灰度发布)

    • 操作步骤:
      1. 线程池队列上限由 180 下调至 100(与既定排队阈值一致),策略改为 CallerRuns 或直接快速失败转降级,避免长队列放大尾延迟。
      2. 将数据库连接池最大并发限制为不超过健康阈值的 85%(例如由 100 降至 85),并在获取等待>200ms时触发即时降级(返回“订单待确认”),防止所有副本同时压垮主库。
      3. 将 order-service 内部重试由 2 次降至 1 次,加入抖动(200–400ms,指数退避),并设置请求级超时预算(例如总预算 1200ms,DB 子预算 800ms,支付子预算 500ms),与网关超时对齐。
      4. 熔断器阈值与恢复策略微调:维持现有触发标准,但减少半开并发探测数,缩短恢复窗口(例如 30s),降低错误风暴。
    • 预期效果:队列等待减少 40–60%,502/504 降低;p95 延迟预计降至 ~500–800ms。风险:降级路径需与产品沟通(订单状态“待确认”)。
  • 措施3:Kafka consumer 并发与回压协同(与DB限流配合)

    • 操作步骤:
      1. inventory-service 副本数与并发线程数对齐到分区数(7),确保每分区独立消费;限制单消费者对 DB 的并发(例如每实例 5–10 并发),避免冲击主库。
      2. 设置合理的 max.poll.records(如 500)与处理批量大小,避免过大事务;监控 rebalance 频率并稳定消费者会话(session.timeout 调优至合理范围)。
      3. 与DB限流联动:当 DB 连接等待>200ms 或 iowait>15% 时,消费者暂缓提交大批量写,转为小批量提交。
    • 预期效果:滞后从 125k 降至 <30k 当日内逐步清空;减少库存更新与订单路径锁冲突。风险:消费速率提升必须受 DB 回压保护。
  • 措施4:降低 GC 干扰(滚动加内存,单实例重启<30分钟)

    • 操作步骤:
      1. 将 order-service 容器内存与JVM堆适度提升(例如堆从 2GB 提至 3GB,容器内存相应提高并预留 30% 头寸),保持 G1 默认暂停目标不变。
      2. 观察 G1 年轻代晋升与停顿;必要时仅微调 InitiatingHeapOccupancyPercent(例如 45→40,灰度验证),避免激进参数。
    • 预期效果:G1 p99 暂停降至 <100ms;减少尾延迟约 10–20%。风险:内存提升需核实节点资源与密管注入限制。

中期优化(1–2周迭代)

  • 架构/逻辑调整(降低强一致锁)
    1. 库存预占与乐观并发方案
      • 方案:用 Redis 原子脚本实现“库存预占”(校验 stock>=qty 并扣减占用桶),订单写入 outbox 事件,异步持久化到 Postgres;数据库侧使用乐观版本号 UPDATE ... WHERE version=?
      • 依赖变更:order-service 增加 Redis 流程与 outbox 表;inventory-service 处理确认/回滚事件。
      • 收益:移除 SELECT ... FOR UPDATE 热点锁;订单 p95 有望回到 250–400ms;DB iowait 降至<15%。
    2. DB 读写分离与批处理减压
      • 方案:订单查询走只读副本;库存更新合并为小批量事务(每批 20–50 条),并在高峰期启用“写合并窗口”(50–200ms)。
      • 依赖变更:路由拆分与事务边界规范;幂等键设计。
      • 收益:降低主库写放大与锁持有时长,吞吐提升 30–50%。
    3. topic 分区与消费者伸缩
      • 方案:将 order-events 分区由 7 提升至 12(与节点核数匹配),滚动执行分区扩容与重分配;消费者并发相应提升。
      • 依赖变更:Kafka 分区与 group 配置,监控再均衡。
      • 收益:滞后稳态控制 <10k;峰值下游处理提升 40%+。

监控方案

  • 关键指标采集频率与报警规则
    • 服务/网关:CPU、线程池利用率、队列深度、p95/p99 延迟、错误率,采集间隔 15s;当 p95>600ms 且 CPU>75% 连续5分钟告警。
    • JVM:堆使用、G1 暂停时间、FGC 频率,采集 15s;p99>100ms 或 FGC>1/h 告警。
    • 数据库:应用侧连接池使用率与等待(每实例)、pg_locks 锁等待数、磁盘写 p95、iowait,采集 5–10s;连接池等待>200ms 或 iowait>15% 连续3分钟告警。
    • Redis:命中率、操作 p95、连接池占用,采集 15s;命中率<95% 或 p95>3ms 告警。
    • Kafka:consumer lag、吞吐、rebalance 频次,采集 10s;lag>20k 触发扩容告警。
    • 链路追踪:POST /orders 关键span(DB获取、SQL执行、外部API、GC停顿)采样增强;p95>600ms 标记服务降级原因。
  • 告警抑制与分级
    • 灰度期间错误率阈值放宽至 1.0%(已配置,30分钟);新增“DB回压态”抑制扩容的告警联动,避免无限扩实例压垮主库。
  • 性能基线更新机制
    • 在流量恢复后(<1.2x 平日)提取 24h 基线,建立“高峰基线”与“平日基线”双档;每周对比偏离度>20% 的指标进行阈值校准。
  • 验证规划(回归用例与验收标准)
    • 压测用例:订单创建 15k RPS、混合库存大小批量(10/50/100 SKU)、包含支付外呼;目标:p95<450ms、错误率<0.8%、DB连接等待<120ms、Kafka lag 稳态<10k。
    • 灰度策略:每次参数/索引/并发变更先在 1 副本、5% 流量验证 30分钟,无回归后全量滚动。
    • 验收:SLO 达标(p95<300ms 为最终目标);DB iowait<15%;FGC<1/h;警报无高频抖动。

优先级与风险控制路线图

  • P0(今日完成)
    • 启用应用背压与重试收敛(线程队列≤100、重试=1、请求预算),配置 lock_timeout/statement_timeout。
    • 校验并在线创建 sku 索引(若缺失),将库存校验批量切分。
    • inventory-consumer 并发与限流联动(与DB回压阈值绑定),开始清理滞后。
  • P1(本周内)
    • JVM 堆提升与滚动发布,验证 GC 暂停改善;完善链路追踪标签(DB获取/SQL span)。
    • 完成 Kafka 消费稳定性调优(max.poll.records、rebalance 降噪),建立“DB回压态”监控联动。
  • P2(1–2周)
    • 上线库存预占(Redis 原子)+数据库乐观并发与 outbox;订单读写分离与批处理策略。
    • 评估并执行 topic 分区扩容(至 12),调整消费者并行度与限流。
  • 风险控制点
    • 数据一致性:避锁/降级路径必须保证不超卖,所有变更附带幂等与补偿流程。
    • 数据库负载:索引构建与消费者并发提升需观察 iowait 与检查点压力;达到阈值立即回滚或降并发。
    • 参数变更:禁止一次性激进调整;所有 JVM/数据库/Kafka 参数按灰度策略推进并记录影响。

以上方案均遵守企业级部署规范:滚动发布、不引入未经安全验证的第三方工具、不涉及超过30分钟停机,且参数调整采用小步灰度与压测验证路径。

性能分析报告

核心问题摘要

  • 异常指标(相对阈值偏离度):
    • /search p95 420ms(SLO 250ms,+68%)
    • /export p95 1.9s(SLO 900ms,+111%)
    • 错误率 0.4%(阈值 0.3%,+33%)
    • cpu.throttling p95 120ms/秒(阈值 <20ms/秒,+500%),涉及 web-frontend 与 api-batch
    • 对象存储调用 p95 1.6s,重试=3(阈值 <300ms,重试≤2)
    • 跨区出站占比 62%(阈值 <30%,超出+32个百分点)
    • export-worker backlog 6.8k(阈值 <2k,+240%),吞吐降至 540 jobs/min(阈值 ≥900,-40%)
    • 随机读延迟 p95 25ms(阈值 <15ms,+67%);日志卷写入 120MB/min(阈值 <80MB/min,+50%)
    • 缓存命中率 52%(阈值 ≥80%,-28个百分点)
    • HPA 4小时 19 次扩缩容,副本数在 3–12 波动(低于日间最小副本 6)
  • 影响范围:
    • 业务模块:搜索页面(/search)、导出接口(/export)、后台导出流水线(export-worker)
    • 用户群体:高并发查询用户与批量导出用户;跨区访问导致成本偏高与时延上升
    • 资源侧:前端与批处理服务 CPU 被限流;热点节点内存压缩;队列与磁盘 IO形成连锁延迟

根因分析

  1. 资源竞争分析 | 资源类型 | 使用率/症状 | 健康阈值 | 异常时长 | | CPU | 集群均值32%(过度预留);web-frontend/api-batch cpu.throttling p95=120ms/s;HPA抖动 | 目标55–65%;限流p95<20ms/s;HPA最小副本≥6 | 全窗口;15:02:55起持续 | | 内存 | 热点节点占用92%并压缩;整体可用45% | <75% | 多次(16:05:41重调度) | | 网络 | 出站480MB/min;跨区占比62%;对象存储p95=1.6s,重试=3;跨节点延迟p95=6ms | 跨区<30%;对象存储p95<300ms,重试≤2 | 14:28–18:00显著 | | 磁盘 | 日志写入120MB/min;随机读p95=25ms(后台任务) | 写入<80MB/min;随机读p95<15ms | 全窗口 | | 队列 | backlog 2.3k→6.8k;吞吐900→540 jobs/min;高优先级挤占 | backlog<2k;吞吐≥900 | 15:20起加剧 |

  2. 调用链分析(关键路径延迟分布)

    • /search
      • 客户端→CDN/边缘缓存:命中率不足(整体命中52%,目标≥80%)
      • CDN→web-frontend(Node.js):CPU限流导致渲染与上游调用放大,节点重调度增加波峰(约占总p95的30–40%)
      • web-frontend→search-service(Go):服务间网络+重试策略增加尾部延迟(约10–15%)
      • search-service→索引集群:随机读p95=25ms与分片热点产生IO等待(约20–25%)
      • 降级路径→数据库:少量查询落库(尾部贡献5–10%)
      • 汇总:多点小幅叠加+限流放大,形成p95=420ms
    • /export
      • 客户端→网关:突发限流触发429(平滑不足,约50–150ms)
      • 网关→api-batch:CPU限流;对象存储调用p95=1.6s、重试3次(核心瓶颈)
      • api-batch→队列:排队积压,worker被高优先级挤占;并发受限导致吞吐跌至540 jobs/min
      • worker→对象存储:跨区传输(media-outbound,220MB/min,region_transfer=true)增加尾部延迟与成本
      • 汇总:S3跨区时延+队列积压+限流,p95升至1.9s并出现429

优化建议

紧急修复(24小时内可实施)

  • 措施1:缓解CPU限流与HPA抖动
    • 操作步骤:
      1. web-frontend、api-batch 调整资源配额:将requests对齐当前p95使用的70–80%,limits设为requests的1.5–2.0倍;避免过严limits导致throttling。
      2. HPA启用稳定窗口与基线保护:minReplicas固定为≥6;scaleDown stabilizationWindowSeconds=600;scaleUp/Down步进分别控制在20%,结合RPS与p95延迟作为触发条件,避免仅以CPU触发。
      3. 为web-frontend设置podAntiAffinity,规避热点节点;关键服务PriorityClass设定为不触发抢占(preemptionPolicy=Never)。
    • 预期效果:cpu.throttling p95降至<30ms/秒;/search p95降至~300–330ms;4小时内HPA动作降至≤5次;错误率降至<0.3%。风险:集群容量占用上升,需要监控节点压缩与调度队列。
  • 措施2:对象存储调用与重试控制
    • 操作步骤:
      1. service mesh与SDK统一重试策略:maxRetries≤2,指数退避含抖动(初始300ms,最大1.2s),超时与并发上限与队列能力对齐。
      2. 为S3开启VPC Endpoint路径(同区域),避免经公网/跨区路由;路由策略禁止跨区访问媒体桶。
      3. api-batch对导出写入采用分片/分段上传并限制并发窗口,减少尾部重试级联。
    • 预期效果:对象存储p95降至600–800ms;跨区出站占比降至40–50%;/export p95降至~1.1–1.3s。风险:需验证策略与限流对外部API兼容性。
  • 措施3:提升缓存命中与日志IO降压
    • 操作步骤:
      1. 搜索与页面缓存:将TTL统一为15分钟;启用stale-while-revalidate;对Top N查询进行预热;修正缓存键规范(含用户无关字段归一)。
      2. 日志降压:web-frontend、api-batch将INFO级采样与批量刷新开启;启用压缩与异步写;将高频日志落到集中日志通道,降低本地卷写入。
    • 预期效果:缓存命中率提升至≥75–85%;日志卷写入降至<80MB/min;随机读p95降至15–18ms;/search p95进一步逼近270–300ms。风险:缓存一致性需回归测试;日志采样避免影响审计需求。
  • 措施4:队列与网关背压对齐(如需)
    • 操作步骤:
      1. export-worker水平扩容(批处理节点池),并发控制与队列吞吐对齐至≥900 jobs/min;
      2. 调整网关对/export的限流曲线为令牌桶+排队(短时突发不再直接429),上限与worker能力匹配;对高优先级任务设配额,避免挤占低优先级。
    • 预期效果:backlog 2小时内回落至<2k;429显著减少;整体错误率达标。风险:短期成本上升,可随回落再收敛。

中期优化(1–2周迭代)

  • 架构与依赖调整:
    1. 对象存储同区域治理:将media-outbound迁移或复制到同区域桶,全链路改用同区Endpoint;对跨区访问加审计与熔断,目标跨区出站<30%、对象存储p95<300ms、重试≤2。
    2. 队列隔离与调度:按优先级拆分队列与worker池;为export-worker预留资源配额与独立PriorityClass(禁抢占);实施公平共享或权重限流,保障低优先级不被完全挤占。目标吞吐稳定≥1000 jobs/min。
    3. 搜索分片与IO优化:重平衡索引分片(3主2副本下调整热点分片所在节点);启用查询结果缓存与索引段合并窗口优化;必要时引入只读副本承载查询流量。目标随机读p95<15ms;/search p95<250ms达标。
    4. 自适应资源管理:引入VPA(仅建议观测模式起步),根据历史p95/p99自动建议requests;结合HPA多指标(CPU、RPS、延迟、队列深度)形成复合伸缩策略;为辅助服务配置自动降配(空闲>30min降至资源保留<20%)。目标降低资源浪费与成本。
    5. 可观测性完善:链路追踪覆盖率提升至≥90%;为S3、队列、缓存添加独立SLO面板与溯源;重试预算与熔断统计纳入告警。

监控方案

  • 关键指标采集频率与报警规则
    • 采集频率:
      • CPU/内存/限流:15s;节点压缩与taint事件实时
      • 接口延迟与错误率:30s;p95/p99分位
      • 队列:10s(backlog、吞吐、等待时间p95)
      • 对象存储:30s(请求p95、重试次数、失败率、出站速率)
      • 网络:60s(跨区占比、跨节点延迟p95)
      • 磁盘:30s(随机读/写p95、日志写入速率)
      • 缓存:30s(命中率、失效率、预热覆盖)
      • HPA行为:事件与副本变动(含稳定窗口生效情况)
    • 报警阈值(连续触发窗口):
      • cpu.throttling p95>50ms/秒 持续5分钟
      • /search p95>300ms 或 /export p95>1.2s 持续5分钟;错误率>0.3% 持续5分钟
      • 跨区出站>30% 持续10分钟;对象存储p95>600ms 或 重试均值>2 持续5分钟
      • export backlog>3k 持续10分钟;吞吐<900 持续5分钟
      • 随机读p95>15ms 持续10分钟;日志写入>80MB/min 持续10分钟
      • 缓存命中<70% 持续10分钟
      • HPA缩容至<6副本或4小时扩缩容>10次 触发抖动告警
  • 性能基线更新机制
    • 每周滚动更新业务基线(分时段RPS与p95)并校准HPA最小副本;重大版本发布后进行为期48小时的基线再学习
    • 缓存基线按日间/晚间两档维护(目标命中≥80%),热门查询榜单每4小时刷新
    • 重试预算与熔断阈值采用动态调整(基于过去24小时尾部延迟分布),并在金丝雀阶段验证后推广

性能调优路线图(优先级与风险控制)

  • P0(今日落地)
    • 资源限流与HPA稳定化(minReplicas、步进、稳定窗口)
    • 对象存储重试与Endpoint就近化(VPC Endpoint)
    • 缓存TTL/预热与日志降压
    • 队列吞吐恢复与网关背压对齐
    • 回滚策略:任一措施导致错误率>0.5%或p95恶化>10%即回退;所有改动以金丝雀方式灰度10–20%流量
  • P1(1周内)
    • 队列与worker隔离、调度公平化;搜索分片重平衡;服务间重试预算化
    • 成本治理:辅助服务空闲自动降配(<20%资源保留),跨区传输治理
  • P2(第2周)
    • VPA观测模式上线并与HPA多指标联动;追踪覆盖率提升;SLO仪表盘完善与基线自动校准

备注:所有参数调整遵循企业级变更流程与回归测试;避免单次停机超过30分钟;不引入未安全验证的第三方工具或未经性能测试的激进参数。

示例详情

解决的问题

将“系统变慢、资源吃紧、查询拖沓”等复杂问题,快速转化为清晰可执行的行动清单。一次输入,即可获得:精准瓶颈诊断、至少三套落地优化方案(含步骤与预期效果)、优先级与风险提示、以及持续监控与预警建议。目标是帮助技术负责人、SRE、后端工程师和运维团队在3分钟内看清问题、24小时内见到改善、1—2周实现稳定提升;在不影响业务的前提下提升吞吐与稳定性、减少排障时间、降低资源成本,适配微服务、数据库与云环境,并遵循企业级安全规范。

适用用户

技术负责人 / CTO

在高峰期出现响应告警时,三分钟拿到瓶颈报告,评估影响范围与业务损失,制定优先级路线图,对齐收益与风险,推动跨团队协同落地。

SRE / 运维工程师

快速定位资源争用与异常阈值,生成应急修复清单与回滚方案,完善监控与告警规则,显著缩短故障处理时间并减少误报与漏报。

后端架构师 / 团队负责人

聚焦调用链与热点接口,识别慢路径与缓存策略缺口,拿到三类优化方案与收益预估,安排低风险改动,提升吞吐并降低超时率。

特征总结

三分钟内自动梳理关键指标,快速识别延迟飙升与资源争用的真正瓶颈
一键生成结构化瓶颈报告,直指出问题范围、受影响模块与优先等级
针对微服务与数据库场景,自动给出紧急修复与迭代优化的可落地方案
结合日志与调用链线索,快速定位慢查询、Full GC等异常路径与根因
内置基线对比与阈值建议,自动标记偏离项并量化预期吞吐与时延提升
提供三类优化路径:资源配置、代码改进、架构调整,配实施步骤与收益
生成监控与告警方案,一键确定采集频率、阈值区间与回归验收标准
内置风险控制原则,避免长时间停机与激进参数,确保生产环境可用
支持云原生与本地部署,自动平衡成本与性能,帮助做出投资优先级
提供回归测试用例与压测侧重点,验证效果并持续更新性能基线与报表

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

AI 提示词价格
¥30.00元
先用后买,用好了再付款,超安全!

您购买后可以获得什么

获得完整提示词模板
- 共 704 tokens
- 4 个可调节参数
{ 系统指标数据 } { 应用日志数据 } { 性能阈值设置 } { 系统架构与组件信息 }
获得社区贡献内容的使用权
- 精选社区优质案例,助您快速上手提示词
使用提示词兑换券,低至 ¥ 9.9
了解兑换券 →
限时半价

不要错过!

半价获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59