内存泄漏智能检测分析

1 浏览
0 试用
0 购买
Oct 31, 2025更新

本提示词专为软件开发者设计,通过分析运行时数据和内存使用日志,精准识别内存分配模式、定位潜在泄漏点并提供优化建议。具备多维度检测能力,支持实时监控与历史数据分析,可有效提升应用程序性能与稳定性,降低系统崩溃风险,适用于移动应用、后端服务及嵌入式系统等多种开发场景。

检测摘要

  • 判定:高可信度内存泄漏(严重)
  • 泄漏模式:已销毁的 Activity 仍通过 RecyclerView/Adapter 强引用持有大量 Bitmap;缓存容器无边界(Map)导致持续累积;异步加载回调/协程闭包持有 Activity,导致生命周期结束后任务仍向已销毁页面的缓存写入。
  • 关键证据(统计特征):
    • 活动销毁后,Java 堆与 Bitmap 实例数持续线性增长(约 8–10MB/分钟,Bitmap 数量持续上升),GC 回收率接近 0。
    • 堆直方图以 Bitmap、像素 byte[]、HashMap 节点为主,占用显著。
    • GC 日志显示老年代快速膨胀、幸存者集上升,符合强引用长期存活的泄漏形态。
  • 影响级别:高(短时间内存在 OOM 风险;滚动场景下表现为卡顿风险上升、后台耗电与网络/磁盘负载增大)。

泄漏详情

  • 泄漏对象与占用:
    • android.graphics.Bitmap:数千实例,累计超过百兆,伴随像素 byte[](ARGB/RGB)约数百兆。
    • 容器与索引:java.util.HashMap 节点占用显著,表明以 Map 作为无限增长的缓存。
  • 典型保留路径(归纳):
    • 已销毁 PhotoFeedActivity → RecyclerView → PhotoFeedAdapter → imageCache(Map<String, Bitmap>) → Bitmap(强引用)
    • 回调/协程闭包捕获 Activity(或其 View/Adapter),使 Loader 的结果在销毁后仍投递并插入缓存。
  • 异常分配/生命周期模式:
    • 缓存策略从 LruCache 更换为 Map,缺少逐出与生命周期清理;onViewRecycled/onDestroy 未解除引用。
    • 图片加载组件返回的 Bitmap 被强引用缓存且绑定到 ImageView 后未及时解除,导致 GC 不可达条件未成立。
    • 协程/异步任务未在 onStop/onDestroy 取消,持续向失效上下文写入,位图计数与堆占用延续增长。
  • GC 行为特征:
    • Freed 近乎为零,老年代增速显著;暂停虽短但频次增多,和幸存者集增大一致,符合长生命周期对象被容器持有的泄漏模式。

影响分析

  • 稳定性:持续增长的位图与像素数组将快速逼近进程内存上限,存在在数十分钟内触发 OOM 的高风险。
  • 性能:GC 压力升高(老年代膨胀、幸存者比例升高),伴随绘制与滑动阶段潜在掉帧;后台任务未取消导致额外 CPU/网络/IO 消耗。
  • 用户体验:长时间滚动后返回或切换页面,可能出现明显卡顿、黑屏/图片加载失败;极端情况下应用崩溃。

修复建议 优先级从高到中列出,均为稳健且常规可验证的实践,避免不安全操作。

  1. 恢复有边界的图片缓存策略(最高优先级)
  • 将 Adapter 的 Map 替换回 LruCache,并按字节大小计费:
    • 使用 Bitmap.getAllocationByteCount 作为 sizeOf 返回值。
    • 设定合理上限:例如按设备内存级别取 15–25% 的可用内存作为图片缓存上限,或固定上限(如 64–128MB),并配合磁盘缓存。
  • 生命周期清理:
    • 在 Adapter.onDetachedFromRecyclerView、Activity/Fragment.onDestroy 调用 adapter.clear(),清空 LruCache、取消在途图片请求、解除所有 ImageView 的 drawable 引用(setImageDrawable(null))。
    • 在 RecyclerView.Adapter.onViewRecycled(holder) 中:
      • 取消该 ViewHolder 关联的图片请求。
      • holder.imageView.setImageDrawable(null),避免 View 持有位图强引用。
  • 说明:采用 LruCache 可在内存紧张时被主动逐出,避免无限增长;更换为 Map 会失去淘汰策略,是当前泄漏的直接根源。
  1. 纠正异步加载的生命周期与引用管理(最高优先级)
  • 回调/闭包引用:
    • 禁止在回调/协程闭包中直接捕获 Activity/Adapter/View 的强引用;如需上下文使用 ApplicationContext。
    • UI 目标使用弱引用或基于标记的安全更新(如仅在当前绑定的 itemKey 匹配时才设置位图)。
  • 任务取消:
    • 使用 Lifecycle 感知的作用域(lifecycleScope 或 ViewLifecycleOwner.lifecycle),在 onStop/onDestroy 自动取消。
    • 非协程方案需在 onStop/onDestroy 显式 cancel/dispose(例如 RxJava 的 CompositeDisposable,或自定义 Loader 的 cancel API)。
  • 结果投递:
    • 在回调触发时先判定页面/视图仍存活且匹配当前绑定项;不满足条件则丢弃结果,不入缓存。
  • 说明:这是销毁后仍增长的主要次要原因(任务继续向失效页面的缓存写入)。
  1. 合理的解码与占用控制(中优先级)
  • 解码尺寸:严格按视图需求(屏宽/目标尺寸)解码,设置 inSampleSize 与 inPreferredConfig,避免全尺寸原图进入内存。
  • 像素格式:在不影响质量的前提下,优先使用 RGB_565(约减半像素内存);透明需求时仍用 ARGB_8888。
  • 占位与复用:滚动列表使用占位图,避免未完成加载时持有全尺寸位图;采用成熟库的 Bitmap 池(如 Glide/Coil 的默认池)。
  • 注意:不建议手动调用 bitmap.recycle()(现代系统下由 GC 管理;错误使用会导致 IllegalState 与渲染问题)。
  1. 内存压力回调与通道化清理(中优先级)
  • 实现 ComponentCallbacks2.onTrimMemory:
    • 在 TRIM_MEMORY_RUNNING_LOW/CRITICAL 时主动清理 LruCache、取消后台预取。
    • 在 TRIM_MEMORY_UI_HIDDEN 时清空与 UI 绑定的临时缓存。
  • 避免全局/静态持有 Adapter/Activity 引用;检查单例中是否有对 UI 层对象的强引用路径。
  1. 引入成熟的图片加载库并启用生命周期集成(中优先级)
  • 使用 Glide/Coil/Picasso 的默认内存/磁盘缓存、生命周期自动取消与占用控制。
  • 启用内存类别调节(如 Glide.setMemoryCategory(NORMAL/LOW))配合页面滚动场景,降低内存峰值。

预防措施

  • 泄漏监控与回归:
    • 集成 LeakCanary(或 Android Studio Profiler 定期快照),在页面销毁后验证 PhotoFeedActivity 不被保留、Adapter 缓存容量显著下降、Bitmap 计数稳定或下降。
    • 为滚动+页面切换场景建立性能基线(目标:销毁后 1–2 次 GC 后,活跃对象降低,Bitmap 计数不再增长,老年代增速归零)。
  • 容器审计与代码规范:
    • 禁止以无边界 Map 作为内存缓存;必须使用带配额的 LruCache,并统一 sizeOf 计费规则。
    • 异步任务必须在生命周期内自动取消;回调不得捕获 Activity/Adapter/View 的强引用。
  • 发布前压力测试:
    • 执行 10–15 分钟的快速滚动与页面开关压测;监控 Java 堆、Bitmap 数量、GC Freed 比例与老年代增速,阈值报警(例如增长率>3MB/分钟触发失败)。
  • 运行时防线:
    • 添加内存水位告警与自清理策略(超过设定水位时清空 LruCache、暂停预取);记录并上报水位触发事件以便后续优化。

通过以上修复与防护措施,问题应可收敛为“销毁后缓存与任务正确释放、Bitmap 数量受控且可回收”,并使内存曲线在页面退出后趋于稳定或回落。建议先落地第 1、2 点(缓存边界与生命周期管理),再进行解码优化与回归验证。

检测摘要

  • 结论:存在高置信度内存泄漏,主因是 HTTP 客户端的未完成请求被长期保留,间接持有 DirectByteBuffer 导致堆外内存与 Old Gen 线性攀升;并发出现连接未正确关闭引发 CLOSE_WAIT 增长,进一步放大泄漏影响。
  • 证据要点:
    • Old Gen 与堆外 Direct 内存呈稳定线性增长,GC 回收率低、Humongous 对象逐步累积,符合典型“持续可达引用”泄漏特征。
    • 待处理请求队列规模与 DirectByteBuffer 占用强相关(相关性接近 1),堆转储显示 PendingFuture 与 DirectByteBuffer/byte[] 是增长主因。
    • 连接池待获取请求持续累积、ESTABLISHED 与 CLOSE_WAIT 同步上升,说明响应体与连接未在失败/重试/取消路径上被及时释放与关闭。
  • 风险评估:在当前斜率下,距离内存上限仅剩较小裕度,短期内存在触发 Full GC 长停顿或直接堆外内存不足的高风险,服务延迟与错误率已出现劣化趋势。

泄漏详情

  1. 泄漏源一:PendingRequests Map 驻留导致的 DirectByteBuffer 持有
  • 表现与链路:
    • 客户端的待处理请求集合(Map)保留大量未完成/已取消/被重试的条目;对应的 PendingFuture 缺少完成回调或被显式禁用了超时。
    • 引用链典型形态:HttpClient → PendingRequests(Map) → PendingFuture(无回调/超时关闭) → DirectByteBuffer(响应体)/byte[]。
  • 机制分析:
    • 重试或取消路径未执行“移除-释放”最终清理,导致 PendingFuture 持有的响应体缓冲区保持可达,DirectByteBuffer 依赖 GC/Cleaner 回收但有强引用存在无法释放。
    • 体量较大的响应被整体缓冲为 DirectByteBuffer(并伴随大 byte[]),在 G1 下形成 Humongous 分配,GC 难以回收且易放大停顿。
  • 证据匹配:
    • 待处理请求规模随时间上升;Direct 内存分配速率显著高于释放速率;堆转储中 DirectByteBuffer/byte[] 占比升高并与 PendingFuture 实例数量同步增长。
  1. 泄漏源二:连接未关闭导致的资源悬挂与堆外放大
  • 表现与链路:
    • 连接池活跃连接高位运行且“待获取”请求堆积;操作系统层面 CLOSE_WAIT 持续上升,表示对端关闭但本端未及时关闭 socket。
  • 机制分析:
    • 未在异常/取消/重试路径及时关闭响应流/连接,导致 socket、选择器及关联的 DirectByteBuffer 与 I/O 缓冲滞留;同时减少连接重用,迫使更多分配,进一步推高 Direct 内存使用。
  • 证据匹配:
    • CLOSE_WAIT 的持续累积与连接池待获取请求增长并行;延迟分位数与 GC 停顿随之升高,体现资源竞争与回收受阻。
  1. 次要贡献项:缓存对象增长
  • CachedResponse 与 ConcurrentHashMap 节点占用有上升,但相较两大主因增速与占比均较低,更可能是放大器而非根因。需要在修复主因后再评估是否需要单独治理。

影响分析

  • 性能:
    • Old Gen 与 Direct 内存持续增大,G1 Mixed 回收收益低、暂停时间分位数抬升,已对延迟产生负面影响;待处理请求堆积使排队延时增加。
  • 稳定性:
    • 在当前斜率下,距离堆上限与堆外可用空间的安全余量不大,存在在较短时间窗口内触发“Direct buffer memory”异常或长时间 Full GC 的风险。
    • CLOSE_WAIT 增长还可能触发句柄耗尽与连接建立失败,放大可用性风险。
  • 业务:
    • 请求量稳定而内存线性上升,典型泄漏模式;若不修复,预计出现突发性错误率上升与超时扩大。

修复建议 一、根因修复(代码与逻辑,优先级高)

  1. 为 PendingRequests 建立“完成/异常/取消”三态一致的最终清理
  • 要点:
    • 统一封装 Future/Promise 完成入口,确保在 whenComplete/handle 回调中执行:从 PendingRequests 移除条目、释放响应体缓冲(见下条)、关闭响应流/连接。
    • 禁止禁用超时;为每个请求设置合理的请求超时与总预算(connect/read/request timeout + overall deadline),在超时触发时同样进入最终清理。
    • 重试策略必须在进入下一次重试前显式清理上一轮的 Future 与所有资源;同一请求键防重入,避免多版本悬挂。
  • 参考实现要点(伪代码思路):
    • try { sendAsync(...).whenComplete((resp, err) -> { cleanup(key, resp, err); }); } finally { onCancel -> cleanup(...); }
    • cleanup 内容:pendingMap.remove(key); safeClose(responseBody); releaseBufferIfAny(...);
  1. 响应体与缓冲区的资源释放
  • 如果使用直接缓冲(NIO/Netty 等):
    • 对引用计数型缓冲(如 Netty ByteBuf)必须在 finally/whenComplete 中调用 release(引用计数清 0);避免把 ByteBuf/DirectByteBuffer 直接存入 Future 或 Map。
  • 如果是 JDK NIO DirectByteBuffer:
    • 避免将整包响应体长期以 DirectByteBuffer 形式存放在业务对象中;在需要持久化或跨线程传递时,改为拷贝到受控大小的 heap byte[] 或流式处理,并在业务处理完成后令 Direct 引用尽快出作用域。
  • 统一使用 try-with-resources/等价 finally 确保 Response/InputStream 在所有路径关闭;失败与取消与成功路径同等对待。
  1. 限制待处理请求与重试
  • 为 PendingRequests 设置上限与拒绝策略(返回快速失败或降级),防止队列无限增长导致整体拖垮。
  • 重试应受限于次数与时间预算;对非幂等请求谨慎重试,避免“积压+泄漏”的双重风险。

二、连接与池管理(与根因并行推进)

  • 启用连接空闲清理与 TTL:定期驱逐长时间空闲的连接,设置连接存活上限,避免半关闭连接长期滞留。
  • 配置连接/读写超时并确保到达超时即关闭底层流与 socket。
  • 在请求失败、取消、超时与重试切换时,务必调用响应关闭与连接释放接口,确保连接归还池或被销毁。
  • 监控并在高水位时限流或削峰(例如对下游异常升高时触发熔断/快速失败),降低池枯竭与等待堆积。

三、Direct 内存与大对象控制(防放大、可控上限)

  • 避免将大响应体整体缓存在 Direct 内存;优先采用分块流式处理与限速解压,降低 Humongous 分配概率。
  • 设置安全的堆外缓存策略:
    • 限制 NIO 缓冲缓存大小(例如通过 jdk.nio.maxCachedBufferSize 限制大缓冲进入缓存),减少大块 Direct 的长期保留。
    • 在预生产验证后为 MaxDirectMemory 设置合理上限,配合告警,防止无上限堆外增长导致难以诊断的崩溃(需在灰度验证通过后再投产)。
  • 对应用侧缓存(CachedResponse)设置容量与 TTL,上下行大对象不进入长久缓存;对异常/非 2xx 响应不缓存。

四、运行时安全加固(短期风险缓解,低扰动)

  • 启用/提高空闲连接回收频率,尽快清理半关闭连接,抑制 CLOSE_WAIT 积累。
  • 提升“待处理请求规模”“Direct 内存占用”两者的实时告警,达到阈值时主动触发重试削减或短期限流,避免继续放大。

注:以上变更建议均为通用、低风险资源管理与清理策略;涉及参数调整(如 TTL、超时、容量与阈值)的具体数值需在预生产环境验证后再逐步灰度上线,避免对稳定性造成未评估影响。

预防措施

  • 编程规范与代码护栏
    • 强制统一的“请求生命周期管理器”:封装发起、完成、异常、取消四个路径的资源释放(Map 移除、响应关闭、缓冲释放)。
    • 全链路 try-with-resources 模式与 finally 清理模板;对引用计数资源统一适配器,杜绝直接暴露到业务层。
    • 禁止禁用超时;建立“总期限”预算,确保任何请求都有限时并可打断。
  • 测试与演练
    • 加入失败注入与取消/重试路径的单测/集测,校验 PendingRequests 尺寸回落到 0;对 Direct 内存做黑盒计量(前后占用与释放速率应相等)。
    • 在压测环境观察 Old Gen、Humongous、Direct 内存、CLOSE_WAIT 与待处理请求规模应随时间趋于稳定。
  • 监控与告警
    • 指标:PendingRequests 大小、Direct 内存使用与释放速率、Humongous 区域数量、连接池活跃/空闲/待获取、CLOSE_WAIT、响应体未关闭计数。
    • 相关性与斜率告警:当“待处理请求规模—Direct 内存使用”相关性与线性斜率超阈时预警为泄漏候选。
  • 发布策略
    • 与下游客户端库/连接管理相关的变更采用灰度发布与回滚预案;上线前在预生产完成 2h+ 稳态验证,确认“分配≈释放”的平衡恢复。

通过上述定位与治理路径,预期 PendingRequests 将在请求完成/超时后迅速回落,DirectByteBuffer 与 Humongous 分配得到抑制,CLOSE_WAIT 不再累积,GC 回收效果恢复,延迟分位数回归稳态。

检测摘要

  • 判定结果:存在持续性内存泄漏,主要来源于传感器打包模块的重试缓存未清理,以及 UART DMA 缓冲释放链路中断导致的延迟释放/遗留。
  • 趋势特征:堆自由内存呈稳步下降,碎片化指数显著上升;真实泄漏速率约每分钟 6–8KB,叠加碎片化与工作集波动导致可用连续大块快速稀缺。
  • 紧急程度:高。继续运行 1–2 小时内,>4KB 连续块可能不足,影响实时任务和 DMA 分配稳定性。

泄漏详情

  1. 传感器帧重试缓存未清理

    • 现象:帧缓存队列规模从约 256 增至约 520,且上限未生效;单帧负载约 512B,发送成功后未移除。
    • 估算保留量:新增约 264 帧 × 512B ≈ 132KB;考虑对象与队列管理开销,实际保留约 150–200KB。
    • 引用链:打包任务持有队列引用,元素包含 payload/时间戳/重试次数,因成功回调路径未执行清理,引用持续保留。
  2. UART DMA 缓冲释放延迟/丢失

    • 现象:活动 DMA 缓冲数量由约 18 增至约 34;释放标志在完成路径中未正确置位,出现异常断链。
    • 估算保留量:新增约 16 个缓冲 × ~3KB ≈ 48KB;部分为延迟释放,部分为长时间遗留。
    • 引用链:传输完成回调或 ISR 未统一设置释放标志,缓冲留在活动列表,导致内存池不可回收。
  3. BLE 广播缓冲不平衡

    • 现象:分配与释放计数存在差额(约个位数级别);广播重启后存在残留。
    • 估算保留量:数 KB 级(视单缓冲大小);对整体影响次要但加剧碎片化。
  4. 碎片化与分配结构

    • 指标演化:碎片指数由低位提升至中高位;512B 小块占比偏高(约六成),中块约四分之一,大块稀缺。
    • 影响:连续大块减少,偶发分配失败出现在实时路径,虽未引起崩溃,但风险累积。
  5. 综合泄漏率与归因

    • 可量化长期保留(缓存 + DMA)≈ 180–250KB/35 分钟,即约 5–7KB/分钟。
    • 额外堆下降来源:工作集峰值、周期性分配抖动与碎片化导致的不可用内存段。

影响分析

  • 性能与稳定性:实时任务在需要中/大块时更易失败或超时;UART 传输尾部延迟增加;BLE 广播重启偶发占用残留加剧碎片。
  • 可维护性:缓存上限无效与释放标志不一致使得问题隐蔽,难以通过常规 GC/回收策略解决(嵌入式无 GC)。
  • 资源风险:若继续运行,连续大块进一步稀缺,DMA 或 RTOS 内核对象分配可能出现更高比例失败,触发退避或软故障。

修复建议

  1. 传感器帧缓存(安全变更)

    • 强制启用并校验缓存上限(例如保持在最初阈值);超过上限立即丢弃最旧条目或拒绝新入队。
    • 在“发送成功”路径执行同步移除与对象释放;成功/失败回调统一走同一释放出口,避免遗漏。
    • 启用帧对象复用池(固定 512B 槽位,预分配并循环使用),替代常规堆分配,降低碎片化。
    • 设置最大重试次数与过期时间;到达阈值自动清理,避免无限期保留。
  2. UART DMA 缓冲(安全变更)

    • 将释放标志的置位逻辑固化在 DMA 完成回调/ISR 的可靠路径中;单一权威状态源,避免多点修改。
    • 活动链表与可用池采用双向一致校验(计数/指针校验),提交与回收形成两阶段流程:提交成功→硬件完成→回收确认。
    • 加入“超时回收监控”仅用于诊断:若缓冲活跃时间超过合理阈值,记录并告警(不直接强制释放),避免不安全的越权释放。
  3. BLE 广播缓冲(安全变更)

    • 广播重启前执行“全量清理钩子”,确保历史缓冲归还池;分配/释放计数在重启后应归零校验。
    • 广播缓冲采用固定大小池化分配,避免在重启频繁场景下的堆碎片加剧。
  4. 分配器与布局优化(安全变更)

    • 对 512B/2KB 常用尺寸引入分级/池化分配(slab/区域式),将热点尺寸与通用堆隔离,降低碎片指数。
    • 传输路径避免在实时循环中做零散小块分配;改为启动期预分配 + 运行期复用。
    • 针对需要大块的任务,预留保证池与水位线告警,防止与小块争夺导致的饥饿。
  5. 监控与回归

    • 增加四类计数器:缓存当前/峰值、DMA 提交/完成/回收一致性、广播缓冲平衡、碎片指数轨迹。
    • 为“发送成功”与 DMA 完成事件添加事件对账日志(轻量计数),用于后续泄漏回归测试。
    • 建立压力测试工况(高频打包 + 连续 UART 发送 + 周期广播重启),验证缓存上限、复用池与释放路径的稳定性。

预防措施

  • 采用“内存所有权清晰化”约定:生成者与使用者的释放边界明确,所有资源经过单一释放出口。
  • 对关键缓存引入硬上限与降级策略(丢弃过期/超重试帧);任何“可增长缓存”必须有上限且生效校验。
  • 全局启用池化与固定尺寸分配策略,将热路径动态分配压缩至零或可控范围。
  • 持续监控碎片指数与连续大块可用度,设置告警阈值,提前触发负载降级(降低打包/发送速率)而非等待失败。
  • 在固件版本迭代中加入内存泄漏自动化检查项(计数一致性、池水位线、长时间活跃对象审计),形成发布前门禁。

上述建议均为安全、可控的工程性改进,优先处理缓存清理与 DMA 释放路径,可在不改变业务逻辑的前提下显著降低泄漏与碎片化风险。

示例详情

适用用户

移动应用开发工程师

快速识别页面未释放、图片缓存堆积与第三方组件引发的内存增长;生成修复清单与实施步骤;在打包前做内存体检,验证新版本内存曲线更平稳。

后端服务工程师

在高并发与长连接场景下,定位缓存未清理、会话长期驻留等泄漏点;输出优化方案与影响评估;稳定峰值内存占用,减少OOM与重启。

嵌入式系统工程师

在资源受限设备上监控长期运行内存趋势,发现任务或缓冲区未释放问题;制定内存预算与阈值;提升固件稳定运行时长。

解决的问题

把一位“资深内存泄漏检测专家”装进你的工作流:用真实运行数据和内存使用日志,快速识别异常内存增长与未释放对象,精准定位泄漏源头;产出结构化、能直接用于决策的报告(检测摘要、泄漏详情、影响分析、修复与预防建议),支持实时监控与历史回溯,帮助移动端、后端与嵌入式团队在最短时间内锁定问题、降低崩溃率、优化性能与稳定性,从而提升发布效率与客户满意度、加速从试用到付费的价值闭环。

特征总结

实时监控内存波动,异常增长即刻告警,支持按模块与版本对比快速定位。
一键生成可读性强的泄漏报告,自动标注嫌疑对象、调用轨迹与受影响业务。
智能识别分配与回收模式,自动发现未释放与缓存堆积等典型泄漏场景。
提供分步修复建议与代码热区指引,帮助团队低风险落地并验证优化效果。
历史趋势对比与基线预警,量化版本间内存健康度变化,防止问题回归。
适配移动端、后端与嵌入式多环境,按场景自动调优检测策略与阈值。
隐私友好输出,最小化展示敏感片段,确保诊断可溯源又不暴露业务细节。
支持发布前体检与回归校验,快速确认修复成效,降低线上崩溃与超时风险。
无需改动业务逻辑,基于运行数据与日志即可完成全流程检测与定位。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

AI 提示词价格
¥20.00元
先用后买,用好了再付款,超安全!

您购买后可以获得什么

获得完整提示词模板
- 共 555 tokens
- 3 个可调节参数
{ 运行时数据 } { 检测模式 } { 输出详细程度 }
获得社区贡献内容的使用权
- 精选社区优质案例,助您快速上手提示词
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59