AI 提示词:数据洞察总结生成器

121 浏览
9 试用
2 购买
Sep 28, 2025更新

生成精准且专业的数据洞察总结,适用于数据科学任务。

以下为“过去4周电商订单量(Orders)、客单价(AOV)与复购率(RPR)”周报可直接采用的结构化洞察框架与推荐图表类型。为避免臆测,内容以可复用模板与方法论呈现,可将你的实际数值替换进占位符。

一、指标口径与数据处理(用于周报前置说明)

  • 时间口径:自然周/业务周(明确周起止日);回溯窗口4周。
  • 订单量:去重订单(已支付且未退款/取消),以支付时间计;多品项订单计1单。
  • 客单价(AOV):GMV/订单量;GMV口径需统一(含/不含运费、税费);对AOV做异常值处理(建议对订单金额按1%/99%分位做Winsorize)。
  • 复购率(RPR)推荐双口径同时报告:
    • 28日滚动复购率:在过去28天内下单次数≥2的独立客户数 / 至少下单一次的独立客户数。
    • 周首购Cohort 28日复购率:当周首购用户在28天内完成二单的占比。
  • 去重与标识:用户ID合并多端账号;机器人/测试订单剔除。
  • 统计对比:WoW变动与显著性检验(AOV用Welch t检验;RPR用两比例z检验;订单量用NB/Poisson回归或率比检验,注意过度离散)。

二、关键洞察摘要(周报正文建议用语与占位符)

  1. 总体趋势
  • Orders:较上周[↑/↓][X%](显著性:[是/否],p=[ ])
  • AOV:较上周[↑/↓][X%](显著性:[是/否],p=[ ])
  • RPR(滚动28日):较上周[↑/↓][X pct-pt];Cohort 复购率:[↑/↓][X pct-pt]
  • GMV变动主要由[订单量/AOV]驱动,贡献率约为[ ](见贡献拆解)
  1. 贡献拆解(GMV = Orders × AOV)
  • GMV WoW Δ分解为:
    • 订单量贡献:[ ](在AOV上周基准下测算)
    • AOV贡献:[ ](在订单量上周基准下测算)
    • 交互项:[ ](可与前两项合并呈现)
  • 结论:当前GMV弹性主要受[价格/需求]侧驱动;短期优化优先级:[拉动订单/提升AOV]
  1. 结构性变化
  • 新老客构成:新客占比[↑/↓][X pct-pt];老客AOV较上周[↑/↓][X%];老客频次(人均周订单)[↑/↓][X%]
  • 渠道差异:Paid渠道Orders[A]/AOV[B]/RPR[C]变化显著;Organic相对稳定。建议对Paid渠道做出价与素材分层复盘。
  • 类目/价格带:高客单价品类贡献[↑/↓];低价格带订单弹性更高/更低(依据你数据填写)。
  • 周内节律:工作日/周末在订单与AOV的差异[明显/一般];建议按日节律匹配投放节奏与客服排班。
  1. 复购洞察
  • Cohort视角:过去4周首购Cohort在D7/D14/D28复购率分别为[ ]/[ ]/[ ];二单中位天数[ ]天(较上周[缩短/延长][ ]天)。
  • 频次结构:1单/2单/3单+用户占比[ ]/[ ]/[ ],重度用户占比[↑/↓]。
  • 触达与商品:触发复购的Top品类/组合(依据你数据填充);存在可扩展的交叉销售路径。
  1. 风险与注意
  • 样本期仅4周,相关性(如AOV与Orders的负相关)易受活动/季节性干扰;建议用日级更长窗口验证。
  • 活动与库存波动需显式标记,避免将一次性事件解读为趋势。

三、行动建议(按情境套用)

  • 若Orders下滑且AOV上升:测试优惠门槛下沉与小额加购(如满X减Y/加价购),验证价格弹性;优化新客首单礼包以扩大底盘。
  • 若RPR下滑:加速第二单转化(D3/D7/D14精细化触达),强化复购品类推荐与免运费券;提升履约时效与评价体验。
  • 若新客占比上升但RPR未提升:审视首购商品结构与售后退货;引导二单路径(搭配/补充/耗材)。
  • 若周末峰值明显:对齐投放高峰与客服/仓配资源,保障转化与履约。

四、推荐图表类型与用途(用于周报配图)

  • KPI折线小倍数(3图并列):Orders、AOV、RPR的4周趋势与WoW标注。
  • 双轴折线/面积:Orders与AOV同图观测价格-需求权衡;或GMV与AOV。
  • Waterfall(瀑布图):GMV WoW变化的订单量与AOV贡献拆解。
  • Cohort热力图:按首购周×距首购天数的复购率矩阵(D7/D14/D28标线)。
  • 生存/回访曲线:二单达成的Kaplan-Meier曲线与分组对比(新/老客、渠道、品类)。
  • 箱线/小提琴图:AOV分布按周或按渠道分组,识别长尾与异常值。
  • 分组条形图:新/老客Orders、AOV、RPR对比;或各渠道三指标对比。
  • 气泡散点:类目维度AOV(X)×Orders(Y),气泡=GMV,颜色=活动强度。
  • 周内节律折线:按星期几的日均Orders与AOV,分面显示近4周对比。
  • 控制图(X-MR/3σ):日级Orders识别异常波动(活动/系统事件)。
  • Pareto图:SKU/品类GMV累积占比,定位头部拉动项。

五、附:可复用计算与检验要点

  • WoW变化率 = (本周−上周)/上周;同时给出95%置信区间。
  • AOV周对比:Welch t检验(不等方差);RPR周对比:两比例z检验(Wilson区间)。
  • 订单量建模:以日级数据做Poisson/NB回归,控制流量、活动、节假日虚拟变量,评估活动与渠道对订单的净效应。
  • 异常值处理:订单金额按1%/99%分位Winsorize;或对AOV取对数后再检验。
  • RPR双口径并报:滚动口径反映存量健康,Cohort口径反映拉新质量与二单速度。

如需,我可以基于你的实际数据表结构(订单明细、用户、渠道、品类)提供SQL/Python代码片段,自动生成上述指标与图表。请提供字段口径与示例数据。

Management decision brief: Core event instrumentation and Login Onboarding A/B test

Important note

  • No underlying metrics or experiment outputs were provided. The summary below defines the decision framework, prioritization, and validation plan required for management action. Replace placeholders with observed values (e.g., login completion +X pp, 95% CI [a, b], p=…).

Decision summary

  • Proceed to rollout if:
    • Variant improves login completion rate by at least the pre-registered MDE (e.g., ≥+2–3 percentage points absolute) and the 95% CI excludes 0, with no degradation in guardrail metrics (crash/error rate, latency, support tickets).
    • Activation within 24h (first key action after login) is neutral or positive, and Day-1 retention is neutral or positive.
  • Iterate and re-test if:
    • Lift is positive but the CI overlaps 0, or guardrails show material degradation.
    • Lift is concentrated in a narrow segment with neutral/negative effect elsewhere; proceed with targeted rollouts and segment-specific variants.
  • Revert if:
    • Variant is neutral/negative on login completion or reduces activation/retention, or materially harms guardrails.

Core insights to extract and report (fill with results)

  • Event instrumentation quality
    • Coverage: % sessions with required core events present; duplication rate; late or missing timestamps; client vs server timestamp skew.
    • Identity: user_id/device_id stability; cross-device merge rate; anonymous-to-logged-in mapping completeness.
    • Schema consistency: event/property null rates; cardinality explosions; version drift.
  • Funnel performance (Control vs Variant)
    • Views of login → Start → Submit → Error → Success conversion by step, device, OS, browser, locale, acquisition channel.
    • Primary: Login completion rate (absolute pp and relative lift, CI).
    • Secondary: Time-to-login, error rate by reason code, OAuth vs email/password completion rate.
    • Downstream: Activation within 24h (first key action), Day-1/Day-7 retention, First-week engagement (events/user), monetization proxy if applicable.
    • Guardrails: App/web crashes, backend 5xx, p95 latency, support contacts per 1k logins, privacy/consent violations.

Iteration priorities (ordered, impact/effort balanced)

  1. Fix instrumentation reliability (P0)
    • Enforce a minimal core taxonomy across client and server:
      • view_login, start_login, submit_login, login_error (error_code), login_success
      • onboarding_start, onboarding_step_{n}, onboarding_complete
      • first_key_action (name), activation_complete (definition-aligned), session_start
    • Ensure idempotency keys, deduplication, event versioning, client/server timestamps, and schema validation in the pipeline.
    • Implement unified identity: stable user_id; link anonymous_id → user_id on login; backfill historical join keys.
  2. Resolve top funnel frictions found in data (P0)
    • Prioritize the step with highest drop-off or error spikes (e.g., password complexity, SMS OTP failure, email delivery).
    • Default to higher-converting auth providers (e.g., OAuth) where available; degrade gracefully to email.
    • Introduce real-time field validation, clearer error copy with actionable guidance, and progressive disclosure for optional fields.
  3. Improve experiment design and analysis rigor (P0)
    • Use CUPED or pre-experiment covariates to reduce variance.
    • Stratify randomization by device, locale, and channel; pre-register primary/secondary metrics and guardrails.
    • Prevent contamination: one variant per user across devices; exclude employees, test traffic, and previously assigned users.
  4. Onboarding content iteration (P1)
    • Test single-step vs multi-step, contextual hints, and progress indicators targeted to the first key action.
    • Personalize by acquisition channel or intended use-case if heterogeneity is strong.
  5. Performance and reliability (P1)
    • Set SLOs: p95 page load <2s, auth API p95 <300ms, error rate <0.5%. Add canary alarms per variant.
  6. Analytics & governance (P2)
    • Build a durable funnel dashboard with drill-down by step, segment, and error codes.
    • Establish event catalog, data contracts, and automated tests for schema drift.

Validation plan

  • Primary and secondary metrics

    • Primary: Login completion rate (per-user, first session after exposure).
    • Secondary: Activation within 24h (first key action), Day-1 retention, time-to-first-value, error rate per step.
    • Guardrails: p95 latency, crash/5xx rates, support tickets per 1k users, privacy/compliance flags.
  • Experiment design

    • Unit: User-level randomization; cookie → device_id → user_id reconciliation.
    • Sample size/power: Pre-register alpha=0.05, power=0.8; compute N per arm for absolute MDE (e.g., +2 pp). Apply CUPED to reduce N if baseline covariates available.
    • Duration: Run through full weekly cycle (≥14 days) to capture seasonality; avoid mid-experiment UX changes.
    • Sequential monitoring: Use alpha-spending or group-sequential boundaries to control type I error if peeking.
    • Analysis: Intention-to-treat; difference-in-proportions with robust SEs; logistic regression with covariates for sensitivity; CUPED-adjusted estimates; Benjamini–Hochberg for multiple variants/metrics.
    • Heterogeneity: Report effects by device, locale, channel; interaction tests; control family-wise error where applicable.
  • Pre-launch QA

    • A/A test to validate randomization and metric stability (p-value uniformity, variant share ≈50/50 within strata).
    • Event parity test: Each core event within 1–2% relative between arms prior to treatment exposure; missingness <1%.
    • Synthetic flows to validate error_code coverage and timestamps ordering.
  • Ramp and rollout

    • Ramp: 1% → 10% → 50% → 100% with real-time guardrails; auto-halt thresholds (e.g., error rate +50% over baseline or p95 latency +25%).
    • Post-rollout: 7–14 days of monitoring; regression alerting; re-verify activation and retention stability.

Data and reporting package required for sign-off

  • Baseline and variant metrics:
    • Login completion: control vs variant (point estimate, absolute pp, relative lift, 95% CI, p-value).
    • Activation within 24h, Day-1 retention: same stats.
    • Stepwise funnel drops and error_code distribution deltas.
    • Guardrails: crash/5xx, p95 latency, support tickets, privacy events.
  • Data quality:
    • Event coverage %, null/dup rates, clock skew, identity linkage rate, schema drift report.
  • Segmentation:
    • Breakouts by device, OS, browser, locale, acquisition channel; interaction p-values.

Next actions

  • Provide the experiment output and event quality diagnostics to populate the decision gates above.
  • If Variant meets rollout criteria, schedule a progressive ramp with guardrails and begin P0 fixes to instrumentation and top friction step concurrently.
  • If results are inconclusive, prioritize P0 instrumentation, re-run with CUPED/stratification, and test the most plausible friction fix as Variant C.

If you share the A/B results (counts per arm, baseline rates, stepwise funnel counts, and guardrail metrics), I will compute effect sizes, confidence intervals, power, and provide a concrete go/no-go recommendation with a tailored iteration plan.

以下为基于“多渠道投放数据 + 注册转化率 + 7日留存”的整合分析洞察与可执行建议。由于未提供具体数据,输出为可直接套用的决策规则与实验清单,避免臆测。

一、指标与口径统一(用于跨渠道可比)

  • 基础口径
    • 注册转化率 CVR_reg = 注册数 / 点击数(或会话数,需统一口径)
    • 7日留存 D7 = 7日内活跃用户 / 注册当日用户(留存按获客日 cohort 计算)
  • 统一效率指标
    • 每个7日留存注册的成本(CPRU)= 花费 / (注册数 × D7)
    • 若可估算早期LTV,则用 LTV7 或 PredLTV 替代 D7,效率分数 = LTV7 / CAC
  • 归因与去重
    • 统一UTM/事件映射;按cohort去重注册;iOS使用SKAN或聚合回传,必要时用D3留存作为D7代理进行短期决策

二、核心洞察(规则化)

  • 渠道与投放包的效率以CPRU为主、CVR_reg和D7为辅:高CVR但低D7通常为低质承诺或受众错配;低CVR但高D7为高意向但漏斗前端弱
  • 创意与落地页一致性直接影响D7:点击预期与产品首屏不一致时,D7显著下滑
  • 创意疲劳可用“周环比CTR↓且频次↑且CVR_reg↓”三信号判定,需及时轮转
  • 规模与效率的边际:单日放量增长过快(>30%)常伴随CPRU恶化,应渐进式扩量

三、预算调整建议(可执行流程)

  • 排序与过滤
    1. 用近14–28天滚动cohort按“渠道/系列/广告组/创意”计算CPRU
    2. 剔除样本不足单元(注册数<阈值,建议≥100;或点击数<1,000)
  • 相对效率与迁移额度
    • 相对效率 RE_i = 中位CPRU_all / CPRU_i
    • 增配规则:RE_i>1 且规模稳定的单元,增配10–20%;RE_i>1.2 可逐步增至30%,每3天评估一次
    • 减配规则:RE_i<0.8 且有显著性差异(两比例或比值检验通过,FDR校正),减配10–30%
    • 护栏:单单元日内预算变动≤30%;维持平台学习期最低花费;为头部单元设上限防止迅速边际恶化
  • 质量优先
    • 在同等CAC下,优先D7更高的渠道/受众/创意;当月目标偏增长时,允许在CPRU可接受范围内换取规模
  • 混合策略
    • 搜索/品牌词等高D7单元作为“效率底座”;社交流量用于扩量但需严管频控与创意轮转
    • iOS短期用D3或首周事件价值作为优化目标,Android可直控tCPA/tROAS

四、创意方向(基于“CVR_reg × D7”四象限)

  • 高CVR × 高D7:主力素材,做轻迭代扩量(多切尺寸、开头3秒变体、CTA颜色/文案微调)
  • 高CVR × 低D7:对齐承诺与首屏体验;减少“强激励/夸张收益”措辞;收紧受众或优化落地页相关性
  • 低CVR × 高D7:保留核心价值点,改首屏钩子、前3秒节奏、信息层级与可读性,提高点击与理解
  • 低CVR × 低D7:淘汰
  • 通用创意要点
    • 一致性:广告承诺=落地页首屏=首程功能路径
    • 结构化演示:问题-方案-证据-行动;加入社会证明(评分/案例)
    • 素材轮转:设定疲劳阈值(如CTR周降>20%且频次>4)自动下线

五、短期实验清单(2–4周内)

  • 落地页/注册流程
    • 表单简化:一步式 vs 多步引导;社交登录开关
    • 首屏承诺一致性:广告价值点与落地页首屏文案/视觉一致 vs 常规模块
    • 目标与判停:CVR_reg提升≥相对10%,D7不下降;两比例检验,功效≥80%
  • 竞价与优化目标
    • tCPA vs 价值优化(以“注册后关键事件”或D3/D7 proxy);分广告组AB
    • 判停:CPRU改善≥15%且规模不降
  • 频控与分时
    • 频次上限2/3/5对比;分时投放(高效时段白名单)
    • 判停:CPRU与CVR_reg综合改善,且展示损失可控
  • 受众策略
    • 相似人群1% vs 3–5%;兴趣包拆分与去重;品牌/竞品关键词精确 vs 广泛+否词
    • 判停:D7与CPRU双指标优化
  • 创意变体
    • 钩子(价格/痛点/场景/功能演示)× 开头3秒节奏 × 字幕/画幅
    • 判停:创意级CPRU与CTR双优
  • 激励与教育
    • 首次优惠/引导教程A/B,评估D7净效应(避免“空增长”)
  • 反作弊/低质流量筛选
    • 异常点击率、极短停留、设备指纹规则阈值AB,观察CPRU与D1/D7改善
  • 归因与数据质量
    • UTM与事件字典AB(精细化来源标注 vs 现状),提升可测性与归因匹配率

六、测量与统计保障

  • 样本量与显著性
    • 两比例检验估算样本:n≈16·p·(1−p)/Δ²(p为基线转化率,Δ为期望提升幅度);用Wilson区间;多实验用FDR控制
  • 时间窗与延迟
    • 用获客日cohort对齐D7;iOS使用延迟补数;评估周期至少T+7
  • 看板与告警
    • 渠道/创意维度的CPRU、CVR_reg、D7、频次、CTR;疲劳与异常波动自动告警(如周内CPRU z-score>2)

落地步骤建议

  • 第1周:统一口径、搭建CPRU看板、筛选可放量与需降配单元
  • 第2–3周:按上述预算规则进行10–20%幅度的结构性迁移,同时开展落地页与竞价目标AB
  • 第4周:复盘D7与规模,放大有效实验,淘汰低效创意与受众;准备下一轮创意迭代

如提供具体渠道、系列、创意与cohort数据,可据此输出精确的预算迁移比例、创意优先级与单实验样本量。

示例详情

适用用户

数据分析师与BI工程师

从复杂报表与探索笔记快速生成结构化洞察与图表建议,显著缩短周报、复盘和评审文档撰写时间。

产品经理

将埋点分析与A/B结果转化为管理层可读的决策摘要,明确迭代方向、资源优先级与验证计划。

市场与增长运营负责人

把投放、转化、留存数据总结成策略建议与实验清单,及时校准渠道预算与创意方向,提高投产比。

解决的问题

将零散、冗长的分析结论,快速转化为一份结构化、可直接用于汇报与决策的洞察总结。以清晰的逻辑呈现“结论—原因—影响—建议”,支持多语言输出,适配周报、复盘、实验结果、投放回顾、看板解读等常见场景;显著缩短从数据到结论的时间,减少重复沟通,提升团队对同一事实的共识度与执行力。

特征总结

一键把复杂分析转成结构化洞察摘要,突出关键趋势、影响因素与可执行要点
自动在噪声中提炼信号,识别异常与拐点、分群特征,迅速定位问题与机遇
支持多语言与语气定制,面向管理层、技术团队、客户沟通场景自由切换输出
为报告与演示自动生成清晰章节、要点和结论,免去长稿整理,直接用于决策沟通
根据分析描述给出策略建议与后续实验方案,让洞察快速落地到行动与验证
智能补全数据清洗、特征说明与统计解释,避免遗漏关键步骤和误读风险
自动对常见模型思路给出比较与选型提示,提高建模效率与结论可信度
提供可视化表达建议与图表清单,帮助用图讲故事,更直观传达核心结论
支持模板化与参数化调用,批量生成一致风格摘要,适配不同业务侧重点
坚持专业审慎语气与事实核对,降低夸大与错误风险,守住数据沟通底线

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

AI 提示词价格
¥10.00元
先用后买,用好了再付款,超安全!

您购买后可以获得什么

获得完整提示词模板
- 共 263 tokens
- 2 个可调节参数
{ 数据分析描述 } { 输出语言 }
获得社区贡献内容的使用权
- 精选社区优质案例,助您快速上手提示词
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59