数据洞察总结生成器

0 浏览
0 试用
0 购买
Sep 28, 2025更新

生成精准且专业的数据洞察总结,适用于数据科学任务。

示例1

以下为“过去4周电商订单量(Orders)、客单价(AOV)与复购率(RPR)”周报可直接采用的结构化洞察框架与推荐图表类型。为避免臆测,内容以可复用模板与方法论呈现,可将你的实际数值替换进占位符。

一、指标口径与数据处理(用于周报前置说明)
- 时间口径:自然周/业务周(明确周起止日);回溯窗口4周。
- 订单量:去重订单(已支付且未退款/取消),以支付时间计;多品项订单计1单。
- 客单价(AOV):GMV/订单量;GMV口径需统一(含/不含运费、税费);对AOV做异常值处理(建议对订单金额按1%/99%分位做Winsorize)。
- 复购率(RPR)推荐双口径同时报告:
  - 28日滚动复购率:在过去28天内下单次数≥2的独立客户数 / 至少下单一次的独立客户数。
  - 周首购Cohort 28日复购率:当周首购用户在28天内完成二单的占比。
- 去重与标识:用户ID合并多端账号;机器人/测试订单剔除。
- 统计对比:WoW变动与显著性检验(AOV用Welch t检验;RPR用两比例z检验;订单量用NB/Poisson回归或率比检验,注意过度离散)。

二、关键洞察摘要(周报正文建议用语与占位符)
1) 总体趋势
- Orders:较上周[↑/↓][X%](显著性:[是/否],p=[ ])
- AOV:较上周[↑/↓][X%](显著性:[是/否],p=[ ])
- RPR(滚动28日):较上周[↑/↓][X pct-pt];Cohort 复购率:[↑/↓][X pct-pt]
- GMV变动主要由[订单量/AOV]驱动,贡献率约为[ ](见贡献拆解)

2) 贡献拆解(GMV = Orders × AOV)
- GMV WoW Δ分解为:
  - 订单量贡献:[ ](在AOV上周基准下测算)
  - AOV贡献:[ ](在订单量上周基准下测算)
  - 交互项:[ ](可与前两项合并呈现)
- 结论:当前GMV弹性主要受[价格/需求]侧驱动;短期优化优先级:[拉动订单/提升AOV]

3) 结构性变化
- 新老客构成:新客占比[↑/↓][X pct-pt];老客AOV较上周[↑/↓][X%];老客频次(人均周订单)[↑/↓][X%]
- 渠道差异:Paid渠道Orders[A]/AOV[B]/RPR[C]变化显著;Organic相对稳定。建议对Paid渠道做出价与素材分层复盘。
- 类目/价格带:高客单价品类贡献[↑/↓];低价格带订单弹性更高/更低(依据你数据填写)。
- 周内节律:工作日/周末在订单与AOV的差异[明显/一般];建议按日节律匹配投放节奏与客服排班。

4) 复购洞察
- Cohort视角:过去4周首购Cohort在D7/D14/D28复购率分别为[ ]/[ ]/[ ];二单中位天数[ ]天(较上周[缩短/延长][ ]天)。
- 频次结构:1单/2单/3单+用户占比[ ]/[ ]/[ ],重度用户占比[↑/↓]。
- 触达与商品:触发复购的Top品类/组合(依据你数据填充);存在可扩展的交叉销售路径。

5) 风险与注意
- 样本期仅4周,相关性(如AOV与Orders的负相关)易受活动/季节性干扰;建议用日级更长窗口验证。
- 活动与库存波动需显式标记,避免将一次性事件解读为趋势。

三、行动建议(按情境套用)
- 若Orders下滑且AOV上升:测试优惠门槛下沉与小额加购(如满X减Y/加价购),验证价格弹性;优化新客首单礼包以扩大底盘。
- 若RPR下滑:加速第二单转化(D3/D7/D14精细化触达),强化复购品类推荐与免运费券;提升履约时效与评价体验。
- 若新客占比上升但RPR未提升:审视首购商品结构与售后退货;引导二单路径(搭配/补充/耗材)。
- 若周末峰值明显:对齐投放高峰与客服/仓配资源,保障转化与履约。

四、推荐图表类型与用途(用于周报配图)
- KPI折线小倍数(3图并列):Orders、AOV、RPR的4周趋势与WoW标注。
- 双轴折线/面积:Orders与AOV同图观测价格-需求权衡;或GMV与AOV。
- Waterfall(瀑布图):GMV WoW变化的订单量与AOV贡献拆解。
- Cohort热力图:按首购周×距首购天数的复购率矩阵(D7/D14/D28标线)。
- 生存/回访曲线:二单达成的Kaplan-Meier曲线与分组对比(新/老客、渠道、品类)。
- 箱线/小提琴图:AOV分布按周或按渠道分组,识别长尾与异常值。
- 分组条形图:新/老客Orders、AOV、RPR对比;或各渠道三指标对比。
- 气泡散点:类目维度AOV(X)×Orders(Y),气泡=GMV,颜色=活动强度。
- 周内节律折线:按星期几的日均Orders与AOV,分面显示近4周对比。
- 控制图(X-MR/3σ):日级Orders识别异常波动(活动/系统事件)。
- Pareto图:SKU/品类GMV累积占比,定位头部拉动项。

五、附:可复用计算与检验要点
- WoW变化率 = (本周−上周)/上周;同时给出95%置信区间。
- AOV周对比:Welch t检验(不等方差);RPR周对比:两比例z检验(Wilson区间)。
- 订单量建模:以日级数据做Poisson/NB回归,控制流量、活动、节假日虚拟变量,评估活动与渠道对订单的净效应。
- 异常值处理:订单金额按1%/99%分位Winsorize;或对AOV取对数后再检验。
- RPR双口径并报:滚动口径反映存量健康,Cohort口径反映拉新质量与二单速度。

如需,我可以基于你的实际数据表结构(订单明细、用户、渠道、品类)提供SQL/Python代码片段,自动生成上述指标与图表。请提供字段口径与示例数据。

示例2

Management decision brief: Core event instrumentation and Login Onboarding A/B test

Important note
- No underlying metrics or experiment outputs were provided. The summary below defines the decision framework, prioritization, and validation plan required for management action. Replace placeholders with observed values (e.g., login completion +X pp, 95% CI [a, b], p=…).

Decision summary
- Proceed to rollout if:
  - Variant improves login completion rate by at least the pre-registered MDE (e.g., ≥+2–3 percentage points absolute) and the 95% CI excludes 0, with no degradation in guardrail metrics (crash/error rate, latency, support tickets).
  - Activation within 24h (first key action after login) is neutral or positive, and Day-1 retention is neutral or positive.
- Iterate and re-test if:
  - Lift is positive but the CI overlaps 0, or guardrails show material degradation.
  - Lift is concentrated in a narrow segment with neutral/negative effect elsewhere; proceed with targeted rollouts and segment-specific variants.
- Revert if:
  - Variant is neutral/negative on login completion or reduces activation/retention, or materially harms guardrails.

Core insights to extract and report (fill with results)
- Event instrumentation quality
  - Coverage: % sessions with required core events present; duplication rate; late or missing timestamps; client vs server timestamp skew.
  - Identity: user_id/device_id stability; cross-device merge rate; anonymous-to-logged-in mapping completeness.
  - Schema consistency: event/property null rates; cardinality explosions; version drift.
- Funnel performance (Control vs Variant)
  - Views of login → Start → Submit → Error → Success conversion by step, device, OS, browser, locale, acquisition channel.
  - Primary: Login completion rate (absolute pp and relative lift, CI).
  - Secondary: Time-to-login, error rate by reason code, OAuth vs email/password completion rate.
  - Downstream: Activation within 24h (first key action), Day-1/Day-7 retention, First-week engagement (events/user), monetization proxy if applicable.
  - Guardrails: App/web crashes, backend 5xx, p95 latency, support contacts per 1k logins, privacy/consent violations.

Iteration priorities (ordered, impact/effort balanced)
1) Fix instrumentation reliability (P0)
   - Enforce a minimal core taxonomy across client and server:
     - view_login, start_login, submit_login, login_error (error_code), login_success
     - onboarding_start, onboarding_step_{n}, onboarding_complete
     - first_key_action (name), activation_complete (definition-aligned), session_start
   - Ensure idempotency keys, deduplication, event versioning, client/server timestamps, and schema validation in the pipeline.
   - Implement unified identity: stable user_id; link anonymous_id → user_id on login; backfill historical join keys.
2) Resolve top funnel frictions found in data (P0)
   - Prioritize the step with highest drop-off or error spikes (e.g., password complexity, SMS OTP failure, email delivery).
   - Default to higher-converting auth providers (e.g., OAuth) where available; degrade gracefully to email.
   - Introduce real-time field validation, clearer error copy with actionable guidance, and progressive disclosure for optional fields.
3) Improve experiment design and analysis rigor (P0)
   - Use CUPED or pre-experiment covariates to reduce variance.
   - Stratify randomization by device, locale, and channel; pre-register primary/secondary metrics and guardrails.
   - Prevent contamination: one variant per user across devices; exclude employees, test traffic, and previously assigned users.
4) Onboarding content iteration (P1)
   - Test single-step vs multi-step, contextual hints, and progress indicators targeted to the first key action.
   - Personalize by acquisition channel or intended use-case if heterogeneity is strong.
5) Performance and reliability (P1)
   - Set SLOs: p95 page load <2s, auth API p95 <300ms, error rate <0.5%. Add canary alarms per variant.
6) Analytics & governance (P2)
   - Build a durable funnel dashboard with drill-down by step, segment, and error codes.
   - Establish event catalog, data contracts, and automated tests for schema drift.

Validation plan

- Primary and secondary metrics
  - Primary: Login completion rate (per-user, first session after exposure).
  - Secondary: Activation within 24h (first key action), Day-1 retention, time-to-first-value, error rate per step.
  - Guardrails: p95 latency, crash/5xx rates, support tickets per 1k users, privacy/compliance flags.

- Experiment design
  - Unit: User-level randomization; cookie → device_id → user_id reconciliation.
  - Sample size/power: Pre-register alpha=0.05, power=0.8; compute N per arm for absolute MDE (e.g., +2 pp). Apply CUPED to reduce N if baseline covariates available.
  - Duration: Run through full weekly cycle (≥14 days) to capture seasonality; avoid mid-experiment UX changes.
  - Sequential monitoring: Use alpha-spending or group-sequential boundaries to control type I error if peeking.
  - Analysis: Intention-to-treat; difference-in-proportions with robust SEs; logistic regression with covariates for sensitivity; CUPED-adjusted estimates; Benjamini–Hochberg for multiple variants/metrics.
  - Heterogeneity: Report effects by device, locale, channel; interaction tests; control family-wise error where applicable.

- Pre-launch QA
  - A/A test to validate randomization and metric stability (p-value uniformity, variant share ≈50/50 within strata).
  - Event parity test: Each core event within 1–2% relative between arms prior to treatment exposure; missingness <1%.
  - Synthetic flows to validate error_code coverage and timestamps ordering.

- Ramp and rollout
  - Ramp: 1% → 10% → 50% → 100% with real-time guardrails; auto-halt thresholds (e.g., error rate +50% over baseline or p95 latency +25%).
  - Post-rollout: 7–14 days of monitoring; regression alerting; re-verify activation and retention stability.

Data and reporting package required for sign-off
- Baseline and variant metrics:
  - Login completion: control vs variant (point estimate, absolute pp, relative lift, 95% CI, p-value).
  - Activation within 24h, Day-1 retention: same stats.
  - Stepwise funnel drops and error_code distribution deltas.
  - Guardrails: crash/5xx, p95 latency, support tickets, privacy events.
- Data quality:
  - Event coverage %, null/dup rates, clock skew, identity linkage rate, schema drift report.
- Segmentation:
  - Breakouts by device, OS, browser, locale, acquisition channel; interaction p-values.

Next actions
- Provide the experiment output and event quality diagnostics to populate the decision gates above.
- If Variant meets rollout criteria, schedule a progressive ramp with guardrails and begin P0 fixes to instrumentation and top friction step concurrently.
- If results are inconclusive, prioritize P0 instrumentation, re-run with CUPED/stratification, and test the most plausible friction fix as Variant C.

If you share the A/B results (counts per arm, baseline rates, stepwise funnel counts, and guardrail metrics), I will compute effect sizes, confidence intervals, power, and provide a concrete go/no-go recommendation with a tailored iteration plan.

示例3

以下为基于“多渠道投放数据 + 注册转化率 + 7日留存”的整合分析洞察与可执行建议。由于未提供具体数据,输出为可直接套用的决策规则与实验清单,避免臆测。

一、指标与口径统一(用于跨渠道可比)
- 基础口径
  - 注册转化率 CVR_reg = 注册数 / 点击数(或会话数,需统一口径)
  - 7日留存 D7 = 7日内活跃用户 / 注册当日用户(留存按获客日 cohort 计算)
- 统一效率指标
  - 每个7日留存注册的成本(CPRU)= 花费 / (注册数 × D7)
  - 若可估算早期LTV,则用 LTV7 或 PredLTV 替代 D7,效率分数 = LTV7 / CAC
- 归因与去重
  - 统一UTM/事件映射;按cohort去重注册;iOS使用SKAN或聚合回传,必要时用D3留存作为D7代理进行短期决策

二、核心洞察(规则化)
- 渠道与投放包的效率以CPRU为主、CVR_reg和D7为辅:高CVR但低D7通常为低质承诺或受众错配;低CVR但高D7为高意向但漏斗前端弱
- 创意与落地页一致性直接影响D7:点击预期与产品首屏不一致时,D7显著下滑
- 创意疲劳可用“周环比CTR↓且频次↑且CVR_reg↓”三信号判定,需及时轮转
- 规模与效率的边际:单日放量增长过快(>30%)常伴随CPRU恶化,应渐进式扩量

三、预算调整建议(可执行流程)
- 排序与过滤
  1) 用近14–28天滚动cohort按“渠道/系列/广告组/创意”计算CPRU
  2) 剔除样本不足单元(注册数<阈值,建议≥100;或点击数<1,000)
- 相对效率与迁移额度
  - 相对效率 RE_i = 中位CPRU_all / CPRU_i
  - 增配规则:RE_i>1 且规模稳定的单元,增配10–20%;RE_i>1.2 可逐步增至30%,每3天评估一次
  - 减配规则:RE_i<0.8 且有显著性差异(两比例或比值检验通过,FDR校正),减配10–30%
  - 护栏:单单元日内预算变动≤30%;维持平台学习期最低花费;为头部单元设上限防止迅速边际恶化
- 质量优先
  - 在同等CAC下,优先D7更高的渠道/受众/创意;当月目标偏增长时,允许在CPRU可接受范围内换取规模
- 混合策略
  - 搜索/品牌词等高D7单元作为“效率底座”;社交流量用于扩量但需严管频控与创意轮转
  - iOS短期用D3或首周事件价值作为优化目标,Android可直控tCPA/tROAS

四、创意方向(基于“CVR_reg × D7”四象限)
- 高CVR × 高D7:主力素材,做轻迭代扩量(多切尺寸、开头3秒变体、CTA颜色/文案微调)
- 高CVR × 低D7:对齐承诺与首屏体验;减少“强激励/夸张收益”措辞;收紧受众或优化落地页相关性
- 低CVR × 高D7:保留核心价值点,改首屏钩子、前3秒节奏、信息层级与可读性,提高点击与理解
- 低CVR × 低D7:淘汰
- 通用创意要点
  - 一致性:广告承诺=落地页首屏=首程功能路径
  - 结构化演示:问题-方案-证据-行动;加入社会证明(评分/案例)
  - 素材轮转:设定疲劳阈值(如CTR周降>20%且频次>4)自动下线

五、短期实验清单(2–4周内)
- 落地页/注册流程
  - 表单简化:一步式 vs 多步引导;社交登录开关
  - 首屏承诺一致性:广告价值点与落地页首屏文案/视觉一致 vs 常规模块
  - 目标与判停:CVR_reg提升≥相对10%,D7不下降;两比例检验,功效≥80%
- 竞价与优化目标
  - tCPA vs 价值优化(以“注册后关键事件”或D3/D7 proxy);分广告组AB
  - 判停:CPRU改善≥15%且规模不降
- 频控与分时
  - 频次上限2/3/5对比;分时投放(高效时段白名单)
  - 判停:CPRU与CVR_reg综合改善,且展示损失可控
- 受众策略
  - 相似人群1% vs 3–5%;兴趣包拆分与去重;品牌/竞品关键词精确 vs 广泛+否词
  - 判停:D7与CPRU双指标优化
- 创意变体
  - 钩子(价格/痛点/场景/功能演示)× 开头3秒节奏 × 字幕/画幅
  - 判停:创意级CPRU与CTR双优
- 激励与教育
  - 首次优惠/引导教程A/B,评估D7净效应(避免“空增长”)
- 反作弊/低质流量筛选
  - 异常点击率、极短停留、设备指纹规则阈值AB,观察CPRU与D1/D7改善
- 归因与数据质量
  - UTM与事件字典AB(精细化来源标注 vs 现状),提升可测性与归因匹配率

六、测量与统计保障
- 样本量与显著性
  - 两比例检验估算样本:n≈16·p·(1−p)/Δ²(p为基线转化率,Δ为期望提升幅度);用Wilson区间;多实验用FDR控制
- 时间窗与延迟
  - 用获客日cohort对齐D7;iOS使用延迟补数;评估周期至少T+7
- 看板与告警
  - 渠道/创意维度的CPRU、CVR_reg、D7、频次、CTR;疲劳与异常波动自动告警(如周内CPRU z-score>2)

落地步骤建议
- 第1周:统一口径、搭建CPRU看板、筛选可放量与需降配单元
- 第2–3周:按上述预算规则进行10–20%幅度的结构性迁移,同时开展落地页与竞价目标AB
- 第4周:复盘D7与规模,放大有效实验,淘汰低效创意与受众;准备下一轮创意迭代

如提供具体渠道、系列、创意与cohort数据,可据此输出精确的预算迁移比例、创意优先级与单实验样本量。

适用用户

数据分析师与BI工程师

从复杂报表与探索笔记快速生成结构化洞察与图表建议,显著缩短周报、复盘和评审文档撰写时间。

产品经理

将埋点分析与A/B结果转化为管理层可读的决策摘要,明确迭代方向、资源优先级与验证计划。

市场与增长运营负责人

把投放、转化、留存数据总结成策略建议与实验清单,及时校准渠道预算与创意方向,提高投产比。

创业者与业务负责人

将经营指标变化解释为可执行动作,面向投资人或董事会准备简洁有力的数据故事与行动路线。

用户研究与体验团队

整合定量结论输出分群洞察与场景机会,指导引导设计、个性化运营与关键旅程优化。

供应链与财务分析人员

将库存、成本、现金流数据的风险与拐点清晰呈现,形成优化建议与监控清单,支撑稳健经营。

咨询顾问

把客户数据诊断结果快速转为洞察报告与行动路径,提高交付效率与说服力,促进复购与口碑。

教研与学术研究者

将实验数据与统计结论整理为严谨摘要,快速生成课题汇报要点或论文讨论部分,提升沟通与发表效率。

解决的问题

将零散、冗长的分析结论,快速转化为一份结构化、可直接用于汇报与决策的洞察总结。以清晰的逻辑呈现“结论—原因—影响—建议”,支持多语言输出,适配周报、复盘、实验结果、投放回顾、看板解读等常见场景;显著缩短从数据到结论的时间,减少重复沟通,提升团队对同一事实的共识度与执行力。

特征总结

一键把复杂分析转成结构化洞察摘要,突出关键趋势、影响因素与可执行要点
自动在噪声中提炼信号,识别异常与拐点、分群特征,迅速定位问题与机遇
支持多语言与语气定制,面向管理层、技术团队、客户沟通场景自由切换输出
为报告与演示自动生成清晰章节、要点和结论,免去长稿整理,直接用于决策沟通
根据分析描述给出策略建议与后续实验方案,让洞察快速落地到行动与验证
智能补全数据清洗、特征说明与统计解释,避免遗漏关键步骤和误读风险
自动对常见模型思路给出比较与选型提示,提高建模效率与结论可信度
提供可视化表达建议与图表清单,帮助用图讲故事,更直观传达核心结论
支持模板化与参数化调用,批量生成一致风格摘要,适配不同业务侧重点
坚持专业审慎语气与事实核对,降低夸大与错误风险,守住数据沟通底线

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

¥10.00元
平台提供免费试用机制,
确保效果符合预期,再付费购买!

您购买后可以获得什么

获得完整提示词模板
- 共 263 tokens
- 2 个可调节参数
{ 数据分析描述 } { 输出语言 }
自动加入"我的提示词库"
- 获得提示词优化器支持
- 版本化管理支持
获得社区共享的应用案例
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59