分析数据偏差清单

0 浏览
0 试用
0 购买
Sep 28, 2025更新

帮助识别数据集中的潜在偏差,提供专业的数据分析支持。

示例1

以下为基于“年龄、收入、地区、额度、还款历史、违约标记”的信贷训练集可能存在的偏差识别、诊断与缓解建议。

一、潜在偏差类型与来源
1) 采样/选择偏差
- 已获批客户样本:若训练数据仅来自已获批账户,样本分布受历史审批规则影响,导致对被拒客户的外推失真(reject bias)。
- 幸存者偏差:只包含仍在账户体系内且有足够观测期的客户,提前结清、转贷或注销者被系统性遗漏。
- 时序样本偏差:训练期处在特定宏观周期(如宽松或收紧),与部署期经济环境不一致,导致概念漂移。

2) 标签(违约标记)偏差
- 定义不一致或含糊:违约阈值(如90+DPD、核销、以月为单位的逾期跃迁)标准不统一,跨地区、跨产品口径差异导致标签系统性偏差。
- 右删失/未成熟样本:未满观察窗口(例如12个月绩效期)的账户标签未知或被视为“未违约”,引入偏差。
- 运营策略影响:催收策略、豁免政策在不同地区或时间段差异,影响违约确认和时间戳。

3) 测量与特征偏差
- 收入误报与缺失:自报收入存在测量误差,缺失可能是非随机(高风险群体更易缺失)。
- 地区作为代理变量:地理信息可强力代理社会经济与群体属性,可能诱发间接歧视或“红线效应”。
- 额度为政策变量:额度由机构决策生成,包含历史风控判断,形成反馈回路;额度与违约相关性可能反映策略而非客户真实风险。
- 还款历史的时序泄露:若还款行为特征提取跨越了违约发生后或标签定义期之后,形成信息泄露。
- 年龄的使用风险:年龄可能受到合规限制;同时与从业年限、生命周期收入强相关,具有潜在差异化影响。

4) 类别与群体不均衡
- 目标类别不均衡:违约样本占比低导致模型偏向多数类;阈值选择不当可能放大群体差异。
- 群体样本不均衡:不同年龄段、地区样本量差异导致估计方差不均,群体性能不稳定。

5) 代理与结构性历史偏差
- 特征作为历史决策的承载:额度与部分还款历史受过往策略影响,模型学习到“历史偏见”而非纯粹风险因果关系。
- 地区/年龄与宏观或产业暴露:产业结构不同导致地区违约率差异,若未控制宏观与产品特征,模型可能将不可归因于个体风险的差异学习为“可惩罚信号”。

二、诊断与量化方法
1) 数据与标签审计
- 标签口径核对:明确违约定义、观察窗口、表现期;确保所有样本拥有足够的成熟期或进行删失处理。
- 时序一致性检查:确保所有特征在“申请/评分时点”之前截取;对还款历史仅取标签期前窗口。

2) 选择偏差评估
- 批核与拒绝样本对比:若有申请全量数据,比较入样(已批)与总体(含拒绝)在年龄、收入、地区分布的差异;估计获批倾向分数(propensity),检验分布漂移。
- Heckman两阶段或IPW加权:评估选择机制对目标分布的影响。

3) 缺失机制与测量误差
- 缺失性诊断:MNAR/MAR评估,绘制缺失热力图与与目标相关性;对收入、还款历史缺失与违约的关联检验。
- 异常值与一致性:收入与额度的比率、年龄与还款年限的逻辑一致性规则检验。

4) 群体公平与性能分解
- 分组评估:按年龄分箱(如<25, 25-35, 35-50, 50+)与地区(省/市/城乡)分层计算AUC、KS、校准误差、TPR/FPR/PPV/FNR等。
- 差异度量:统计各组TPR差异、FPR差异、校准差异;计算风险分数分布的移位、均值差和分位差。
- 阈值敏感性:在不同阈值下观察各组拒绝率与坏账率曲线,识别是否存在系统性不利。

5) 时序与分布漂移
- 时间切片评估:按月份或季度计算PSI、AUC、坏账率,识别宏观周期敏感性。
- 经济变量对照:若可用,引入地区宏观变量(失业率、产业结构)进行条件分析,避免把宏观差异误认为个体风险。

6) 代理检测与可解释性
- 反演预测:用除地区外的特征训练模型预测地区,若可预测性显著,说明存在强代理链条。
- 局部解释:按群体计算SHAP均值与排序,比较驱动因子在不同群体的差异及其方向一致性。
- 泄露检验:对疑似泄露特征做时移(lag)与遮蔽实验,观察性能骤降以确认泄露。

三、缓解与纠偏策略
1) 数据层面
- 统一标签与窗口:固定违约定义与表现期;删除未成熟或做生存建模;严格限定特征时间窗。
- 处理缺失与异常:基于分组的多重插补;对收入、额度做截尾/分箱;记录缺失指示变量并评估其不利影响。
- 降低代理风险:地区特征做聚合或去标识化(如仅保留宏观经济区划或城/乡指示),避免过细地理粒度。

2) 选择偏差与拒绝推断
- 倾向加权与重加权:使用入样倾向分数对训练样本再加权,使其匹配总体申请分布。
- 拒绝推断:半监督/正负无标签方法、EM或合成标签策略,谨慎评估稳定性与偏差放大风险。

3) 建模与约束
- 公平性约束或正则化:在训练中对TPR/FPR差异加入约束,或采用reweighing/preprocessing消偏。
- 校准与后处理:按群体做概率校准(如分组等值回归或温度缩放),或采用阈值分组优化以满足运营约束与公平折中。
- 因果与政策变量控制:将额度、过去策略变量视为中介/政策变量,进行因果敏感性分析或在建模时降低其权重,避免学习到策略反馈。
- 稳健性训练:时间切片交叉验证;对宏观扰动做数据增强;选择对分布漂移更稳健的模型与损失。

4) 监控与治理
- 上线后分组监控:分群体跟踪违约率、通过率、TPR/FPR/校准误差与PSI;设定预警阈值。
- 模型变更与审批策略联动:策略变更(额度、定价、催收)会改变数据分布,需建立因果评估与A/B实验机制,避免新的反馈偏差。

四、数据收集与标注改进建议
- 扩展覆盖:尽可能采集被拒申请的基础特征,用于选择偏差校正。
- 标签标准化:制定跨地区统一违约口径与时间窗;记录催收与豁免事件日志。
- 宏观与产品维度:补充地区宏观经济、产品结构与渠道来源特征,以分离个体风险与外生冲击。
- 合规与最小必要:审查年龄、地区等特征的使用合规性;采用最小必要原则与去标识化处理。

总结
该数据集最主要的偏差风险包括历史审批导致的选择偏差、标签定义与右删失导致的标签偏差、地区与额度等策略变量引入的代理与反馈偏差、以及群体不均衡引发的性能与公平差异。应通过严谨的时序与口径控制、分组性能与公平评估、选择偏差校正、以及因果与后处理手段进行系统缓解,并建立持续的上线监控与治理机制。

示例2

Below is a structured review of potential biases in an “App internal test logs” dataset covering segmentation (groups), exposure, click, conversion, retention, and user feedback. For each category, I include typical failure modes, detection strategies, and mitigation approaches.

1) Sampling and Selection Bias
- Internal-tester bias: Early adopters, power users, or opt-in beta users are not representative of the production population.
  - Detect: Compare demographics, device/OS, geography, tenure, activity intensity to production baseline using standardized mean differences (SMD) and population stability index (PSI).
  - Mitigate: Post-stratification or importance weighting to align with target population; stratified sampling.

- Coverage gaps: Under-representation of specific OS versions, device tiers, locales, or new/returning users; consent-based inclusion (opt-out users missing).
  - Detect: Profiling by strata; missingness audit by consent status.
  - Mitigate: Include consent and coverage indicators as covariates; reweight by strata; sensitivity analyses excluding under-covered segments.

- Survivor/heavy-user bias: Users who remain engaged are more observed, inflating retention and conversion.
  - Detect: Compare metrics by tenure deciles and activity percentiles.
  - Mitigate: Survival analysis; report metrics stratified by tenure; weight new users appropriately.

2) Experiment Design and Assignment Bias (if A/B or cohort tests are present)
- Sample ratio mismatch (SRM): Assignment proportions deviate from design due to eligibility filters or logging loss.
  - Detect: Chi-square SRM checks; monitor assignment funnels and eligibility predicates.
  - Mitigate: Fix randomization key (user-level stable hashing); audit eligibility; pause and rerun on SRM.

- Noncompliance and contamination: Users switch groups due to app updates or multi-device use; cross-group interference (network effects).
  - Detect: As-assigned vs as-exposed comparisons; duplicate user IDs across arms; cluster-level spillovers.
  - Mitigate: Intent-to-treat as primary; cluster randomization (household/account); enforce sticky assignment per user/account.

- Learning/novelty and carryover effects: Early period shows novelty; effects decay or leak when switching versions.
  - Detect: Time-sliced effects; pre-post within user.
  - Mitigate: Ramp-up periods; washout before measurement; report by time-since-exposure.

3) Exposure and Logging Bias
- Viewability/eligibility bias: Logged “exposure” may include below-the-fold or <X ms on screen; eligibility rules depend on user features, confounding exposure with outcome.
  - Detect: Track viewability (on-screen duration, scroll depth) and eligibility predicates; compare exposed vs eligible-but-not-shown.
  - Mitigate: Define exposure as viewable; use inverse propensity scoring (IPS) or doubly robust (DR) estimators to adjust for exposure confounding.

- Ranking/personalization feedback loops: Exposure depends on prior clicks/conversions, creating popularity bias and self-selection.
  - Detect: Propensity score diagnostics; covariate balance between exposed and unexposed; off-policy evaluations.
  - Mitigate: Randomized logging or exploration; IPS/DR counterfactual estimation; slate-aware correction for position bias.

- Event loss and clock skew: Offline usage, crashes, or device clock errors drop/reorder events.
  - Detect: Sequence integrity checks; per-device loss rates; clock skew heuristics.
  - Mitigate: Server acknowledgment with retries; reorder by server receipt; impute or exclude with sensitivity bounds.

4) Click Data Bias
- Accidental or fraudulent clicks: Fat-finger taps, bots/test devices.
  - Detect: Dwell time distributions; improbable click sequences; device clusters with extreme CTR.
  - Mitigate: Minimum dwell-time filters; bot/test-device blacklists; dedup within short windows.

- Position and presentation bias: Higher positions get higher CTR independent of relevance.
  - Detect: CTR by position controlling for item; randomized position tests.
  - Mitigate: Position-normalized metrics; counterfactual correction; interleaving experiments.

5) Conversion Attribution Bias
- Window and cross-device bias: Different or insufficient attribution windows; conversions on another device/account.
  - Detect: Delay distribution for conversions; cross-device linkage success rate.
  - Mitigate: Consistent windows across arms; report curves by window lengths; probabilistic identity resolution with uncertainty; sensitivity analyses.

- Competing channels and last-touch skew: Other channels drive conversions misattributed to exposure.
  - Detect: Holdout/ghost ads; channel overlap analysis.
  - Mitigate: Incrementality tests (geo or user holdouts); multi-touch or position-based attribution; lift-based reporting.

6) Retention Measurement Bias
- Right-censoring and left-truncation: D1/D7 retention measured before full observation window is available; users who joined earlier differ from later joiners.
  - Detect: Censoring flags; retention curves by cohort start date.
  - Mitigate: Survival analysis (Kaplan–Meier, Cox); only include cohorts with full windows; report time-to-churn distributions.

- Calendar vs relative-day bias: Time zones and daylight saving cause misalignment of “day” boundaries.
  - Detect: Retention by timezone; discontinuities at DST.
  - Mitigate: Relative time since install; per-user local time normalization.

7) User Feedback Bias (ratings/reviews)
- Nonresponse and extremity bias: Feedback skewed to highly satisfied/dissatisfied users.
  - Detect: Response propensity models; compare responders vs non-responders on covariates.
  - Mitigate: Weight by inverse response propensity; random prompts; calibrate with follow-up surveys.

- Language and model bias: Sentiment/NLP models trained on different domain/language; moderation removes specific content types.
  - Detect: Performance by language/locale; manual audits; confusion analysis.
  - Mitigate: Domain adaptation; multilingual models; include moderation flags as covariates.

- Prompting/context bias: When/how the app asks for feedback influences ratings.
  - Detect: Rating distributions by prompt timing/context.
  - Mitigate: Randomize prompt timing; control for prompt covariates.

8) Data Processing and Identity Bias
- Duplicate or fragmented identities: Cross-device fragmentation or ID resets inflating users; merges may conflate distinct users.
  - Detect: Identity resolution QA; improbable multi-geo/device patterns.
  - Mitigate: Stable user keys; conservative linkage; report per-device and per-user metrics.

- Test/QA traffic contamination and bots: Internal users, scripted tests.
  - Detect: Known test accounts, IP ranges, device models; anomalous patterns.
  - Mitigate: Exclude via allow/deny lists.

- Missingness not at random (MNAR): Crashes/log loss more common on certain devices/versions.
  - Detect: Missingness models conditional on device/OS.
  - Mitigate: Include missingness indicators; multiple imputation; bounding analyses.

9) Confounding and Reporting Bias
- Simpson’s paradox: Pooled effects mask opposite trends in subgroups (e.g., OS, country).
  - Detect: Stratified and hierarchical reporting; interaction tests.
  - Mitigate: Pre-registered stratifications; multilevel models.

- Metric definition drift: Changes in exposure definition, event taxonomy, or event versioning mid-test.
  - Detect: Event schema/version fields; step changes in time series.
  - Mitigate: Version-lock metrics; backfills or split reporting pre/post change.

10) Privacy and Policy-Induced Bias
- Consent/ATT/limited ad tracking: Opt-outs under-represent privacy-sensitive users.
  - Detect: Opt-out rates by segment; covariate differences.
  - Mitigate: Include consent as a covariate; report separate metrics; do-not-infer policies.

- Aggregation and noise: Thresholding or differential privacy in small cells distorts subgroup metrics.
  - Detect: Instability in small cohorts; bias in low-count segments.
  - Mitigate: Minimum cell sizes; shrinkage estimators; disclose noise parameters.

Recommended checks and controls
- Pre-analysis
  - Define stable keys, event schemas, time zones, and windows.
  - Power and SRM checks; preregister primary/secondary metrics and stratifications.

- Balance and integrity
  - Covariate balance (SMD) between groups; event sequencing validation; loss-rate dashboards by device/OS/version.

- Causal adjustments
  - Propensity score modeling for exposure; IPS/DR for click/conversion; cluster-robust SEs when randomizing at user/account.

- Time-to-event methods
  - Kaplan–Meier curves and Cox models for retention and delayed conversions; report censoring rates.

- Sensitivity analyses
  - Vary attribution and retention windows; exclude high-loss devices; with/without propensity weights; per-segment reporting to probe Simpson’s paradox.

- Feedback calibration
  - Response propensity weighting; language-aware sentiment validation; separate reporting for prompted vs unprompted feedback.

- Documentation
  - Maintain a data card: population, inclusion/exclusion, logging loss, schema versions, known biases, and mitigations. Provide reproducible code for all diagnostics above.

Applying these practices will surface and mitigate the most common biases in internal app test logs spanning segmentation, exposure, click, conversion, retention, and user feedback, enabling more reliable inference and model training.

示例3

Voici les biais potentiels à considérer dans ce jeu de données de recrutement (variables: sexe, âge, niveau d’études, région, score d’entretien, décision d’embauche), ainsi que les signaux et tests pour les mettre en évidence.

1) Biais de sélection et de représentation
- Couverture incomplète du pipeline: si seules les personnes interviewées figurent dans les données, les biais en amont (criblage CV, recommandations, tests en ligne) sont invisibles. La population observée peut déjà être biaisée.
- Sous-représentation de groupes: distribution déséquilibrée par sexe, âge, région, ou combinaisons (intersectionnalité, ex. femmes 50+ dans certaines régions).
- Biais géographique: sur- ou sous-échantillonnage de régions, ou différences structurelles (marché de l’emploi, concurrence) confondues avec l’attribut protégé.

Signaux/tests:
- Profils démographiques par étape du funnel si disponible; sinon, comparer la composition des interviewés à celle du vivier attendu.
- Chi-deux/Fisher sur distributions catégorielles; tests de proportion et intervalles de confiance sur taux d’accès à l’entretien et d’embauche.
- Analyse d’intersectionnalité et effets région × sexe/âge.

2) Biais de mesure (score d’entretien)
- Subjectivité et hétérogénéité des évaluateurs: grilles non standardisées, tolérances variables par région/manager.
- Effets d’ancrage/stéréotypes: distributions de scores décalées par sexe/âge, ou variances différentes (sévérité plus élevée pour certains groupes).

Signaux/tests:
- Comparaison des distributions de score par groupe (Mann-Whitney, KS, Levene pour l’homogénéité des variances).
- Fiabilité inter-évaluateurs: kappa de Cohen/ICC si identifiant évaluateur disponible.
- Effets aléatoires par évaluateur/région: modèles mixtes pour séparer variance « évaluateur » de l’effet groupe.

3) Biais de label (décision d’embauche)
- La décision reflète des préférences historiques potentiellement discriminatoires; la traiter comme “vérité terrain” introduit un biais systémique.
- Règles de décision implicites différenciées: seuils de score d’entretien différents selon les groupes.

Signaux/tests:
- Taux d’embauche par groupe et ratio d’impact disparate (règle des 80%).
- Courbes ROC/PR par groupe; estimation de seuils implicites (probabilité d’embauche en fonction du score) et comparaison des points d’inflexion.
- Modèle logistique décision ~ score + études + région + sexe + âge + interactions; effet résiduel significatif de sexe/âge (après contrôle) suggère un traitement différencié ou variables omises critiques.

4) Biais de confondants et variables proxy
- Région et niveau d’études peuvent être des proxys de facteurs socioéconomiques ou d’appartenance ethno-culturelle non observés.
- Omission de variables pertinentes (expérience, poste, compétences) induit un biais de confusion attribué à tort au sexe/âge.

Signaux/tests:
- Sensibilité des coefficients de sexe/âge aux spécifications (avec/sans contrôles; effets fixes région).
- Décomposition Oaxaca-Blinder pour distinguer composante “caractéristiques” vs “traitement”.
- Graphes causaux et ajustement par score de propension (apparier des candidats comparables sur score/études/région et tester l’écart d’embauche résiduel par sexe/âge).

5) Biais temporel et de cohorte
- Changements de politique ou de marché dans le temps; saisonnalité; effets de cohorte d’âge.

Signaux/tests:
- Tendance des taux d’embauche par groupe au fil du temps; détection de ruptures (CUSUM, Bai-Perron).
- Interactions groupe × période.

6) Biais liés aux données manquantes
- Scores ou décisions manquants non aléatoirement (MNAR), plus fréquents dans certains groupes ou régions.

Signaux/tests:
- Modéliser la probabilité de manquant ~ groupe (logistique); test de Little (MCAR).
- Comparer performances et décisions conditionnellement à la complétude.

7) Biais d’intersectionnalité et paradoxes d’agrégation
- Effets combinés (ex. femmes seniors dans une région spécifique) masqués aux niveaux agrégés.
- Paradoxe de Simpson: tendances inversées après stratification par région ou niveau d’études.

Signaux/tests:
- Analyses stratifiées et interactions croisées (sexe × âge × région × études).
- Visualisations conditionnelles (densités conditionnelles, heatmaps taux d’embauche).

8) Boucles de rétroaction et dépendances structurelles
- Pratiques passées influençant les scores/embauches actuelles (ex. préférences d’un manager), créant un renforcement des biais.
- Répétitions de candidatures: survivorship bias.

Signaux/tests:
- Effets aléatoires hiérarchiques (manager/équipe/poste).
- Détection de candidats répétés et de dépendances temporelles.

Métriques de fairness à privilégier
- Parité démographique: différence/ratio de taux d’embauche; règle des 80%.
- Parité d’opportunité/Equalized odds: TPR/FPR par groupe en fixant un seuil de score; Average odds difference.
- Calibration par groupe: courbes fiabilité P(embauche|score) vs score; Brier par groupe.
- Predictive parity: PPV/NPV par groupe conditionnellement au score.

Visualisations utiles
- Barres des taux d’embauche par groupe et par région; funnel par groupe.
- Courbes logit P(embauche) vs score par groupe avec bandes de confiance.
- Distributions et quantiles de scores par groupe; écarts de seuil implicite.
- Effets marginaux/SHAP par groupe si un modèle prédictif est entraîné.

Données complémentaires souhaitables pour réduire l’ambiguïté
- Expérience, famille de poste, compétences, identifiant évaluateur, étape du pipeline, date, canal de candidature.
- Définition normalisée du niveau d’études; codage inclusif du genre; granularité régionale cohérente.

Conclusion opérationnelle
- Ce jeu de données est exposé à des biais de sélection, de mesure (scores), et de label (décisions), susceptibles d’induire disparités par sexe/âge et leurs intersections, modulées par région et niveau d’études. Une évaluation rigoureuse doit combiner:
  - audit de représentation et de manquants,
  - tests de disparités et de seuils,
  - modèles ajustés (effets fixes/randomeffects) et analyses causales (appariement, Oaxaca-Blinder),
  - métriques de fairness multi-axes et calibration par groupe.
Sans ces contrôles, toute modélisation prédictive risquera de perpétuer les biais historiques.

适用用户

数据科学家与机器学习工程师

在建模前快速检视训练数据偏差,生成修复计划,比较线上线下分布,制定再采样与特征优化策略。

产品经理与运营负责人

上线前评估用户群体覆盖与风险点,识别被忽略人群,产出可读报告,保障核心指标稳定与增长。

风险与合规专员

面向公平性与合规审查生成证据清单,评估偏差对不同群体的影响,制定整改方案并留痕备查。

市场洞察与分析人员

发现采样在地域与渠道上的偏差,优化投放与抽样策略,提高转化与预算使用效率。

客服与质量团队

通过偏差清单定位用户问题来源,反馈数据缺口,完善FAQ与流程,降低投诉与重复工单。

教研与学术研究者

在研究数据集上识别选择性偏差与标签问题,提升研究结论可信度,并附可复现实验建议。

解决的问题

用最少时间发现最大风险:让 AI 以“数据偏差审计官”的身份,面向任何数据集快速产出《数据偏差清单+证据+修复建议》,帮助团队在上线前完成数据体检、降低模型偏差、满足合规与品牌要求。 - 适用场景:模型训练前审查、推荐/广告投放前质检、A/B 测试复盘、用户画像公平性评估、数据供应商验收。 - 交付成果:结构化报告(偏差类型、受影响人群/字段、潜在影响、优先级、行动项、所需补充数据)+ 可复现检查步骤,便于与产品、技术、合规、运营协作。 - 核心价值:把“找问题”的时间从数天缩短到数分钟,避免偏差引发的决策失准、预算浪费与舆情风险,稳住转化与口碑。

特征总结

一键生成数据偏差清单,自动识别采样、标签、时序等问题,并标注可能影响的业务指标。
轻松定位偏差来源,给出可执行修正路径,如重采样、补充样本、调整分布与阈值,快速见效。
针对不同场景生成可读报告,支持多语言输出,便于跨团队沟通与审计留存,减少反复对齐成本。
自动对比训练集与线上数据,提示分布漂移与新类出现,提前预防模型失效与效果下滑。
按目标人群、渠道与地域拆解偏差,帮助公平性改进与合规评估,让优化更贴近真实用户。
结构化呈现疑似问题与证据,附优先级与影响评估,助力关键决策与资源投入更有依据。
提供可复用检查模板,可按业务参数灵活调用,持续迭代数据质量与模型表现。
将复杂结论转为行动清单,明确负责人与时间窗,推动偏差修复落地并追踪改进结果。
为AB测试与上线前评审提供预警,避免数据失衡导致转化率下降或投诉增加。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

¥20.00元
平台提供免费试用机制,
确保效果符合预期,再付费购买!

您购买后可以获得什么

获得完整提示词模板
- 共 261 tokens
- 2 个可调节参数
{ 简述数据集 } { 输出语言 }
自动加入"我的提示词库"
- 获得提示词优化器支持
- 版本化管理支持
获得社区共享的应用案例
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59