数据规范化规则编写

186 浏览
15 试用
3 购买
Sep 26, 2025更新

生成表中特定列的数据规范化规则,提供技术性解决方案。

以下为 orders 表列 order_date 的数据规范化规则。目标是确保该字段在不同来源、时区和格式下被一致地解析、转换并存储为标准业务日期,以支持分区、聚合及报表一致性。

一、语义定义

  • 含义:order_date 表示订单的业务日期,即订单在销售渠道所在业务时区的日历日期(不含时间)。
  • 来源优先级:若存在多个时间字段,取 created_at(或订单创建时间)为主;次选为 checkout_completed_at 或 paid_at。具体字段映射需在源系统字典中明确定义。
  • 业务时区:以订单所属店铺或销售渠道的 IANA 时区作为业务时区(例如 "America/Los_Angeles")。业务时区应由维表(如 dim_store 或 dim_channel)提供,并支持历史变更的生效区间(SCD)。

二、数据类型与存储标准

  • 数据类型:DATE(不含时间与时区)。
  • 存储格式:仓库内使用原生 DATE 类型;对外交换采用 ISO 8601 字符串 "YYYY-MM-DD"。
  • 分区策略:建议以 order_date 分区以优化查询与增量加载。

三、输入接受与解析规则

  • 可接受的原始输入:
    • 带时区的时间戳字符串(ISO 8601):"2025-09-26T23:15:00+09:00"、"2025-09-26T23:15:00Z"。
    • 不带时区的时间戳字符串:"2025-09-26 23:15:00"(需结合来源时区)。
    • 仅日期字符串:"2025-09-26"(优先直接视为业务日期)。
    • Epoch 时间:秒或毫秒(整数或字符串);通过阈值判断单位(≥10^12 视为毫秒)。
  • 字符串解析要求:
    • 支持分隔符 "-" 或 "/",月份与日期必须两位;年份必须四位。
    • 明确禁止模糊格式(如 "09/10/25" 未声明地区);遇到模糊格式需拒绝并入隔离区。
  • 时区识别优先级:
    1. 原始事件中显式提供的时区/偏移(offset)。
    2. 渠道或店铺时区(维表映射)。
    3. 若均缺失,则拒绝(不可默认为 UTC,避免跨日错误)。

四、归一化转换流程

  • 标准流程(伪代码):
    1. 确定 source_ts(时间戳)与 source_tz(来源时区)。
    2. 若仅为日期字符串,直接作为业务日期;完成校验后入库。
    3. 若为时间戳:
      • 使用 IANA 时区库将 source_ts 标准化为 ZonedDateTime(或等价对象)。
      • 转换到 business_tz(店铺/渠道时区),得到本地业务时间 local_dt。
      • 提取日期部分 date(local_dt) 作为 order_date。
  • DST 处理:
    • 使用 IANA 时区数据库进行转换,避免手工偏移。
    • 对于夏令时切换导致的本地时间重叠或缺失,库默认策略即可;结果以本地日历日期为准。
  • 边界与舍入:
    • 仅日期粒度;去除时间部分。
    • 不进行四舍五入;跨日界限以业务时区的 00:00 为准。

五、校验与约束

  • 非空约束:order_date 应非空。若无法确定,记录入隔离区并保留错误原因;不允许自动填充当前日期。
  • 合理范围:
    • 最小日期:配置化(默认 2000-01-01)。
    • 最大日期:不超过当前业务时区的 today + 2 天(考虑迟到数据与时差);超出则隔离。
  • 有效性校验:
    • 闰年与月份天数校验。
    • 日期合法性(无 2025-02-30 等)。
    • 与订单生命周期一致性:order_date 不得晚于 fulfilled_at 或 refunded_at(如有)超过合理阈值;异常标记。
  • 一致性校验:
    • 若同时存在 created_at 与 paid_at,order_date 与 created_at 的本地日期差异超过 2 天需告警。

六、异常与缺失处理

  • 缺失时区:
    • 若时间戳无时区且渠道时区不可获取:隔离并标记 reason=missing_timezone。
  • 仅日期输入:
    • 若来源仅提供日期(无时间),直接规范化为 DATE;无需时区转换。
  • 无法解析:
    • 无法解析的格式或非法日期进入隔离区;不作默认纠正。
  • 衍生策略(可选、需业务确认):
    • 若 created_at 缺失但 checkout_completed_at 存在,可按优先级派生;记录 lineage。

七、幂等性与可追溯性

  • 幂等:相同源记录在相同维表时区映射下重复处理应产生相同 order_date。
  • 维表变更:
    • 渠道/店铺时区变更需具备生效日期;重跑历史分区时基于变更生效区间重算。
  • 审计字段:
    • 建议记录 raw_ts、source_tz、business_tz、parse_status、error_code 以便回溯。

八、示例转换

  • 通用 SQL(PostgreSQL)示例(created_at 为 timestamptz,business_tz 来自维表):
    • SELECT (created_at AT TIME ZONE business_tz)::date AS order_date
  • BigQuery 示例:
    • SELECT DATE(DATETIME(created_at, business_tz)) AS order_date
  • Spark(Scala/PySpark)示例(使用 IANA 时区):
    • withColumn("order_date", to_date(from_utc_timestamp(col("created_at_utc"), col("business_tz"))))

九、数据质量监控

  • 指标:
    • 解析失败率、缺失时区比例、未来日期比例、跨日异常比例。
  • 规则执行点:
    • 在入湖/入仓前的标准化层(Staging→Curated)。
  • 处置策略:
    • 隔离表 orders_quarantine,含原始值与错误原因;定期修复回填。

十、输出标准

  • 最终存储:orders.order_date 为 DATE,满足上述语义与转换规则。
  • 对外接口或导出:使用 "YYYY-MM-DD" 字符串,明确时区不可用且不需要。

以下为表 kpi_daily 的列 amount 的数据规范化规则,以确保跨源数据一致、可比和可审计。规则适用于货币型、比例型及其他数值型 KPI。

一、字段定义与目标标准

  • 语义:amount 表示每日 KPI 的数值结果,支持货币金额、比例(比率/百分比)及其他计数/度量型数值。
  • 数据类型:DECIMAL/NUMERIC,建议精度 scale 6(例如 DECIMAL(20,6)),禁止使用浮点类型(FLOAT/DOUBLE)。
  • 存储单位归一:
    • 货币型:统一存储为人民币 CNY,单位“元”。
    • 比例型:统一存储为[0,1]区间的实数(即 12.34% 存 0.1234)。
    • 非货币数值型:统一存储为业务定义的基础单位(如“次”“件”“人”“秒”等),在入库前完成单位换算。

二、输入清洗与标准化流程

  1. 原始值解析

    • 去除空白、千分位分隔符(如“,”)、货币符号(如“$”“¥”“USD”)、百分号“%”。
    • 识别负值:支持符号“−”和括号记负(如“(123.45)”→ -123.45)。
    • 非数值字符(除上面合法符号外)视为不可解析,记录错误并拒绝入库。
  2. 货币换算

    • 若原始币种非 CNY,按入库日期的指定汇率版本进行换算:amount_cny = amount_src × fx_rate(src→CNY, rate_date, version)。
    • 汇率来源与版本必须可追溯(例如 fx_rates 表含 source、version、effective_date)。
    • 汇率精度:至少 DECIMAL(20,10),换算后在最终入库时统一为 DECIMAL(20,6)。
    • 汇率选择:每日收盘或固定时点(建议 Asia/Shanghai 当日 23:59 的官方中间价),必须与 kpi_daily 的统计日一致。
  3. 比例/百分数处理

    • 解析到小数形式:输入“12.34%”→ 0.1234;“0.1234”视为 12.34%。
    • 禁止将比例以“百分值”存储(如 12.34);统一为小数 0.1234。
  4. 单位换算(非货币类)

    • 所有输入数据在入库前转换到业务定义的唯一基础单位;换算系数来源需可追溯(如 unit_conversion 表)。
    • 禁止入库时混存不同单位导致不可比。
  5. 聚合与去重

    • 对同一主键维度(例如 kpi_id, stat_date, 其他维度键)进行幂等聚合:
      • 加性度量(如金额、数量):SUM。
      • Snapshot/库存类度量:选择最后快照或业务定义的聚合(如 MAX/MIN),不得使用 SUM。
    • 重复记录在入库阶段需按度量类型规则去重聚合,避免行级重复导致指标膨胀。
  6. 舍入与精度

    • 计算链路中保持高精度(≥6 位小数),仅在最终入库时统一舍入为 scale=6。
    • 舍入模式:四舍五入(HALF_UP)。货币型对外展示可再格式化为两位小数,但表内仍存 6 位以保留可审计性。
    • 禁止在中间步骤重复舍入,避免累计误差。

三、取值规则与边界

  • 合法范围:
    • 货币型:建议 [-1e12, 1e12](根据业务上限可调整)。
    • 比例型:必须在 [0,1];超出则拒绝并告警。
    • 非货币型:不得为 NaN/Inf;上限按业务维度设定并校验(如数量不超过 1e12)。
  • 负值处理:
    • 允许负值仅限调整/退款/冲销类 KPI;加性非负 KPI(如“新增用户数”)禁止负值。
    • 需基于 KPI 元数据(kpi_type)进行校验:non_negative=true 时,amount < 0 直接拒绝。
  • 缺失值:
    • 区分缺失与零:未知或不可计算时存 NULL,业务定义为 0 的才存 0。
    • 禁止以 0 替代缺失,避免统计偏差。

四、时间与口径

  • 统计日边界:统一采用 Asia/Shanghai 时区的自然日 [00:00, 23:59:59]。
  • 口径一致性:入库口径(含去重、汇率版本、单位换算规则)需与当日统计口径一致,禁止跨日混用。
  • 回补与重算:回补历史数据时,使用对应历史日的汇率版本和单位规则,确保可重现性。

五、校验与拒绝策略

  • 语法校验:不可解析的数值直接拒绝入库,记录错误码 invalid_number_format。
  • 业务校验:
    • 比例型超界(<0 或 >1)拒绝,错误码 ratio_out_of_range。
    • 非负 KPI 出现负值拒绝,错误码 negative_not_allowed。
    • 极值/异常波动:与近 7 日中位数相比偏差 >10 倍标记异常(quality_flag=outlier),可入库但需告警。
  • 一致性校验:币种缺失且金额含币种符号不一致时拒绝(currency_inconsistent)。

六、示例约束与参考实现

  1. 数据库约束(PostgreSQL 示例)
  • 列类型: ALTER TABLE kpi_daily ALTER COLUMN amount TYPE NUMERIC(20,6);

  • 合法范围检查(示例值,可按业务调整): ALTER TABLE kpi_daily ADD CONSTRAINT chk_amount_range CHECK (amount IS NULL OR amount BETWEEN -1000000000000 AND 1000000000000);

  • 比例型检查建议通过触发器/ETL校验(因同列存多类型不便用静态 CHECK),依据 kpi_type 元数据执行。

  1. 规范化 UDF(Spark SQL/PySpark 参考)
  • Python 伪实现(用于 ETL 前置清洗与规范化): from decimal import Decimal, ROUND_HALF_UP

    def normalize_amount(raw_value: str, value_kind: str, # 'currency' | 'ratio' | 'count' currency: str = 'CNY', # 原始币种 fx_rate: Decimal = Decimal('1'), # src->CNY 当日汇率 unit_factor: Decimal = Decimal('1')) -> Decimal: if raw_value is None or str(raw_value).strip() == '': return None

    s = str(raw_value).strip()
    # 括号记负
    negative = s.startswith('(') and s.endswith(')')
    s = s.replace('(', '').replace(')', '')
    
    # 去符号与分隔
    for ch in [',', '¥', '$', 'USD', 'CNY', 'EUR', ' ']:
        s = s.replace(ch, '')
    percent = s.endswith('%')
    if percent:
        s = s[:-1]
    
    # 解析数值
    try:
        v = Decimal(s)
    except:
        raise ValueError('invalid_number_format')
    
    if negative:
        v = -v
    
    if value_kind == 'ratio':
        # 百分号输入转小数
        v = v / Decimal('100') if percent else v
        if v < Decimal('0') or v > Decimal('1'):
            raise ValueError('ratio_out_of_range')
    elif value_kind == 'currency':
        # 汇率换算到 CNY
        v = (v * fx_rate)
    elif value_kind == 'count':
        # 单位换算
        v = (v * unit_factor)
    else:
        raise ValueError('unsupported_value_kind')
    
    # 最终入库舍入到 6 位
    return v.quantize(Decimal('0.000001'), rounding=ROUND_HALF_UP)
    

七、审计与溯源

  • 记录来源系统、原始值、解析前后值、币种、汇率版本、单位换算版本、规范化时间与作业 ID,保证可重现。
  • 对异常拒绝与告警保留错误码和样本,以便回溯修复。

八、实施注意事项

  • 要求配套的 KPI 元数据(kpi_type、allow_negative、is_ratio、unit_base 等)以驱动规则选择。
  • 在批处理与流式处理保持同一规范化逻辑与版本,确保口径一致。
  • 对历史数据重算需冻结汇率与单位版本,避免随时间变动导致口径漂移。

以上规则旨在为 amount 列提供统一、可审计、可重现的规范化标准。根据具体 KPI 类型与业务边界可进一步细化数值范围与异常检测阈值。

以下为 dim_cust.cust_name 的数据规范化规则。目标是实现一致、可比、可检索的客户名称表示,用于维度建模和主数据管理,同时尽量保留对业务识别有意义的信息。

一、适用范围与目标

  • 适用对象:个人客户姓名、企业/机构名称。
  • 目标:消除编码差异、空白与标点噪声、大小写差异、常见称谓与冗余信息,统一合法实体后缀,提高匹配与去重效果。
  • 原始值建议保留至原始字段(如 src_cust_name),cust_name 存储规范化后的显示名。

二、字段约束

  • 编码与标准:UTF-8;Unicode 归一化:NFKC。
  • 长度:1–200 字符(超过则截断并记录审计日志)。
  • 允许字符集合:
    • 字母类:Unicode Letter 类(L*,含中日韩)。
    • 数字类:Nd。
    • 空白:空格(统一为 ASCII 空格)。
    • 标点:- ' & . , ( ) / · 以及中文对应全角标点(规范化后保留为半角)。
  • 禁止字符:控制符、表情符号/图标(Emoji、Symbol)、不可见分隔符(零宽字符)。统一移除。
  • 非空性:cust_name 不可为 NULL;空或全被清洗后为空时,设为 "UNKNOWN" 并标记数据质量标志。

三、通用规范化步骤(顺序执行)

  1. 编码与归一化
  • 统一为 UTF-8。
  • Unicode 归一化 NFKC(统一全角/半角、兼容形式)。
  1. 空白与控制字符处理
  • 移除所有控制字符(\p{Cc}、\p{Cf})。
  • 将制表符、换行等空白统一为单个空格。
  • 去除首尾空格。
  • 折叠内部连续空格为单个空格。
  1. 标点统一
  • 中文全角标点统一为半角:,→ ,;( → (;) → );/ → /;—/-/–/— → -。
  • 去除重复标点与尾随标点(例如末尾的逗号、句号、括号未闭合的残留)。
  • 保留对识别有意义的分隔符:- ' & . , ( ) / ·。
  1. 数字与字母规范
  • 全角数字统一为半角数字 0–9。
  • 拉丁字母统一为大写(A–Z),消除大小写差异;若使用 Postgres,可使用 unaccent 去除拉丁变音符(É→E),提升匹配稳定性。
  1. 噪声词清洗(谨慎保留法律实体信息)
  • 个人称谓与礼貌用语:移除如 “先生/女士/小姐/太太/老师/博士/经理/总监/董事长/教授/同学/吾友”等位于首尾的称谓。
  • 联系信息与杂项:移除括注的联系人或电话,如 “(联系人:张三)”、“联系人:李四”、“Tel:…”。
  • 渠道/来源标记:移除明显的来源标签如 “[渠道]”、“<导入>” 等非名称内容。
  1. 特殊字符处理
  • 保留少数民族姓名中常见分隔点 “·”。
  • 移除 Emoji 和符号(例如 ✨, ™, ®),如确属品牌法律名称一部分需通过白名单保留。
  1. 语义修剪
  • 删除连续重复空格、重复的公司名片式前缀/后缀(如 “公司名称 公司名称”)。
  • 统一括号内容的空格与标点样式,例如 “(中国)”、“(上海)” 保留但标准化为半角括号。

四、企业/机构名称的附加规则

  • 法律实体后缀标准化(词典驱动):
    • “有限责任公司” → “有限公司”
    • “股份有限公司” → “股份有限公司”(保持不变)
    • “合伙企业(普通/有限)” → “合伙企业”
    • “个体工商户/个体独资企业” → “个体工商户”
    • “分公司/支公司/分店/分处”统一为“分公司”用于分支标识(位于名称末尾或括注中时)。
  • 同义词与英文缩写:
    • “Co., Ltd.”、“Limited”、“Ltd.” → “有限公司”
    • “Inc.” → “股份有限公司”(需结合法律登记数据确认;默认仅英译为“公司”,建议保留原文并在辅助字段存放中文标准化名)。
  • 地理/部门信息:
    • 位于括号或末尾的行政区域与部门标记可保留并标准化,如 “(上海)”、“上海分公司”;如影响主名匹配,另存至辅助字段(如 cust_branch)以便分层匹配。
  • 品牌与商号:
    • 当存在“品牌(法律主体)”结构,保留括号并统一样式:如 “小米(北京小米有限公司)”。

五、个人姓名的附加规则

  • 统一少数民族姓名分隔点:多重分隔点折叠为一个 “·”。
  • 仅移除称谓,不改动中文姓名结构;不做姓氏/名字的自动拆分。
  • 拉丁姓名统一为大写并保留连字符与撇号(如 O'NEIL、ANNE-MARIE)。

六、质量校验与拒收规则

  • 最终长度在 1–200;否则截断并记录审计。
  • 仅由噪声被清空后为空则设为 “UNKNOWN” 并写入数据质量标志 dq_cust_name_empty = true。
  • 禁止字符检测(Emoji、控制符)计数 >0 时写入数据质量标志 dq_cust_name_illegal = true。
  • 若企业名称包含合法实体后缀但被清洗掉,回滚至清洗前并记录异常,防止法律主体信息丢失。

七、实现建议与示例

PySpark(推荐在 ETL 规范化阶段执行)

  • 依赖:python unicodedata、正则、可选 unidecode 或自定义变音符映射。
  • 词典:LEGAL_SUFFIX_MAP、TITLES_SET。

示例代码(精简版):

  • 该代码仅示意关键步骤,企业后缀与称谓词典需根据业务维护。

from pyspark.sql import functions as F from pyspark.sql.types import StringType import re, unicodedata

TITLES = {"先生","女士","小姐","太太","老师","博士","经理","总监","董事长","教授","同学"} LEGAL_SUFFIX_MAP = { "有限责任公司": "有限公司", "Co., Ltd.": "有限公司", "Ltd.": "有限公司", "Limited": "有限公司", "Inc.": "公司" # 如需更严格,保留原文并在辅助字段映射 }

def normalize_text(s): if s is None: return None # Unicode 归一化 s = unicodedata.normalize("NFKC", s) # 去控制字符与零宽 s = re.sub(r'[\u200B-\u200D\uFEFF]', '', s) # 零宽 s = ''.join(ch for ch in s if unicodedata.category(ch)[0] != 'C') # 空白统一 s = re.sub(r'\s+', ' ', s).strip() # 标点全角转半角与标准化 trans = str.maketrans({'(':'(', ')':')', ',':',', '/':'/', '-':'-', '—':'-', '–':'-'}) s = s.translate(trans) # 尾随标点去除 s = re.sub(r'[.,-&/]+$', '', s).strip() # 拉丁字母大写 s = re.sub(r'([A-Za-z])', lambda m: m.group(1).upper(), s) # 去除联系人等噪声 s = re.sub(r'((联系人|TEL|PHONE)[^)]*)', '', s, flags=re.I).strip() # 称谓清洗(首尾) for t in TITLES: s = re.sub(fr'^(?:{t})\s+', '', s) s = re.sub(fr'\s+{t}$', '', s) # 折叠多空格 s = re.sub(r'\s{2,}', ' ', s) return s or "UNKNOWN"

def normalize_enterprise(s): s = normalize_text(s) if s in (None, "UNKNOWN"): return s # 后缀映射(词典驱动) for k, v in LEGAL_SUFFIX_MAP.items(): s = re.sub(fr'{re.escape(k)}$', v, s, flags=re.I) # “分公司/支公司/分店/分处”统一(位于末尾或括注中) s = re.sub(r'(分公司|支公司|分店|分处)$', '分公司', s) s = re.sub(r'((分公司|支公司|分店|分处))', '(分公司)', s) # 再次清理空白 s = re.sub(r'\s{2,}', ' ', s).strip() return s or "UNKNOWN"

@F.udf(StringType()) def normalize_cust_name(name, cust_type): if cust_type and cust_type.lower() in ('enterprise','company','org','b2b'): return normalize_enterprise(name) return normalize_text(name)

df = df.withColumn("cust_name", normalize_cust_name(F.col("cust_name"), F.col("cust_type")))

SQL(PostgreSQL)要点

  • 使用 trim、regexp_replace 处理空白与噪声。
  • 使用 unaccent 扩展去除拉丁变音符。
  • Unicode NFKC 需在应用层实现或通过外部函数;Postgres 原生不提供。

示例(简化): -- 需先 CREATE EXTENSION unaccent; UPDATE dim_cust SET cust_name = COALESCE(NULLIF( regexp_replace( -- 多空白折叠 regexp_replace( -- 去联系人噪声 regexp_replace( -- 全角标点到半角(示例) unaccent(trim(cust_name)), '(','('), ')', ')' ), '((联系人|TEL|PHONE)[^)]+)','' ), '\s+',' ' ), ''), 'UNKNOWN');

八、运维与治理

  • 建立可维护的词典(称谓、法律实体后缀、英文缩写)与白名单/黑名单。
  • 版本化规则,变更需回溯与再处理能力。
  • 记录清洗审计(原值、规则版本、清洗后值、原因标签)。
  • 与工商/官方注册数据对齐时,以注册名称为最高优先级,规则仅做格式规范,不改变法律主体语义。

以上规则旨在在不丢失法律与业务识别信息的前提下,实现 cust_name 的一致化与可比性。建议在管道的标准化层统一执行,并保留原始值以支持追溯与精确匹配。

示例详情

解决的问题

通过一条可复用的高效提示词,快速为“指定表-指定列”生成清晰、可落地的数据规范化规则:1)把零散命名、格式不统一、异常值等,转化为可执行的清洗标准;2)让非技术成员也能与“内置数据工程师”协作,缩短数据整理周期;3)支持多语言输出,帮助全球团队统一口径;4)可迭代复用,沉淀企业级字段标准,提升报表与分析的准确度;5)以更低成本替代大规模手工清洗,推动数据产品、BI与增长项目更快上线。

适用用户

数据工程师

为指定表列快速生成规范化规则,统一日期、数值、文本格式,缩短清洗与上线时间。

数据分析师

在数据接入前先约定字段标准,提升报表准确率,减少手工修正与重复校验。

数据治理负责人

建立可审阅的规则文档与示例,推动部门统一标准,降低合规风险和数据口径分歧。

特征总结

即输表名与列名,轻松生成可执行的规范化规则,快速解决命名、日期、数值等常见混乱。
一键输出结构清晰的规则说明与示例,便于团队统一执行、落地到日常数据整理流程。
自动识别上下文需求,给出适配不同业务场景的规范建议,减少反复沟通与规则争议。
可按语言切换输出内容,支持中文、英文等团队协作场景,推进跨部门规范统一。
提供可复制的校验步骤与异常处理建议,帮助你快速发现脏数据并制定修复路径。
模板化参数输入,按需定制规则颗粒度与覆盖范围,兼顾灵活性与可落地性。
内置专业写作风格,输出严谨、易读、结构化的说明文档,直接用于评审与培训。
支持多行业字段场景,如商品编码、客户信息、时间记录等,快速形成可复用的最佳实践。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

AI 提示词价格
¥15.00元
先用后买,用好了再付款,超安全!

您购买后可以获得什么

获得完整提示词模板
- 共 246 tokens
- 3 个可调节参数
{ 列名 } { 表名 } { 输出语言 }
获得社区贡献内容的使用权
- 精选社区优质案例,助您快速上手提示词
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59