×
¥
查看详情
🔥 会员专享 文生文 数据处理

数据转换步骤说明

👁️ 391 次查看
📅 Oct 16, 2025
💡 核心价值: 提供清晰准确的数据转换步骤,适用于技术写作风格。

🎯 可自定义参数(3个)

源数据格式
输入源数据的格式。例如:CSV。
目标数据格式
目标数据的格式。例如:JSON。
输出语言
指定输出的语言。例如:中文。

🎨 效果示例

以下为将数据从 CSV 转换为 Parquet 的标准化步骤与示例。内容涵盖前期勘探、模式设计、预处理、写出与验证,并提供多种实现方案(PyArrow、Spark、DuckDB),以保证在不同规模与场景下的准确与高效。

一、前期勘探(源CSV)

  • 确认文件属性:
    • 字符编码:推荐统一为 UTF-8(处理 BOM)。
    • 分隔符与引号:如逗号、制表符,quote 与 escape 字符;是否包含多行字段(multi-line)。
    • 标题行:是否存在 header,列名是否唯一、是否含空格或特殊字符。
    • 缺失值标记:空字符串、NA、NULL、N/A 等。
  • 数据类型线索:
    • 数值列是否含千分位或区域性格式(例如“1,234.56”)。
    • 日期时间格式与时区(ISO8601、yyyy-MM-dd、带偏移等)。
    • 金额或高精度数值列是否需要定点小数(Decimal)。
  • 规模与资源:
    • 文件大小与行数,是否需要分块(chunk/streaming)读取来降低内存压力。

二、目标 Parquet 模式与存储策略

  • 列类型映射(尽量显式定义,避免自动推断误差):
    • 整数:int32/int64;若需保留空值,使用支持空值的类型(如 pandas 的 Nullable Int 类型)。
    • 浮点:float32/float64;对金额建议使用 Decimal(precision, scale) 而非浮点。
    • 布尔:boolean;注意 CSV 中的“true/false/0/1/是/否”等归一化。
    • 字符串:utf8;必要时分类编码(dictionary)以提升压缩比。
    • 日期时间:date32、timestamp(ms/us, tz);保持单位与时区一致。
  • 压缩与编码:
    • 压缩:优先使用 Snappy(平衡速度与体积)或 ZSTD(更高压缩比,适度增加CPU)。
    • 字典编码:对低基数字符串启用字典(提升压缩与扫描性能)。
  • 分区与文件切分:
    • 分区列:如 dt(日期)、region 等,便于下游分区裁剪(partition pruning)。
    • 目标文件大小:建议 128MB–512MB(大数据场景更高效)。
    • 行组(row group)大小:适度设置以平衡 IO 与并行度。

三、数据预处理

  • 列名标准化:去除前后空格,替换非法字符,处理重复列名。
  • 值清洗与类型转换:
    • 统一缺失值标记为 NA/None。
    • 去除千分位与本地化格式,标准化小数点。
    • 解析日期时间并对齐时区。
  • 质量检查:
    • 基本统计:行数、空值比例、取值范围、唯一值计数等。
    • 规则校验:ID 唯一性、金额非负等业务约束。

四、实现方法与示例

方法A:Python + PyArrow(适合本地或中小规模数据,支持流式写出)

  • 依赖安装:pip install pyarrow
  • 读取与写出(一次性读入):
    • 示例(明确类型、压缩、字典编码): import pyarrow as pa import pyarrow.csv as csv import pyarrow.parquet as pq

      read_options = csv.ReadOptions() # 可设置 block_size 等 parse_options = csv.ParseOptions(delimiter=',', quote_char='"', escaping=True, newlines_in_values=True) convert_options = csv.ConvertOptions(column_types={ 'id': pa.int64(), 'ts': pa.timestamp('ms', tz='UTC'), 'amount': pa.decimal128(18, 2), 'dt': pa.string() }, strings_can_be_null=True)

      table = csv.read_csv('input.csv', read_options=read_options, parse_options=parse_options, convert_options=convert_options) pq.write_table(table, 'output.parquet', compression='zstd', use_dictionary=True, write_statistics=True)

  • 流式写出(大文件,降低内存占用): reader = csv.open_csv('input.csv', read_options=read_options, parse_options=parse_options, convert_options=convert_options) import pyarrow.parquet as pq with pq.ParquetWriter('output.parquet', reader.schema, compression='zstd', use_dictionary=True) as writer: for batch in reader: writer.write_batch(batch)
  • 分区写出(数据集目录结构):
    • 使用 pyarrow.dataset.write_dataset(table, base_dir='parquet_dataset', format='parquet', partitioning=['dt'])
    • 注意:根据 PyArrow 版本选择适当的 partitioning API,确保分区列在 schema 中。

方法B:Apache Spark(适合超大规模、分布式场景)

  • 明确 schema,禁用或减少自动推断: from pyspark.sql.types import StructType, StructField, LongType, TimestampType, DecimalType, StringType

    schema = StructType([ StructField('id', LongType(), True), StructField('ts', TimestampType(), True), StructField('amount', DecimalType(18, 2), True), StructField('dt', StringType(), True), ])

    df = (spark.read .option('header', True) .option('multiLine', True) .option('escape', '\') .option('quote', '"') .option('delimiter', ',') .schema(schema) .csv('input.csv'))

    spark.conf.set('spark.sql.parquet.compression.codec', 'zstd')

    (df .repartition('dt') # 按分区列重分区以均衡输出 .write .mode('overwrite') .partitionBy('dt') .parquet('parquet_dataset'))

  • 注意事项:

    • 若 CSV 包含本地化数字或复杂清洗逻辑,先在 DataFrame 中进行清洗再写出。
    • 通过 checkpoint 或 cache 控制血缘与内存使用。

方法C:DuckDB(轻量、快速、易用;本地批处理很高效)

  • 单文件写出: COPY (SELECT CAST(id AS BIGINT), CAST(ts AS TIMESTAMP), CAST(amount AS DECIMAL(18,2)), dt FROM read_csv_auto('input.csv', header=True)) TO 'output.parquet' (FORMAT PARQUET, COMPRESSION ZSTD);
  • 分区写出(按 dt 分区): COPY (SELECT ... FROM read_csv_auto('input.csv', header=True)) TO 'parquet_dataset' (FORMAT PARQUET, COMPRESSION ZSTD, PARTITION_BY (dt));
  • 说明:
    • 可通过 SELECT 中的 CAST 明确类型,避免自动推断偏差。
    • 支持在 SQL 中进行数据清洗与校验。

五、验证与一致性检查

  • 基本一致性:
    • 行数对比:CSV 与 Parquet 读取后的行数一致。
    • 空值率与类型:检查列类型与空值分布是否与预期一致。
  • 统计校验:
    • 数值列的总和、最小值、最大值比对。
    • 随机抽样比对若干行的字段值。
  • 元数据检查:
    • 检查分区目录结构与分区字段取值。
    • 查看 Parquet 文件大小与行组信息(便于性能优化)。

六、性能与兼容性要点

  • 压缩选择:
    • Snappy:平衡速度与体积,广泛兼容。
    • ZSTD:更高压缩比,CPU占用略增;可调级别(一般 3–6 即可)。
  • 行组与文件大小:
    • 针对大数据平台,目标文件大小建议 128MB–512MB。
    • 行组大小影响并行度与扫描效率,可根据列宽与查询模式调整。
  • 时间戳与时区:
    • 使用统一的时间单位(ms 或 us)与时区;必要时在读取端显式转换。
    • 避免使用过时的 INT96 时间戳,除非特定旧系统要求。
  • 字典编码:
    • 低基数字符串列开启字典编码提升压缩与查询性能。
  • 兼容性:
    • 下游系统(Spark、Presto、Hive、Arrow)基本均支持标准 Parquet;若有老版本限制,按需调整时间戳或压缩编码。

七、常见问题与处理建议

  • 自动推断导致类型错误:显式指定 schema/column_types,避免字符串化或浮点化(尤其整数列因缺失值转为浮点)。
  • 本地化数值与日期解析失败:统一格式后再转换;对金额使用 Decimal。
  • 多行字段/转义问题:正确设置 CSV 解析参数(quote、escape、newlines_in_values)。
  • 字符编码不统一:转换为 UTF-8 并清理非法字节。
  • 超大文件内存瓶颈:使用流式/分块读取与写出(PyArrow Streaming、Spark 分布式、DuckDB 流式 SQL)。

通过以上步骤与实践,可在确保类型准确、压缩高效与分区合理的前提下,将 CSV 可靠地转换为 Parquet,满足大数据分析与下游挖掘任务的性能与兼容性要求。

以下为将数据从 XLSX 转换为 JSON 的可操作步骤与注意事项,面向数据挖掘场景,强调结构设计、数据清洗与可靠转换。

一、明确输出需求与JSON结构设计

  • 记录粒度:明确一行代表一个实体(例如“用户”、“订单”),或需拆分/聚合。
  • 主键与索引:选定可唯一标识记录的字段(如ID),是否需要作为字典键或仅保留为属性。
  • 结构形式:
    • 扁平对象数组(常用):[{"colA": "...", "colB": ...}, ...]
    • JSON Lines(大数据友好):每行一个JSON对象,便于流式处理和增量加载。
    • 多工作表:为每个工作表生成一个键(如{"Sheet1": [...], "Sheet2": [...]})。
    • 嵌套对象:若列表达层级关系(如user.name, user.email),需在转换时组装嵌套结构。
  • 字段命名规范:统一小写、下划线或驼峰,避免空格与特殊字符,确保数据管道可读性。

二、数据准备与清洗(在转换前完成)

  • 标题行识别:确认第一行是否为列名;若非,指定header位置或提供列名映射。
  • 类型控制:
    • ID/编码类:以字符串读取,保留前导零(如"00123")。
    • 日期时间:统一为ISO 8601(如"2023-07-21T10:15:00Z"),避免Excel序列号泄露。
    • 数值与货币:确认小数精度;百分比字段明确是否保留为小数(0.05)或转换为百分数(5)。
    • 布尔:将“是/否”“Y/N”等映射为 true/false。
  • 缺失值规范:统一映射为空值 null,避免混用空字符串/NaN。
  • 公式处理:将公式单元格转换为静态值,或确保工作簿重新计算并保存;否则可能读取到公式字符串或过期的缓存结果。
  • 合并单元格:合并区域仅在左上角存值;按业务需要进行前向填充(forward-fill)以补齐空单元格。
  • 空行/空列/隐藏行列:清理不用的行列;根据需求决定是否忽略隐藏内容。
  • 去重与一致性:按主键或关键字段去重;统一单位与编码(如货币单位、地域代码)。
  • 安全审查:剔除不必要的敏感字段,符合数据治理要求。

三、实现方法一:Python + pandas(适合中等规模文件)

  • 适用场景:单表或多表、数万到百万级行、内存可容纳。
  • 步骤与示例(单工作表,输出为数组JSON):
    1. 安装依赖:pip install pandas openpyxl
    2. 读取与类型控制:
      • 指定需要字符串读取的列,避免前导零丢失。
      • 指定需要解析为日期的列。
    3. 缺失值与格式处理:
      • 将NaN/空字符串统一为None,以在JSON中成为null。
      • 统一日期为ISO字符串。
    4. 导出为JSON。

示例代码(单表 -> records): import pandas as pd

xlsx_path = "data.xlsx" sheet = "Sheet1" # 或具体工作表名

需要以字符串读取的列

string_cols = ["id", "code"]

读取

df = pd.read_excel( xlsx_path, sheet_name=sheet, dtype={col: "string" for col in string_cols}, # 保留前导零 engine="openpyxl" )

可选:解析日期列(若Excel中为文本或数值)

df["date_col"] = pd.to_datetime(df["date_col"], errors="coerce")

处理缺失值为None(JSON中输出为null)

df = df.where(df.notnull(), None)

导出为UTF-8 JSON数组,日期用ISO格式

json_str = df.to_json(orient="records", force_ascii=False, date_format="iso") with open("data.json", "w", encoding="utf-8") as f: f.write(json_str)

  • 多工作表输出为字典: sheets = pd.read_excel(xlsx_path, sheet_name=None, engine="openpyxl") out = {} for name, df in sheets.items(): df = df.where(df.notnull(), None) out[name] = df.to_dict(orient="records")

import json with open("data_multi_sheets.json", "w", encoding="utf-8") as f: json.dump(out, f, ensure_ascii=False)

  • 嵌套结构(列名含.号生成子对象): def nest_record(rec): out = {} for k, v in rec.items(): if "." in k: p, c = k.split(".", 1) out.setdefault(p, {})[c] = v else: out[k] = v return out

records = [nest_record(r) for r in df.to_dict(orient="records")] with open("data_nested.json", "w", encoding="utf-8") as f: json.dump(records, f, ensure_ascii=False)

四、实现方法二:流式转换(适合超大文件,避免内存占用)

  • 适用场景:数百万行以上或内存受限;生成JSON Lines便于管道处理。
  • 步骤:用openpyxl的只读模式逐行遍历,输出.ndjson/.jsonl。 示例代码(单表 -> JSON Lines): from openpyxl import load_workbook import json

wb = load_workbook("data.xlsx", read_only=True, data_only=True) ws = wb["Sheet1"]

rows = ws.iter_rows(values_only=True) headers = [cell for cell in next(rows)]

with open("data.jsonl", "w", encoding="utf-8") as f: for row in rows: obj = {} for h, v in zip(headers, row): # 空值规范化 if v == "" or v is None: obj[h] = None else: obj[h] = v f.write(json.dumps(obj, ensure_ascii=False) + "\n")

  • 注意:
    • data_only=True会读取公式的缓存结果;确保工作簿已保存且计算结果最新。
    • 合并单元格需自行补值(如对特定列执行前向填充)。
    • 日期类型如为datetime,将直接序列化为字符串;如需ISO规范,可统一格式化。

五、质量验证与审计

  • 结构与语法:
    • 使用jq或Python json模块验证:jq . data.json >/dev/null 或尝试json.loads逐条加载JSON Lines。
  • 完整性与一致性:
    • 记录数比对:Excel行数(剔除标题与空行)与JSON对象数一致。
    • 主键重复检查与缺失检查。
    • 类型抽样核对:日期、数值精度、布尔、前导零保持情况。
    • 特殊值与错误值:Excel中的错误(#N/A等)是否正确映射为null或标记。
  • 编码与国际化:
    • 确认为UTF-8输出;非ASCII字符完整无损。
  • 变更可追溯:
    • 保留转换日志:源文件名、工作表、行计数、清洗规则、时间戳。

六、常见问题与处理建议

  • 前导零丢失:为对应列指定dtype为字符串;转换后抽样核对。
  • 日期异常为整数:Excel日期序列需显式解析为日期;统一为ISO 8601。
  • 百分比与货币:明确单位与表达方式(小数还是百分数);必要时在转换前做派生字段。
  • 合并单元格导致空值:使用forward-fill在分组列(如类别、地区)上填充。
  • 公式读取为字符串或旧值:在Excel中将公式“粘贴为值”或重新计算后保存;流式读取时使用data_only=True并确保缓存刷新。
  • 大文件OOM:采用JSON Lines流式输出;或分工作表/分批转换;必要时先导出为CSV再做流式JSON转换。

七、输出格式选择建议

  • 小中规模:JSON数组(orient="records")便于一次性加载与下游建模。
  • 大规模或管道处理:JSON Lines(.jsonl/.ndjson),每行一个对象,易于分布式摄取与增量更新。
  • 多表:字典封装或分别生成多个文件,按下游消费方式决定。

按以上步骤实施,可确保从 XLSX 到 JSON 的转换在结构、类型与质量上满足数据挖掘下游使用需求。

Below is a practical, end-to-end procedure to convert data from XML to JSON in a way that is robust, analyzable, and suitable for data mining workflows.

  1. Define objectives and constraints
  • Identify downstream consumers and use cases (analytics, ML features, search indexing).
  • Decide whether you need a faithful structural representation (document-centric) or a normalized/flattened representation (data-centric).
  • Determine acceptable data loss (e.g., dropping XML comments) and ordering requirements.
  1. Inspect and profile the XML
  • Collect representative samples and any XML Schema (XSD) or DTD.
  • Profile structure: element paths, attribute usage, cardinalities, namespaces, and data types.
  • Identify large or repeating sections that may require streaming or batching.
  1. Design mapping rules from XML to JSON Establish consistent, explicit rules. Document them and keep them versioned.
  • Root and records:

    • Choose whether each XML document maps to one JSON object or to a stream of JSON objects (e.g., JSON Lines for large datasets).
    • If there are repeating “record” elements, map each to an individual JSON object.
  • Elements vs attributes:

    • Elements → JSON objects/fields.
    • Attributes → fields on the parent object, with a naming convention if needed (e.g., attribute id → id; or prefix with @id to avoid collisions).
    • Decide how to resolve name collisions between element names and attribute names.
  • Repeated elements:

    • Multiple sibling elements with the same name → JSON arrays.
  • Text content:

    • Simple text-only elements → field with a scalar value.
    • Mixed content (text interleaved with child elements) → represent as an array of strings/objects, or normalize to text if safe for your use case.
  • Namespaces:

    • Decide to preserve prefixes (e.g., dc:title) or map qualified names to unprefixed keys via a lookup table.
    • Avoid colons in keys if downstream tools have constraints; map to dc_title or use nested objects.
  • Data typing:

    • Convert strings to typed values where possible: integer, float, boolean, date/time.
    • Define precise parsing rules and formats (e.g., ISO-8601 for timestamps).
    • Preserve leading zeros when they are identifiers (e.g., keep as string to avoid 00123 → 123).
  • Missing and null:

    • Distinguish absent elements, present-but-empty elements, and explicit nulls.
    • Decide whether to omit missing fields or include them as null/empty arrays.
  • IDs and references:

    • For ID/IDREF or cross-references, decide whether to keep as strings, resolve to nested objects, or emit link structures to support joins later.
  • Ordering:

    • JSON objects are unordered; if order matters, represent ordered collections as arrays with explicit order.
  • Metadata and provenance:

    • Include source document identifiers, extraction timestamps, and schema versions to support lineage and reproducibility.
  1. Plan normalization and flattening (for analytics)
  • Decide which nested structures to flatten into top-level fields for feature engineering.
  • If needed, produce both:
    • A raw JSON representation (faithful to XML).
    • A curated, analytics-ready JSON (flattened, typed, denormalized).
  1. Choose implementation approach and tools
  • Small/medium files (in-memory):
    • Python: xmltodict (quick), ElementTree or lxml for more control.
    • Java: Jackson XML module (XmlMapper) → Jackson JSON.
  • Large files/streams:
    • Streaming parsers: SAX/StAX (Java), iterparse (Python lxml), ijson for JSON streaming.
    • Produce JSON Lines (one JSON object per line) for scalable processing.
  • XSLT/XPath:
    • For schema-driven transformations, XSLT 3.0/XPath 3.1 can build maps/arrays and serialize to JSON (e.g., via fn:serialize with JSON method; processor-specific options apply).
  • Command-line (ad hoc):
    • xmlstarlet (XML processing), combined with scripts.
    • yq/xq wrappers (often built on xmltodict) for quick conversions; validate correctness before production use.
  1. Implement the transformation
  • Parsing:

    • Disable external entity resolution and DTD processing to mitigate XXE and entity expansion attacks.
    • Normalize character encoding to UTF-8.
  • Transformation logic (core steps):

    • Walk the XML tree or stream events.
    • For each element:
      • Create an object with fields from attributes (per your naming convention).
      • Process child elements; collect repeated names into arrays.
      • Assign text content to a value field when the element has only text.
    • Apply data type conversions according to rules.
    • Handle namespaces and name mapping.
    • Output the object according to your target format (single JSON, array, or JSON Lines).
  • Performance:

    • Stream large repeating sections to avoid holding the full tree in memory.
    • Batch outputs and flush periodically.
    • Consider parallelizing by record where ordering is not required.
  1. Validate and test
  • Structural validation:

    • Validate XML against XSD if available to catch bad inputs early.
    • Validate JSON against a JSON Schema that encodes your mapping rules and types.
  • Data correctness:

    • Unit tests for tricky cases: attributes vs elements, repeated elements, mixed content, namespaces, and type conversions.
    • Spot-check samples: compare original XML values and their JSON counterparts.
    • Check counts: number of records, array lengths, and presence of required fields.
  • Regression tests:

    • Fix the mapping rules and test against historical samples to ensure stability.
  1. Handle edge cases
  • Mixed content: decide whether to preserve structure or normalize to text; document the choice.
  • Significant whitespace and CDATA: define normalization rules; avoid accidental trimming of meaningful whitespace.
  • Very large integers and floating-point precision: consider using strings if precision must be exact.
  • Binary content (base64/hex): keep as strings or extract and store externally with references.
  • Comments and processing instructions: typically dropped; include only if explicitly required (e.g., as metadata).
  1. Output and packaging
  • Format:
    • For batch analytics: JSON Lines (one object per line) is preferred for scalability.
    • For API or single-document use: a single JSON object or array.
  • Encoding: UTF-8 without BOM.
  • Pretty-print only for debugging; use compact output in production for size and speed.
  • Compression: gzip or zstd for large outputs; compatible with many analytics tools.
  1. Document the mapping and lineage
  • Provide a mapping specification with examples, data types, and null handling.
  • Record tool versions, configuration, and schema versions.
  • Maintain change logs to support reproducibility and downstream stability.

Minimal example mapping (descriptive)

  • XML: AIA. SmithB. Lee240
  • JSON (data-centric): { "id": "1", "title": { "value": "AI", "lang": "en" }, "author": ["A. Smith", "B. Lee"], "pages": 240 } Notes: attributes mapped to sibling fields; repeated author elements mapped to an array; pages converted to number; title’s language preserved.

Security checklist

  • Disable DTD and external entities.
  • Limit entity expansion and input size.
  • Sanitize or reject unexpected namespaces and structures.
  • Log transformation errors with enough context; fail fast or quarantine bad records according to policy.

Following this process yields JSON that is type-safe, consistent, and ready for downstream data mining tasks, while scaling to large datasets and maintaining traceability.

示例详情

📖 如何使用

30秒出活:复制 → 粘贴 → 搞定
与其花几十分钟和AI聊天、试错,不如直接复制这些经过千人验证的模板,修改几个 {{变量}} 就能立刻获得专业级输出。省下来的时间,足够你轻松享受两杯咖啡!
加载中...
💬 不会填参数?让 AI 反过来问你
不确定变量该填什么?一键转为对话模式,AI 会像资深顾问一样逐步引导你,问几个问题就能自动生成完美匹配你需求的定制结果。零门槛,开口就行。
转为对话模式
🚀 告别复制粘贴,Chat 里直接调用
无需切换,输入 / 唤醒 8000+ 专家级提示词。 插件将全站提示词库深度集成于 Chat 输入框。基于当前对话语境,系统智能推荐最契合的 Prompt 并自动完成参数化,让海量资源触手可及,从此彻底告别"手动搬运"。
即将推出
🔌 接口一调,提示词自己会进化
手动跑一次还行,跑一百次呢?通过 API 接口动态注入变量,接入批量评价引擎,让程序自动迭代出更高质量的提示词方案。Prompt 会自己进化,你只管收结果。
发布 API
🤖 一键变成你的专属 Agent 应用
不想每次都配参数?把这条提示词直接发布成独立 Agent,内嵌图片生成、参数优化等工具,分享链接就能用。给团队或客户一个"开箱即用"的完整方案。
创建 Agent

✅ 特性总结

一键生成从源到目标的全流程转换指南,覆盖准备、映射、执行与验证,缩短方案制定时间。
自动识别字段差异与命名规范,给出映射建议与改进措施,降低手工比对成本与出错率。
智能给出清洗、去重、缺失值处理等预处理步骤,配优先级与说明,确保转换后数据可用。
结构化输出转换步骤、检查清单与风险提醒,文档可直接用于标准操作与交付,促进跨团队协作。
支持按源格式、目标格式与语言定制,一键生成适配不同项目与地区的说明,减少重复写作。
自动附带质量校验与验收标准,如一致性、完整性与稽核方法,保障流程可追溯与结果可信。
以通俗、清晰、逻辑化的表达拆解复杂转换,让非技术干系人也能理解并参与评审与决策。
紧贴业务目标,在步骤中标注对报表、营销、客服等应用的影响点,指导后续落地与效果评估。

🎯 解决的问题

用最短时间,产出“从任意源格式到目标格式”的标准化转换步骤与可执行SOP;根据你的源格式、目标格式与期望语言自动生成清晰流程,覆盖准备、预处理、规则映射、转换执行、质量校验与问题处置,确保可读、可复用、可落地。帮助数据与业务团队减少沟通成本与返工,缩短交付周期,显著降低错误率,并以专业文档形式支持跨团队协作与知识沉淀。

🕒 版本历史

当前版本
v2.1 2024-01-15
优化输出结构,增强情节连贯性
  • ✨ 新增章节节奏控制参数
  • 🔧 优化人物关系描述逻辑
  • 📝 改进主题深化引导语
  • 🎯 增强情节转折点设计
v2.0 2023-12-20
重构提示词架构,提升生成质量
  • 🚀 全新的提示词结构设计
  • 📊 增加输出格式化选项
  • 💡 优化角色塑造引导
v1.5 2023-11-10
修复已知问题,提升稳定性
  • 🐛 修复长文本处理bug
  • ⚡ 提升响应速度
v1.0 2023-10-01
首次发布
  • 🎉 初始版本上线
COMING SOON
版本历史追踪,即将启航
记录每一次提示词的进化与升级,敬请期待。

💬 用户评价

4.8
⭐⭐⭐⭐⭐
基于 28 条评价
5星
85%
4星
12%
3星
3%
👤
电商运营 - 张先生
⭐⭐⭐⭐⭐ 2025-01-15
双十一用这个提示词生成了20多张海报,效果非常好!点击率提升了35%,节省了大量设计时间。参数调整很灵活,能快速适配不同节日。
效果好 节省时间
👤
品牌设计师 - 李女士
⭐⭐⭐⭐⭐ 2025-01-10
作为设计师,这个提示词帮我快速生成创意方向,大大提升了工作效率。生成的海报氛围感很强,稍作调整就能直接使用。
创意好 专业
COMING SOON
用户评价与反馈系统,即将上线
倾听真实反馈,在这里留下您的使用心得,敬请期待。
加载中...