创建数据目录描述

0 浏览
0 试用
0 购买
Sep 27, 2025更新

生成数据目录条目的描述,专注于数据治理领域。

示例1

数据集名称
- 合规审计日志集

简要描述
- 跨系统统一汇聚的审计事件数据集,用于合规证明、访问与变更审计、取证调查、策略执行监控及风险控制评估。数据以标准化架构存储,支持跨源检索、溯源和证据留存。

业务用途
- 合规与审计:证明访问控制、变更管理、数据出境与共享等活动的合规性;支持内外部审计取证。
- 安全与风控:监控敏感数据访问、策略违例、DLP告警与异常行为;支撑调查与整改。
- 治理运营:度量政策执行效果、数据分类与保留策略落地情况;为审批与授权流程提供可核查记录。

数据范围与内容
- 覆盖对象:应用系统、数据库与数据仓库/湖、数据平台与ETL/ELT作业、API网关、身份与访问管理(IAM)、DLP/监控、数据目录/数据共享门户、配置管理与变更工具、工单/审批系统。
- 事件类型(示例):
  - 访问事件:读取/写入/删除/导出/共享
  - 变更事件:配置变更、架构变更、权限授予/撤销
  - 策略与合规:策略评估结果、分类与分级、DLP规则触发
  - 审批与授权:访问申请、审批决策、授权有效期
  - 个人信息处理:合法基础记录、同意/撤回、目的限制
  - 告警与异常:失败登录、异常地理位置/设备、阈值超限

粒度与主键
- 粒度:单事件记录(毫秒级时间戳)
- 主键:event_id(全局唯一,避免跨源冲突;可由源系统ID+时间戳+序列生成)

主要字段与定义(核心统一字段)
- event_id:事件唯一标识(string)
- event_time_utc:事件发生时间(UTC,datetime)
- ingestion_time:摄取入库时间(UTC,datetime)
- source_system:来源系统编码(string)
- source_host/service:来源主机或服务标识(string)
- actor_id/actor_type:行为主体ID与类型(用户/服务账号/进程)(string/enum)
- session_id/correlation_id/request_id:会话与跨系统关联标识(string)
- subject_id:被作用对象标识(数据资产ID、记录哈希或资源路径)(string,敏感时哈希化)
- asset_id/asset_type:数据资产ID与类型(表/文件/话题/API)(string/enum)
- action_type:动作类型(READ/WRITE/DELETE/EXPORT/SHARE/CONFIG_CHANGE/GRANT/REVOKE…)(enum)
- outcome:结果(SUCCESS/FAILURE)(enum)
- auth_method/mfa_used:认证方式与多因子使用(enum/boolean)
- privilege_level/role:权限级别与角色(string/enum)
- policy_id/policy_version/policy_name:相关政策标识与版本(string)
- evaluation_result:策略评估结果(ALLOW/DENY/OVERRIDE)(enum)
- data_classification:数据分级(PUBLIC/INTERNAL/SENSITIVE/PERSONAL/SPECIAL)(enum)
- pii_categories:个人信息类别(示例:标识、联系、财务、健康)(array<enum>)
- legal_basis:合法处理基础(同意/合同/法定义务/合法权益等)(enum)
- consent_id/consent_status:同意记录标识与状态(string/enum)
- dlp_rule_id/alert_severity:DLP规则与告警严重度(string/enum)
- approval_id/approver_id:审批单与审批人标识(string)
- ticket_id:关联工单/事件编号(string)
- ip_address/device_id/geo_location_code:网络与设备信息(string)
- reason/comment:操作原因或审计备注(string,可能含敏感自由文本)
- evidence_hash/checksum/signature:证据哈希与完整性校验(string)
- partition_date:分区字段(date)
- schema_version:架构版本(string)

数据来源与血缘
- 上游来源:SIEM/日志平台、IAM/目录服务、数据库与数据湖审计日志、数据平台访问日志、ETL调度器、策略引擎(RBAC/ABAC)、DLP系统、同意与隐私管理系统、工单与审批系统。
- 摄取方式:流式(消息总线/日志代理)与批量(文件/API)混合;统一规范化转换。
- 处理与增强:
  - 时间标准化(统一UTC)、代码集映射(枚举统一)、字段命名统一(Camel/Snake约定)
  - 主体与资产主数据对齐(HR/目录与数据目录ID)
  - 敏感自由文本最小化与脱敏;subject_id哈希化
  - 去重与顺序重建;质量校验与错误通道(dead-letter)
- 血缘记录:入库作业、转换规则、版本变更与依赖在数据目录血缘视图中维护。

更新频率与延迟
- 流式:近实时(目标端到端延迟≤5分钟)
- 批量:日更/小时更(视上游能力而定)
- SLA:可用性≥99%;事件丢失率≤0.01%;入库延迟P95≤10分钟(参考目标,实际以服务级别协议为准)

数据质量管理
- 规则与校验:
  - 完整性:必填字段(event_id、event_time_utc、source_system、action_type、outcome)非空
  - 唯一性:event_id全局唯一,重复率≤0.01%
  - 时间合理性:event_time_utc与ingestion_time差异在容忍阈值内;禁止未来时间
  - 参照一致性:actor_id、asset_id可在主数据中解析;枚举值需在代码集中
  - 规范一致性:schema_version有效,字段类型与长度标准化
  - 对账:与上游日志量级每日抽样对账,误差≤1%
- 指标与监控:缺失率、延迟分布、去重比、错误通道积压、自由文本敏感词检出率;异常告警与处置工单联动。
- 质量例外管理:记录与审批例外;修复与回填流程可追踪。

安全与访问控制
- 分类与敏感性:受限数据(包含潜在个人信息与安全运营细节)
- 加密:传输TLS;静态加密(含密钥托管与轮转)
- 授权:基于角色的访问控制(RBAC),最小权限;行列级过滤(基于数据分级与合法基础)
- 审计:查询与导出操作二次审计;管理员操作双人复核(4-eyes)
- 数据脱敏:自由文本字段默认不可用或仅提供掩码视图;必要时通过审批获取原文
- 访问流程:需经数据治理工作流审批,用途限定为合规/安全/审计

保留与归档策略
- 在线保留:18–36个月(视风险与查询需求)
- 归档保留:最长至7年,或依适用法规/合同要求执行
- 不可篡改存储:关键审计事件采用WORM/写一次读多次策略,附完整性校验
- 法律保全:触发法律保全后暂停删除;按流程解除
- 删除与匿名化:到期后按策略删除或匿名化;保留操作审计可追踪

合规与框架映射(按组织适用性)
- ISO/IEC 27001:A12.4 日志与监控、A18 合规性证据
- SOC 2:CC7 变更与日志监控
- PCI DSS:要求10(日志与事件管理)
- HIPAA:§164.312(b) 审计控制
- GDPR(如适用):第32条安全措施、问责原则支持;事件记录用于支持通报与调查
- 其他:内部控制(如财务系统变更/访问支持管理层对内部控制有效性评估)
- 注:具体适用法规以组织的司法辖区与业务范围为准

使用限制与注意事项
- 仅用于合规、审计、安保与法务目的;禁止用于员工绩效评估或无关画像
- 导出或共享需二级审批与目的限定;跨境传输依数据出境政策执行
- 关联分析可能产生新的个人信息处理,应评估合法基础与最小化原则
- 自由文本含敏感内容风险高,默认不可暴露;必要访问需合规审批

已知限制
- 部分遗留系统日志字段不完整或时间戳精度不足
- 跨系统ID标准不一,需依赖映射表;映射滞后可能影响溯源
- 高峰期上游限流可能导致延迟或少量丢失;错误通道积压需人工干预
- 地理位置与设备信息可能依赖第三方解析,精度有限

运营与职责
- 业务所有者:合规与审计部门
- 数据管理员(Steward):信息安全治理团队
- 技术负责人:数据平台/日志管道团队
- 系统托管方:SIEM/日志平台团队
- 支持与联系方式:请在目录中维护具体联系人与服务工单入口

版本与变更管理
- 架构版本化(schema_version),兼容策略与变更公告
- 字段新增采用向后兼容,删除或语义变化需发布迁移指南与冻结期
- 定期复审事件类型与代码集,确保与政策/系统变更对齐

相关资产与视图
- 关联维表:actor主数据、资产目录、策略与代码集
- 派生数据集:合规审计视图(汇总与报表)、敏感访问日报、DLP告警明细
- 血缘与依赖:见目录血缘图,涵盖上游系统与处理作业

标签与分类
- 标签:审计、合规、访问控制、事件日志、DLP、取证
- 数据域:治理与合规域(跨域覆盖)

示例2

名称
目录条目元数据集

简介
用于集中存储与维护数据目录中各条目的标准化元数据,支撑数据发现、治理管控、权限管理、质量评估与合规审计。该数据集是目录服务的主数据源之一,提供条目级的业务与技术属性、血缘、分级与政策映射,确保目录信息一致、可追踪、可审计。

范围与用途
- 范围:覆盖目录内的全部可注册对象,包括数据集、表/视图、报表、指标、数据产品、管道/作业等条目。
- 用途:
  - 为数据发现提供可搜索的、结构化的条目元信息。
  - 为数据治理提供分级、责任人、质量评分、认证状态与合规标签。
  - 为安全与合规提供访问控制对象、审计线索与政策映射。
  - 为运营与生命周期管理提供变更记录、版本状态与退役计划。

数据结构(标准字段)
以下为建议的标准字段集合,实际实现可根据组织需要裁剪或扩展:
- entry_id(string):目录条目唯一标识。主键,必须全局唯一。
- entry_name(string):条目名称(规范命名)。
- entry_type(enum):对象类型(dataset/table/view/report/metric/pipeline/data_product 等)。
- business_domain(string/enum):所属业务域或主题域(来源于域目录)。
- business_description(string):业务释义与用途摘要。
- technical_description(string):技术说明(来源系统、结构要点、依赖)。
- glossary_terms(array[string]):关联术语或业务定义(指向术语表)。
- source_system(string):来源系统或系统记录(System of Record)。
- storage_location(string):物理/逻辑存储位置(路径、库名、模式名)。
- lineage_upstream(array[string]):上游依赖条目 ID 列表。
- lineage_downstream(array[string]):下游消费条目 ID 列表。
- confidentiality_level(enum):数据分级(公开/内部/受限/机密等)。
- pii_flag(boolean):是否涉及个人敏感信息标识(针对条目内容,而非本元数据集)。
- regulatory_tags(array[string]):适用的监管或合规标签(如隐私、财务、医疗等范畴)。
- data_owner(string):数据所有者(角色或团队标识)。
- data_steward(string):数据管理员/保管人。
- access_groups(array[string]):可访问的角色/用户组(RBAC 对象)。
- certification_status(enum):认证状态(未认证/已认证/受控/弃用)。
- dq_rules_applied(array[string]):应用的数据质量规则 ID(规则库引用)。
- quality_score(number):质量评分或等级(计算与定义需一致)。
- usage_metrics(json):使用统计(浏览、查询、订阅等聚合指标)。
- lifecycle_stage(enum):生命周期阶段(草稿/生产/弃用/退役)。
- retention_policy_id(string):关联的保留与归档政策标识。
- change_request_id(string):最近一次变更申请单号(变更管理系统)。
- created_at(datetime):条目创建时间。
- updated_at(datetime):最近更新时间。
- review_due_date(date):下一次治理评审到期日。
- contact_channel(string):咨询与支持渠道(通讯录或工单入口)。
- tags(array[string]):自由标签(支持分类/检索)。

数据血缘与来源
- 血缘来源:通过编排平台、ETL/ELT、BI 工具与代码扫描自动采集;支持人工补充与校验。
- 元数据来源:目录服务、数据平台 API、规则库与权限系统;本数据集不载入实际数据内容,仅存储条目层的元信息与关联引用。

刷新与时效
- 更新模式:事件驱动(注册/变更触发)与定时同步(夜间批处理)结合。
- 时效要求:关键字段(分级、所有者、权限、认证状态、血缘)需在变更后定义窗口内同步;超时触发治理告警。

数据质量管理
- 完整性:entry_id、entry_name、entry_type、business_domain、data_owner、confidentiality_level 必填;非空校验。
- 一致性:entry_type、confidentiality_level 等采用受控词表;与域目录、术语表、规则库保持引用一致。
- 唯一性:entry_id 全局唯一;entry_name 在同一域内唯一(或提供去重策略)。
- 及时性:updated_at 不得早于来源变更事件指定阈值;超期记录纳入异常队列。
- 血缘完备度:lineage_upstream/lineage_downstream 对关键生产条目需覆盖率达标;缺失需标记与补录。
- 质量评分:quality_score由规则计算(如完整性、血缘完备度、权限配置正确率);评分逻辑需在规则库中版本化。
- 监控与处置:对完整性、及时性、血缘缺失、分级不一致等设定监控;异常进入治理工单,按SOP分派数据管理员处理并留痕。

访问与安全
- 访问级别:本元数据集默认内部-受控;仅授权的治理、平台与审计角色具备读权限;写入通过目录服务与工作流。
- 授权模型:RBAC/ABAC结合;变更需工单审批与双人复核;审计日志记录读取与写入操作。
- 隐私注意:本数据集可能包含责任人/联系人标识(建议使用工号或群组标识,避免直接存储个人敏感信息);如需邮箱/姓名,遵循最小化与遮蔽策略。

合规与政策映射
- 政策绑定:retention_policy_id、regulatory_tags 与组织的数据分级、保留与合规政策库保持引用一致。
- 审计支持:提供变更记录、认证状态与访问组信息以支持合规审计与证据留存。
- 数据最小化:仅存储条目级元信息与必要的治理属性,不载入或复制业务数据内容。

保留与生命周期
- 保留策略:随条目生命周期管理;退役条目元数据保留至政策规定期限,以满足审计与回溯。
- 归档与清理:达到保留期限后归档或清理;清理前需验证下游依赖与审计要求。

命名与版本管理
- 命名规范:统一前缀/域-对象-环境格式,避免歧义;entry_name 与存储位置保持可追溯映射。
- 版本控制:条目重大变更(结构、分级、所有者、认证状态)需版本化;变更原因、影响评估与审批记录入库。

角色与责任
- 数据所有者:对分级、用途与合规负责;审批访问与变更。
- 数据管理员/保管人:维护元数据完整性与准确性;处理质量异常与血缘补录。
- 目录平台团队:负责采集、同步、规则执行与审计支持。
- 合规/安全团队:定义政策与词表,监督执行与审计。

使用指引
- 注册与变更通过目录服务或工作流提交;直接写库仅限平台服务账户。
- 引用术语、域、规则、政策均使用标准 ID,避免自由文本造成不一致。
- 在项目上线、变更、退役时同步更新相关字段,确保血缘与权限实时有效。

风险与控制
- 风险:元数据缺失或滞后可能导致错误访问授权与合规风险。
- 控制:强制非空与受控词表校验、自动血缘采集与异常告警、变更审批与操作审计。

备注
本数据集为治理关键基础设施的一部分,任何结构调整、字段语义变更需提前评估对目录、权限、审计与质量计算的影响,并按变更管理流程执行。

示例3

Dataset name
Conversion Funnel Events (转化漏斗事件集)

Summary
Event-level dataset that standardizes and records user progression through defined conversion funnel stages across web and mobile channels. Designed for measuring funnel performance, diagnosing drop-off points, and supporting compliant attribution and optimization.

Business definition and scope
- Scope: Digital interactions that contribute to user progression from initial touch to conversion (e.g., purchase or signup). Includes on-site/app events and, where available, upstream acquisition signals from ad platforms.
- Use cases: Funnel conversion rate analysis, stage-to-stage drop-off, time-to-conversion, cohort progression, channel/campaign attribution, A/B test evaluation.
- Exclusions: System logs unrelated to user behavior, raw third-party network logs without consent, and any data lacking provenance or required metadata.

Grain
- One record per discrete event occurrence.
- Events are ordered by event_time within a user/session context.
- Canonical event_name values are versioned and governed (see “Event taxonomy”).

Event taxonomy (canonical funnel stages)
Events are standardized to the following categories; implementation may include additional subtypes (versioned).
- Acquisition: ad_impression, ad_click
- Engagement: session_start, page_view, content_view, product_view
- Consideration: add_to_cart, wishlist_add
- Intent: checkout_start, payment_start
- Conversion: purchase_complete (order_placed), signup_complete (if applicable)
- Post-conversion: refund_requested, order_cancelled (optional, for lifecycle analysis)

Core schema (logical fields)
- Event identifiers
  - event_id: globally unique identifier (UUID)
  - event_name: canonical event type (enum; governed list)
  - event_version: schema version of the event payload
- Time
  - event_time: UTC timestamp of event occurrence
  - ingestion_time: UTC timestamp of data ingestion
- Identity and session
  - user_id: persistent authenticated identifier (nullable before login)
  - anonymous_id: device/browser-scoped identifier for unauthenticated users
  - session_id: server-side session identifier (governed sessionization rules)
- Source and context
  - platform: web, iOS, Android, other
  - device_type, os, app_version, browser
  - page_url / screen_name (web/app context)
  - geo_country, geo_region (derived; IP anonymized or truncated per policy)
- Marketing and attribution
  - source, medium, campaign_id, channel, term, content (UTM-standardized)
  - click_id (e.g., gclid/fbclid) where available
  - attribution_model (e.g., last_non_direct_click), attribution_window_days
- Commerce (if applicable)
  - product_id, sku, quantity, unit_price, currency
  - order_id, order_value, tax, shipping, discount_value
- Consent and privacy
  - consent_analytics, consent_advertising (boolean flags)
  - consent_timestamp, consent_source
  - data_subject_region (e.g., EU/US/Other)
- Quality and lineage metadata
  - source_system, pipeline_name, transform_version
  - is_duplicate (computed flag)
  - data_quality_score (composite metric; see checks below)

Keys and uniqueness
- Primary key: event_id (unique across the dataset).
- Secondary keys: (user_id, event_time) and (session_id, event_time) for ordered analysis.
- Deduplication: Exact dedup on event_id; domain-specific fuzzy dedup for purchases (e.g., identical order_id + user_id + order_value within a short window) per governed rule.

Ordering and sessionization
- Events are ordered by event_time within user_id or anonymous_id and session_id.
- Sessionization rules are defined and versioned (e.g., inactivity timeout, cross-tab continuity) and must be consistently applied across pipelines.

Identity resolution
- Identity stitching policy links anonymous_id to user_id upon authentication; cross-device resolution must use governed deterministic keys (e.g., login) or approved probabilistic methods with documented confidence.
- Identity graph changes are versioned; downstream consumers should not assume stability of historical joins without reprocessing windows.

Attribution rules
- Default reporting uses governed attribution_model and attribution_window_days. Changes require change control approval.
- Last-touch vs. first-touch and multi-touch models must be explicitly selected and documented in downstream reports.
- Direct traffic handling and bot/excluded traffic are defined by governance filters (see “Quality controls”).

Data quality controls
- Schema conformance: event_name must map to a governed schema; mandatory fields cannot be null (e.g., event_id, event_time, platform).
- Primary key uniqueness: no duplicate event_id.
- Referential integrity: product_id and order_id must exist in mastered product/order dimensions when present.
- Timeliness: data availability meets defined SLA (e.g., T+1 for analytics; near-real-time for operational use if applicable).
- Volume and distribution checks: anomaly detection on event counts by platform, channel, and stage.
- Reasonableness checks: monotonic funnel progression rates within expected bounds; spike detection on conversion events.
- Bot/invalid traffic filters: governed lists and heuristics applied consistently (e.g., known bot UA, data center IPs).

Lineage and sources
- Source systems may include client-side SDKs, server-side event collection, commerce backend, and ad tech platforms (distinctly tagged via source_system).
- Transformations: normalization, enrichment (UTM parsing, geo derivation), identity stitching, deduplication, and schema versioning recorded in transform_version metadata.

Refresh cadence
- Batch ingestion and/or streaming pipelines depending on source. Cadence is documented per source_system and pipeline_name.
- Late-arriving data and backfill policy are governed; reprocessing windows are documented in change logs.

Privacy and compliance
- Classification: Contains personal data; treat as Confidential/Restricted per Data Classification Policy.
- Legal basis: Analytics processing must respect consent_analytics; advertising use must respect consent_advertising, applicable regulations (e.g., GDPR/UK GDPR/CPRA), and internal policy.
- Data minimization: Store only necessary identifiers; IP must be anonymized/truncated per policy.
- Data subject rights: Deletion requests cascade to this dataset; lineage tags must support discoverability and purge.
- Cross-border transfer: Follow organizational data transfer controls; ensure appropriate safeguards for EU data where applicable.

Access and usage restrictions
- Access is role-based with least privilege. Raw event-level identifiers are restricted; use aggregated views for broad access.
- Prohibited: Re-identification, combining with external datasets without approved DPIA/assessment, individual-level decisioning without appropriate legal basis and approvals.

Retention and purging
- Retention follows the Data Retention Policy; raw events retained only as long as necessary for stated purposes. Aggregated derivatives may have different retention.
- Legal hold and deletion workflows are supported via lineage and subject resolution.

Stewardship and ownership
- Data Owner: Designated business owner (e.g., Growth/Marketing Analytics).
- Data Steward: Appointed steward responsible for policy conformance, metadata completeness, and change control.
- Technical Owner: Data engineering team responsible for pipelines and quality enforcement.

Change management
- Breaking changes (schema, event_name taxonomy, sessionization rules, attribution defaults) require governance review, version increment (event_version), deprecation schedule, and communication to consumers.
- Backward-compatible changes are documented and tagged; downstream consumers should validate impact.

Known limitations
- Ad impression completeness and deduplication vary by partner capabilities and consent.
- Cross-device identity stitching may be incomplete, affecting multi-touch attribution.
- Offline conversions are included only if integrated and consented; otherwise, conversion metrics reflect digital channels.

Usage guidance
- Compute funnel metrics by ordering events within a consistent identity and session scope; avoid mixing user_id and anonymous_id without applying the identity stitching policy.
- Use governed attribution fields rather than custom logic to ensure consistency across reports.
- For regulatory compliance, always filter analyses by consent flags when the purpose involves analytics or advertising.

适用用户

数据治理负责人

制定统一目录描述标准,快速核对质量与合规要点,推动跨部门按规范发布数据集,形成可审计的数据资产。

数据目录管理员

一键生成条目描述,自动补齐来源、维护者、更新频率与使用边界,批量上线目录,减少手工编辑与返工。

业务数据分析师

通过清晰目录说明理解适用范围、限制与风险提示,快速选数与申请权限,避免误用,提高分析交付效率。

合规与风控团队

自动标注敏感字段与合规注意事项,输出访问控制建议与留痕信息,支撑内部审查与外部合规检查。

数据工程师与平台团队

在数据接入与变更时生成标准化说明,明确依赖、责任人与流程,降低跨团队沟通成本,加速上线与维护。

咨询顾问与实施伙伴

项目交付中用统一模板生成客户数据目录文档,缩短编写周期,提升专业形象与验收通过率。

解决的问题

- 面向数据治理、数据平台与合规团队,快速生成标准化、可审计的数据目录条目描述,解决“写不全、写不准、写不一”的痛点。 - 让 AI 扮演资深数据治理专家,基于指定数据集名称与业务语境,输出清晰、客观、可复用的目录内容,覆盖政策、质量、合规与管理四大维度。 - 以统一的技术写作风格,保证用词一致与结构清晰,提升跨部门沟通效率与数据可发现性,减少重复沟通与返工。 - 支持多语言输出与批量生产,助力在审计、迁移、盘点、项目上线等关键节点,分钟级补齐与优化目录描述。 - 通过“准确、专注、可执行”的专业产出,降低合规风险与信息偏差,帮助团队从试用快速走向规模化使用与制度化落地。

特征总结

一键生成数据目录条目描述,覆盖来源、用途、维护者与更新频率,迅速上线。
智能理解业务上下文,自动提炼数据价值与使用边界,降低误用风险。
自动嵌入治理要素:质量指标、合规提示与访问控制要点,审计更省时更高效。
支持多语言一致输出与统一写作风格,跨地区协作顺畅,沟通无歧义。
可按模板与参数定制章节结构,适配不同部门规范,降低维护与培训成本。
自动识别敏感信息类型并给出处理建议,帮助合规落地,减少违规风险。
生成可直接复制到目录平台的结构化说明,减少反复沟通与编辑时间。
明确维护责任与变更流程,输出生命周期提示,使数据目录持续更新可追溯。
为新数据集接入提供标准填报引导,显著缩短从准备到发布全流程用时。
提供版本对比与更新摘要,目录改动一目了然,便于回溯与审阅更放心。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

¥20.00元
平台提供免费试用机制,
确保效果符合预期,再付费购买!

您购买后可以获得什么

获得完整提示词模板
- 共 249 tokens
- 2 个可调节参数
{ 数据集名称 } { 输出语言 }
自动加入"我的提示词库"
- 获得提示词优化器支持
- 版本化管理支持
获得社区共享的应用案例
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59