创建数据目录描述

182 浏览
16 试用
4 购买
Oct 20, 2025更新

生成数据目录条目的描述,专注于数据治理领域。

数据集名称

  • 合规审计日志集

简要描述

  • 跨系统统一汇聚的审计事件数据集,用于合规证明、访问与变更审计、取证调查、策略执行监控及风险控制评估。数据以标准化架构存储,支持跨源检索、溯源和证据留存。

业务用途

  • 合规与审计:证明访问控制、变更管理、数据出境与共享等活动的合规性;支持内外部审计取证。
  • 安全与风控:监控敏感数据访问、策略违例、DLP告警与异常行为;支撑调查与整改。
  • 治理运营:度量政策执行效果、数据分类与保留策略落地情况;为审批与授权流程提供可核查记录。

数据范围与内容

  • 覆盖对象:应用系统、数据库与数据仓库/湖、数据平台与ETL/ELT作业、API网关、身份与访问管理(IAM)、DLP/监控、数据目录/数据共享门户、配置管理与变更工具、工单/审批系统。
  • 事件类型(示例):
    • 访问事件:读取/写入/删除/导出/共享
    • 变更事件:配置变更、架构变更、权限授予/撤销
    • 策略与合规:策略评估结果、分类与分级、DLP规则触发
    • 审批与授权:访问申请、审批决策、授权有效期
    • 个人信息处理:合法基础记录、同意/撤回、目的限制
    • 告警与异常:失败登录、异常地理位置/设备、阈值超限

粒度与主键

  • 粒度:单事件记录(毫秒级时间戳)
  • 主键:event_id(全局唯一,避免跨源冲突;可由源系统ID+时间戳+序列生成)

主要字段与定义(核心统一字段)

  • event_id:事件唯一标识(string)
  • event_time_utc:事件发生时间(UTC,datetime)
  • ingestion_time:摄取入库时间(UTC,datetime)
  • source_system:来源系统编码(string)
  • source_host/service:来源主机或服务标识(string)
  • actor_id/actor_type:行为主体ID与类型(用户/服务账号/进程)(string/enum)
  • session_id/correlation_id/request_id:会话与跨系统关联标识(string)
  • subject_id:被作用对象标识(数据资产ID、记录哈希或资源路径)(string,敏感时哈希化)
  • asset_id/asset_type:数据资产ID与类型(表/文件/话题/API)(string/enum)
  • action_type:动作类型(READ/WRITE/DELETE/EXPORT/SHARE/CONFIG_CHANGE/GRANT/REVOKE…)(enum)
  • outcome:结果(SUCCESS/FAILURE)(enum)
  • auth_method/mfa_used:认证方式与多因子使用(enum/boolean)
  • privilege_level/role:权限级别与角色(string/enum)
  • policy_id/policy_version/policy_name:相关政策标识与版本(string)
  • evaluation_result:策略评估结果(ALLOW/DENY/OVERRIDE)(enum)
  • data_classification:数据分级(PUBLIC/INTERNAL/SENSITIVE/PERSONAL/SPECIAL)(enum)
  • pii_categories:个人信息类别(示例:标识、联系、财务、健康)(array
  • legal_basis:合法处理基础(同意/合同/法定义务/合法权益等)(enum)
  • consent_id/consent_status:同意记录标识与状态(string/enum)
  • dlp_rule_id/alert_severity:DLP规则与告警严重度(string/enum)
  • approval_id/approver_id:审批单与审批人标识(string)
  • ticket_id:关联工单/事件编号(string)
  • ip_address/device_id/geo_location_code:网络与设备信息(string)
  • reason/comment:操作原因或审计备注(string,可能含敏感自由文本)
  • evidence_hash/checksum/signature:证据哈希与完整性校验(string)
  • partition_date:分区字段(date)
  • schema_version:架构版本(string)

数据来源与血缘

  • 上游来源:SIEM/日志平台、IAM/目录服务、数据库与数据湖审计日志、数据平台访问日志、ETL调度器、策略引擎(RBAC/ABAC)、DLP系统、同意与隐私管理系统、工单与审批系统。
  • 摄取方式:流式(消息总线/日志代理)与批量(文件/API)混合;统一规范化转换。
  • 处理与增强:
    • 时间标准化(统一UTC)、代码集映射(枚举统一)、字段命名统一(Camel/Snake约定)
    • 主体与资产主数据对齐(HR/目录与数据目录ID)
    • 敏感自由文本最小化与脱敏;subject_id哈希化
    • 去重与顺序重建;质量校验与错误通道(dead-letter)
  • 血缘记录:入库作业、转换规则、版本变更与依赖在数据目录血缘视图中维护。

更新频率与延迟

  • 流式:近实时(目标端到端延迟≤5分钟)
  • 批量:日更/小时更(视上游能力而定)
  • SLA:可用性≥99%;事件丢失率≤0.01%;入库延迟P95≤10分钟(参考目标,实际以服务级别协议为准)

数据质量管理

  • 规则与校验:
    • 完整性:必填字段(event_id、event_time_utc、source_system、action_type、outcome)非空
    • 唯一性:event_id全局唯一,重复率≤0.01%
    • 时间合理性:event_time_utc与ingestion_time差异在容忍阈值内;禁止未来时间
    • 参照一致性:actor_id、asset_id可在主数据中解析;枚举值需在代码集中
    • 规范一致性:schema_version有效,字段类型与长度标准化
    • 对账:与上游日志量级每日抽样对账,误差≤1%
  • 指标与监控:缺失率、延迟分布、去重比、错误通道积压、自由文本敏感词检出率;异常告警与处置工单联动。
  • 质量例外管理:记录与审批例外;修复与回填流程可追踪。

安全与访问控制

  • 分类与敏感性:受限数据(包含潜在个人信息与安全运营细节)
  • 加密:传输TLS;静态加密(含密钥托管与轮转)
  • 授权:基于角色的访问控制(RBAC),最小权限;行列级过滤(基于数据分级与合法基础)
  • 审计:查询与导出操作二次审计;管理员操作双人复核(4-eyes)
  • 数据脱敏:自由文本字段默认不可用或仅提供掩码视图;必要时通过审批获取原文
  • 访问流程:需经数据治理工作流审批,用途限定为合规/安全/审计

保留与归档策略

  • 在线保留:18–36个月(视风险与查询需求)
  • 归档保留:最长至7年,或依适用法规/合同要求执行
  • 不可篡改存储:关键审计事件采用WORM/写一次读多次策略,附完整性校验
  • 法律保全:触发法律保全后暂停删除;按流程解除
  • 删除与匿名化:到期后按策略删除或匿名化;保留操作审计可追踪

合规与框架映射(按组织适用性)

  • ISO/IEC 27001:A12.4 日志与监控、A18 合规性证据
  • SOC 2:CC7 变更与日志监控
  • PCI DSS:要求10(日志与事件管理)
  • HIPAA:§164.312(b) 审计控制
  • GDPR(如适用):第32条安全措施、问责原则支持;事件记录用于支持通报与调查
  • 其他:内部控制(如财务系统变更/访问支持管理层对内部控制有效性评估)
  • 注:具体适用法规以组织的司法辖区与业务范围为准

使用限制与注意事项

  • 仅用于合规、审计、安保与法务目的;禁止用于员工绩效评估或无关画像
  • 导出或共享需二级审批与目的限定;跨境传输依数据出境政策执行
  • 关联分析可能产生新的个人信息处理,应评估合法基础与最小化原则
  • 自由文本含敏感内容风险高,默认不可暴露;必要访问需合规审批

已知限制

  • 部分遗留系统日志字段不完整或时间戳精度不足
  • 跨系统ID标准不一,需依赖映射表;映射滞后可能影响溯源
  • 高峰期上游限流可能导致延迟或少量丢失;错误通道积压需人工干预
  • 地理位置与设备信息可能依赖第三方解析,精度有限

运营与职责

  • 业务所有者:合规与审计部门
  • 数据管理员(Steward):信息安全治理团队
  • 技术负责人:数据平台/日志管道团队
  • 系统托管方:SIEM/日志平台团队
  • 支持与联系方式:请在目录中维护具体联系人与服务工单入口

版本与变更管理

  • 架构版本化(schema_version),兼容策略与变更公告
  • 字段新增采用向后兼容,删除或语义变化需发布迁移指南与冻结期
  • 定期复审事件类型与代码集,确保与政策/系统变更对齐

相关资产与视图

  • 关联维表:actor主数据、资产目录、策略与代码集
  • 派生数据集:合规审计视图(汇总与报表)、敏感访问日报、DLP告警明细
  • 血缘与依赖:见目录血缘图,涵盖上游系统与处理作业

标签与分类

  • 标签:审计、合规、访问控制、事件日志、DLP、取证
  • 数据域:治理与合规域(跨域覆盖)

名称 目录条目元数据集

简介 用于集中存储与维护数据目录中各条目的标准化元数据,支撑数据发现、治理管控、权限管理、质量评估与合规审计。该数据集是目录服务的主数据源之一,提供条目级的业务与技术属性、血缘、分级与政策映射,确保目录信息一致、可追踪、可审计。

范围与用途

  • 范围:覆盖目录内的全部可注册对象,包括数据集、表/视图、报表、指标、数据产品、管道/作业等条目。
  • 用途:
    • 为数据发现提供可搜索的、结构化的条目元信息。
    • 为数据治理提供分级、责任人、质量评分、认证状态与合规标签。
    • 为安全与合规提供访问控制对象、审计线索与政策映射。
    • 为运营与生命周期管理提供变更记录、版本状态与退役计划。

数据结构(标准字段) 以下为建议的标准字段集合,实际实现可根据组织需要裁剪或扩展:

  • entry_id(string):目录条目唯一标识。主键,必须全局唯一。
  • entry_name(string):条目名称(规范命名)。
  • entry_type(enum):对象类型(dataset/table/view/report/metric/pipeline/data_product 等)。
  • business_domain(string/enum):所属业务域或主题域(来源于域目录)。
  • business_description(string):业务释义与用途摘要。
  • technical_description(string):技术说明(来源系统、结构要点、依赖)。
  • glossary_terms(array[string]):关联术语或业务定义(指向术语表)。
  • source_system(string):来源系统或系统记录(System of Record)。
  • storage_location(string):物理/逻辑存储位置(路径、库名、模式名)。
  • lineage_upstream(array[string]):上游依赖条目 ID 列表。
  • lineage_downstream(array[string]):下游消费条目 ID 列表。
  • confidentiality_level(enum):数据分级(公开/内部/受限/机密等)。
  • pii_flag(boolean):是否涉及个人敏感信息标识(针对条目内容,而非本元数据集)。
  • regulatory_tags(array[string]):适用的监管或合规标签(如隐私、财务、医疗等范畴)。
  • data_owner(string):数据所有者(角色或团队标识)。
  • data_steward(string):数据管理员/保管人。
  • access_groups(array[string]):可访问的角色/用户组(RBAC 对象)。
  • certification_status(enum):认证状态(未认证/已认证/受控/弃用)。
  • dq_rules_applied(array[string]):应用的数据质量规则 ID(规则库引用)。
  • quality_score(number):质量评分或等级(计算与定义需一致)。
  • usage_metrics(json):使用统计(浏览、查询、订阅等聚合指标)。
  • lifecycle_stage(enum):生命周期阶段(草稿/生产/弃用/退役)。
  • retention_policy_id(string):关联的保留与归档政策标识。
  • change_request_id(string):最近一次变更申请单号(变更管理系统)。
  • created_at(datetime):条目创建时间。
  • updated_at(datetime):最近更新时间。
  • review_due_date(date):下一次治理评审到期日。
  • contact_channel(string):咨询与支持渠道(通讯录或工单入口)。
  • tags(array[string]):自由标签(支持分类/检索)。

数据血缘与来源

  • 血缘来源:通过编排平台、ETL/ELT、BI 工具与代码扫描自动采集;支持人工补充与校验。
  • 元数据来源:目录服务、数据平台 API、规则库与权限系统;本数据集不载入实际数据内容,仅存储条目层的元信息与关联引用。

刷新与时效

  • 更新模式:事件驱动(注册/变更触发)与定时同步(夜间批处理)结合。
  • 时效要求:关键字段(分级、所有者、权限、认证状态、血缘)需在变更后定义窗口内同步;超时触发治理告警。

数据质量管理

  • 完整性:entry_id、entry_name、entry_type、business_domain、data_owner、confidentiality_level 必填;非空校验。
  • 一致性:entry_type、confidentiality_level 等采用受控词表;与域目录、术语表、规则库保持引用一致。
  • 唯一性:entry_id 全局唯一;entry_name 在同一域内唯一(或提供去重策略)。
  • 及时性:updated_at 不得早于来源变更事件指定阈值;超期记录纳入异常队列。
  • 血缘完备度:lineage_upstream/lineage_downstream 对关键生产条目需覆盖率达标;缺失需标记与补录。
  • 质量评分:quality_score由规则计算(如完整性、血缘完备度、权限配置正确率);评分逻辑需在规则库中版本化。
  • 监控与处置:对完整性、及时性、血缘缺失、分级不一致等设定监控;异常进入治理工单,按SOP分派数据管理员处理并留痕。

访问与安全

  • 访问级别:本元数据集默认内部-受控;仅授权的治理、平台与审计角色具备读权限;写入通过目录服务与工作流。
  • 授权模型:RBAC/ABAC结合;变更需工单审批与双人复核;审计日志记录读取与写入操作。
  • 隐私注意:本数据集可能包含责任人/联系人标识(建议使用工号或群组标识,避免直接存储个人敏感信息);如需邮箱/姓名,遵循最小化与遮蔽策略。

合规与政策映射

  • 政策绑定:retention_policy_id、regulatory_tags 与组织的数据分级、保留与合规政策库保持引用一致。
  • 审计支持:提供变更记录、认证状态与访问组信息以支持合规审计与证据留存。
  • 数据最小化:仅存储条目级元信息与必要的治理属性,不载入或复制业务数据内容。

保留与生命周期

  • 保留策略:随条目生命周期管理;退役条目元数据保留至政策规定期限,以满足审计与回溯。
  • 归档与清理:达到保留期限后归档或清理;清理前需验证下游依赖与审计要求。

命名与版本管理

  • 命名规范:统一前缀/域-对象-环境格式,避免歧义;entry_name 与存储位置保持可追溯映射。
  • 版本控制:条目重大变更(结构、分级、所有者、认证状态)需版本化;变更原因、影响评估与审批记录入库。

角色与责任

  • 数据所有者:对分级、用途与合规负责;审批访问与变更。
  • 数据管理员/保管人:维护元数据完整性与准确性;处理质量异常与血缘补录。
  • 目录平台团队:负责采集、同步、规则执行与审计支持。
  • 合规/安全团队:定义政策与词表,监督执行与审计。

使用指引

  • 注册与变更通过目录服务或工作流提交;直接写库仅限平台服务账户。
  • 引用术语、域、规则、政策均使用标准 ID,避免自由文本造成不一致。
  • 在项目上线、变更、退役时同步更新相关字段,确保血缘与权限实时有效。

风险与控制

  • 风险:元数据缺失或滞后可能导致错误访问授权与合规风险。
  • 控制:强制非空与受控词表校验、自动血缘采集与异常告警、变更审批与操作审计。

备注 本数据集为治理关键基础设施的一部分,任何结构调整、字段语义变更需提前评估对目录、权限、审计与质量计算的影响,并按变更管理流程执行。

Dataset name Conversion Funnel Events (转化漏斗事件集)

Summary Event-level dataset that standardizes and records user progression through defined conversion funnel stages across web and mobile channels. Designed for measuring funnel performance, diagnosing drop-off points, and supporting compliant attribution and optimization.

Business definition and scope

  • Scope: Digital interactions that contribute to user progression from initial touch to conversion (e.g., purchase or signup). Includes on-site/app events and, where available, upstream acquisition signals from ad platforms.
  • Use cases: Funnel conversion rate analysis, stage-to-stage drop-off, time-to-conversion, cohort progression, channel/campaign attribution, A/B test evaluation.
  • Exclusions: System logs unrelated to user behavior, raw third-party network logs without consent, and any data lacking provenance or required metadata.

Grain

  • One record per discrete event occurrence.
  • Events are ordered by event_time within a user/session context.
  • Canonical event_name values are versioned and governed (see “Event taxonomy”).

Event taxonomy (canonical funnel stages) Events are standardized to the following categories; implementation may include additional subtypes (versioned).

  • Acquisition: ad_impression, ad_click
  • Engagement: session_start, page_view, content_view, product_view
  • Consideration: add_to_cart, wishlist_add
  • Intent: checkout_start, payment_start
  • Conversion: purchase_complete (order_placed), signup_complete (if applicable)
  • Post-conversion: refund_requested, order_cancelled (optional, for lifecycle analysis)

Core schema (logical fields)

  • Event identifiers
    • event_id: globally unique identifier (UUID)
    • event_name: canonical event type (enum; governed list)
    • event_version: schema version of the event payload
  • Time
    • event_time: UTC timestamp of event occurrence
    • ingestion_time: UTC timestamp of data ingestion
  • Identity and session
    • user_id: persistent authenticated identifier (nullable before login)
    • anonymous_id: device/browser-scoped identifier for unauthenticated users
    • session_id: server-side session identifier (governed sessionization rules)
  • Source and context
    • platform: web, iOS, Android, other
    • device_type, os, app_version, browser
    • page_url / screen_name (web/app context)
    • geo_country, geo_region (derived; IP anonymized or truncated per policy)
  • Marketing and attribution
    • source, medium, campaign_id, channel, term, content (UTM-standardized)
    • click_id (e.g., gclid/fbclid) where available
    • attribution_model (e.g., last_non_direct_click), attribution_window_days
  • Commerce (if applicable)
    • product_id, sku, quantity, unit_price, currency
    • order_id, order_value, tax, shipping, discount_value
  • Consent and privacy
    • consent_analytics, consent_advertising (boolean flags)
    • consent_timestamp, consent_source
    • data_subject_region (e.g., EU/US/Other)
  • Quality and lineage metadata
    • source_system, pipeline_name, transform_version
    • is_duplicate (computed flag)
    • data_quality_score (composite metric; see checks below)

Keys and uniqueness

  • Primary key: event_id (unique across the dataset).
  • Secondary keys: (user_id, event_time) and (session_id, event_time) for ordered analysis.
  • Deduplication: Exact dedup on event_id; domain-specific fuzzy dedup for purchases (e.g., identical order_id + user_id + order_value within a short window) per governed rule.

Ordering and sessionization

  • Events are ordered by event_time within user_id or anonymous_id and session_id.
  • Sessionization rules are defined and versioned (e.g., inactivity timeout, cross-tab continuity) and must be consistently applied across pipelines.

Identity resolution

  • Identity stitching policy links anonymous_id to user_id upon authentication; cross-device resolution must use governed deterministic keys (e.g., login) or approved probabilistic methods with documented confidence.
  • Identity graph changes are versioned; downstream consumers should not assume stability of historical joins without reprocessing windows.

Attribution rules

  • Default reporting uses governed attribution_model and attribution_window_days. Changes require change control approval.
  • Last-touch vs. first-touch and multi-touch models must be explicitly selected and documented in downstream reports.
  • Direct traffic handling and bot/excluded traffic are defined by governance filters (see “Quality controls”).

Data quality controls

  • Schema conformance: event_name must map to a governed schema; mandatory fields cannot be null (e.g., event_id, event_time, platform).
  • Primary key uniqueness: no duplicate event_id.
  • Referential integrity: product_id and order_id must exist in mastered product/order dimensions when present.
  • Timeliness: data availability meets defined SLA (e.g., T+1 for analytics; near-real-time for operational use if applicable).
  • Volume and distribution checks: anomaly detection on event counts by platform, channel, and stage.
  • Reasonableness checks: monotonic funnel progression rates within expected bounds; spike detection on conversion events.
  • Bot/invalid traffic filters: governed lists and heuristics applied consistently (e.g., known bot UA, data center IPs).

Lineage and sources

  • Source systems may include client-side SDKs, server-side event collection, commerce backend, and ad tech platforms (distinctly tagged via source_system).
  • Transformations: normalization, enrichment (UTM parsing, geo derivation), identity stitching, deduplication, and schema versioning recorded in transform_version metadata.

Refresh cadence

  • Batch ingestion and/or streaming pipelines depending on source. Cadence is documented per source_system and pipeline_name.
  • Late-arriving data and backfill policy are governed; reprocessing windows are documented in change logs.

Privacy and compliance

  • Classification: Contains personal data; treat as Confidential/Restricted per Data Classification Policy.
  • Legal basis: Analytics processing must respect consent_analytics; advertising use must respect consent_advertising, applicable regulations (e.g., GDPR/UK GDPR/CPRA), and internal policy.
  • Data minimization: Store only necessary identifiers; IP must be anonymized/truncated per policy.
  • Data subject rights: Deletion requests cascade to this dataset; lineage tags must support discoverability and purge.
  • Cross-border transfer: Follow organizational data transfer controls; ensure appropriate safeguards for EU data where applicable.

Access and usage restrictions

  • Access is role-based with least privilege. Raw event-level identifiers are restricted; use aggregated views for broad access.
  • Prohibited: Re-identification, combining with external datasets without approved DPIA/assessment, individual-level decisioning without appropriate legal basis and approvals.

Retention and purging

  • Retention follows the Data Retention Policy; raw events retained only as long as necessary for stated purposes. Aggregated derivatives may have different retention.
  • Legal hold and deletion workflows are supported via lineage and subject resolution.

Stewardship and ownership

  • Data Owner: Designated business owner (e.g., Growth/Marketing Analytics).
  • Data Steward: Appointed steward responsible for policy conformance, metadata completeness, and change control.
  • Technical Owner: Data engineering team responsible for pipelines and quality enforcement.

Change management

  • Breaking changes (schema, event_name taxonomy, sessionization rules, attribution defaults) require governance review, version increment (event_version), deprecation schedule, and communication to consumers.
  • Backward-compatible changes are documented and tagged; downstream consumers should validate impact.

Known limitations

  • Ad impression completeness and deduplication vary by partner capabilities and consent.
  • Cross-device identity stitching may be incomplete, affecting multi-touch attribution.
  • Offline conversions are included only if integrated and consented; otherwise, conversion metrics reflect digital channels.

Usage guidance

  • Compute funnel metrics by ordering events within a consistent identity and session scope; avoid mixing user_id and anonymous_id without applying the identity stitching policy.
  • Use governed attribution fields rather than custom logic to ensure consistency across reports.
  • For regulatory compliance, always filter analyses by consent flags when the purpose involves analytics or advertising.

示例详情

解决的问题

  • 面向数据治理、数据平台与合规团队,快速生成标准化、可审计的数据目录条目描述,解决“写不全、写不准、写不一”的痛点。
  • 让 AI 扮演资深数据治理专家,基于指定数据集名称与业务语境,输出清晰、客观、可复用的目录内容,覆盖政策、质量、合规与管理四大维度。
  • 以统一的技术写作风格,保证用词一致与结构清晰,提升跨部门沟通效率与数据可发现性,减少重复沟通与返工。
  • 支持多语言输出与批量生产,助力在审计、迁移、盘点、项目上线等关键节点,分钟级补齐与优化目录描述。
  • 通过“准确、专注、可执行”的专业产出,降低合规风险与信息偏差,帮助团队从试用快速走向规模化使用与制度化落地。

适用用户

数据治理负责人

制定统一目录描述标准,快速核对质量与合规要点,推动跨部门按规范发布数据集,形成可审计的数据资产。

数据目录管理员

一键生成条目描述,自动补齐来源、维护者、更新频率与使用边界,批量上线目录,减少手工编辑与返工。

业务数据分析师

通过清晰目录说明理解适用范围、限制与风险提示,快速选数与申请权限,避免误用,提高分析交付效率。

特征总结

一键生成数据目录条目描述,覆盖来源、用途、维护者与更新频率,迅速上线。
智能理解业务上下文,自动提炼数据价值与使用边界,降低误用风险。
自动嵌入治理要素:质量指标、合规提示与访问控制要点,审计更省时更高效。
支持多语言一致输出与统一写作风格,跨地区协作顺畅,沟通无歧义。
可按模板与参数定制章节结构,适配不同部门规范,降低维护与培训成本。
自动识别敏感信息类型并给出处理建议,帮助合规落地,减少违规风险。
生成可直接复制到目录平台的结构化说明,减少反复沟通与编辑时间。
明确维护责任与变更流程,输出生命周期提示,使数据目录持续更新可追溯。
为新数据集接入提供标准填报引导,显著缩短从准备到发布全流程用时。
提供版本对比与更新摘要,目录改动一目了然,便于回溯与审阅更放心。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

AI 提示词价格
¥20.00元
先用后买,用好了再付款,超安全!

您购买后可以获得什么

获得完整提示词模板
- 共 249 tokens
- 2 个可调节参数
{ 数据集名称 } { 输出语言 }
获得社区贡献内容的使用权
- 精选社区优质案例,助您快速上手提示词
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59