智能软件构建与测试专家

54 浏览
3 试用
0 购买
Oct 18, 2025更新

本提示词专为软件项目开发场景设计,能够自动化处理软件构建和测试流程。通过智能分析项目配置和测试需求,生成详细的构建报告、测试结果和调试建议。核心亮点包括:支持多种项目类型和测试框架的智能适配,提供分步骤的构建过程监控,生成可视化的测试覆盖率报告,自动识别构建失败原因并提供修复方案,支持持续集成环境下的自动化工作流。该提示词能够显著提升开发效率,确保代码质量,降低人工测试成本,适用于个人开发、团队协作和企业级CI/CD流水线等多种场景。

项目构建报告

构建状态

部分成功(完成环境与配置诊断;实际构建与测试未在当前会话中执行,未生成真实产物与统计)

构建详情

  • 构建开始时间:未执行
  • 构建持续时间:未执行
  • 构建命令:
    • 环境与依赖安装:npm ci
    • 代码检查:npm run lint
    • 构建打包:npm run build
  • 输出产物(预期):
    • 构建:dist/(含源映射,如开启),产物版本标识(如有)
    • 测试:coverage/lcov.info、coverage/(HTML 报告,如启用)、测试结果 JSON/JUnit(如配置)
    • 缓存:node_modules 缓存(CI/本地缓存策略)

构建日志摘要

  • 诊断结论(基于提供的配置项):
    • 语言与包管理:Node + npm;建议 Node 版本 ≥ 18 LTS,npm ≥ 9,使用 npm ci 确保可重复安装
    • 编译:TypeScript 编译 target=es2020,建议开启 incremental(tsBuildInfo)提升二次构建速度
    • 测试工具:jest + ts-jest;需存在正确的 jest 配置以支持 TypeScript 转换
    • 质量门禁:预期在测试中开启 coverage 阈值(≥85)并报告 lcov
    • 触发策略:pre-commit,fail-fast,基于改动文件选择执行(changed-files)
  • 关键检查要点与可能风险:
    • 确保 package.json 存在 scripts:build、lint、test,并与给定命令一致
    • 确保安装版本兼容:jest 29.x 与 ts-jest 29.x,TypeScript 5.x,Node 18+(不匹配将导致转换或运行错误)
    • ESM/CJS 兼容:如项目使用 "type": "module",需在 ts-jest 中正确配置 useESM;否则测试运行时可能报错
    • 覆盖率收集范围:collectCoverageFrom 应明确到 src/**/*.ts,避免因测试文件或声明文件影响覆盖统计
    • fail-fast:在 jest 中需启用 --bail 以匹配策略 mode=fail-fast
    • 改动文件选择:使用 jest --findRelatedTests 搭配暂存区文件列表(git diff --name-only --cached),避免全量测试拖慢 pre-commit

测试执行报告

测试统计

  • 总测试用例数:未执行
  • 通过用例数:未执行
  • 失败用例数:未执行
  • 跳过用例数:未执行
  • 测试通过率:未执行

测试覆盖率

  • 代码行覆盖率:未执行
  • 分支覆盖率:未执行
  • 方法覆盖率:未执行
  • 类覆盖率:未执行

失败用例详情

未执行,无数据

质量评估与建议

问题分析

  • 当前会话未实际执行构建与测试,无法生成真实统计与产物;为遵循测试伦理,未伪造结果
  • 根据配置项,主要质量风险集中在以下方面:
    1. Jest + ts-jest 转换链配置不当(ESM/CJS、tsconfig、babel 互斥或混用)可能导致测试无法启动或转换失败
    2. 覆盖率阈值(85)与 changed-files 策略组合时,覆盖率可能波动大(小范围改动引入低覆盖的新文件)
    3. pre-commit 上全量 lint 与测试可能影响提交效率,需精细化选择改动文件
    4. 缓存策略未落地到 CI(仅本地),持续集成耗时可能较长
    5. fail-fast 会加速反馈,但可能掩盖批量失败的全貌(需在 pre-push 或 CI 全量执行)

改进建议

  • 配置建议(示例,无项目源信息):
    1. package.json scripts(核对,无需泄露项目代码)
      • "lint": "eslint . --ext .ts,.tsx"
      • "build": "tsc -p tsconfig.json"
      • "test": "jest --coverage --coverageReporters=lcov,text-summary"
    2. jest 配置要点:
      • preset: "ts-jest"
      • testEnvironment: "node"
      • transform:由 ts-jest 处理 TypeScript
      • collectCoverage: true
      • collectCoverageFrom: ["src/**/*.ts"]
      • coverageReporters: ["lcov", "text-summary"]
      • coverageThreshold: { global: { lines: 85, branches: 85, functions: 85, statements: 85 } }
      • bail: true(匹配 fail-fast)
      • testPathIgnorePatterns:过滤构建产物与工具目录(如 dist/、node_modules/)
      • 如使用 ESM:"extensionsToTreatAsEsm": [".ts"], 并在 ts-jest 配置中启用 useESM
    3. tsconfig 要点:
      • target: "ES2020"
      • module:与运行环境一致(ESNext 或 CommonJS)
      • outDir: "dist"
      • sourceMap: true(建议)
      • incremental: true, tsBuildInfoFile: ".tsbuildinfo"
      • esModuleInterop: true(视依赖情况)
  • 执行策略落地(pre-commit,changed-files,fail-fast):
    • 使用 Husky 配置 pre-commit 钩子(示意命令):
      • npx husky add .husky/pre-commit "npm run lint:changed && npm run test:changed"
    • lint 仅检查改动文件(示例命令):
      • "lint:changed": "git diff --name-only --cached -- '.ts' '.tsx' | xargs -r eslint"
    • 测试仅运行受改动影响的测试:
      • "test:changed": "FILES=$(git diff --name-only --cached -- 'src/**/*.ts'); [ -z "$FILES" ] || npx jest --bail --coverage --findRelatedTests $FILES"
    • 全量测试在 pre-push 或 CI 进行(确保完整质量门禁)
  • 缓存与 CI 优化:
    • 本地:npm ci + TypeScript incremental
    • GitHub Actions(思路):actions/setup-node 缓存 npm,缓存 .tsbuildinfo,工件上传 coverage/lcov.info
    • 并行化:jest --maxWorkers=50%(本地),CI 中根据 runner 核心数调整
  • 覆盖率稳定性与报告:
    • 通过 collectCoverageFrom 明确覆盖范围,仅统计 src 目录
    • 为新文件提供最小可行单元测试模板,防止 pre-commit 阶段 coverage 低于阈值
    • lcov 输出至 coverage/lcov.info,供 SonarQube/Codecov 等工具消费
  • 诊断与修复提示(fix-hints):
    1. 测试无法启动:检查 ts-jest 与 jest 版本匹配、tsconfig module/target 与项目运行时一致;ESM 项目开启 useESM
    2. 覆盖率低于 85:增加针对新增/低覆盖文件的单测;确保 collectCoverageFrom 不包含测试或声明文件
    3. 构建失败(类型错误):开启 incremental 并修复声明冲突;对第三方依赖添加 @types 包
    4. 运行缓慢:使用 --findRelatedTests 在 pre-commit;全量在 CI;调整 --maxWorkers
    5. lcov 缺失:确认 coverageReporters 包含 "lcov" 且目录可写;CI 工件上传路径为 coverage/

风险评估

  • 当前风险等级:中
    • 原因:尚未执行真实构建与测试;配置中含阈值与 fail-fast,若未正确落地可能导致提交受阻或质量门禁失效
    • 缓解:按上述建议落地脚本与配置;在 CI 执行一次全量构建/测试验证并回传报告

——

为生成完整的真实报告,请在本地或 CI 按以下步骤执行并回传结果(不包含任何敏感源码):

  1. 环境准备
    • node -v(建议 ≥18)
    • npm -v(建议 ≥9)
    • npm ci
  2. 构建与静态检查
    • npm run lint
    • npm run build
  3. 测试执行(单元测试,覆盖率)
    • npm test -- --coverage --coverageReporters=lcov,text-summary --bail
    • 建议同时输出 JSON 结果:npx jest --coverage --json --outputFile=jest-results.json
  4. 回传文件/片段(仅日志与报告,不含源码)
    • 构建与测试终端日志(截取关键错误/警告)
    • coverage/coverage-summary.json 与 coverage/lcov.info
    • jest-results.json(如生成) 我将基于真实数据生成最终的详细构建与测试报告、统计与针对性改进方案。

项目构建报告

构建状态

未执行(离线方案与门禁配置已制定;请按下方命令运行并回传构建/测试日志与报告,以生成最终数据)

构建详情

  • 构建开始时间: 待采集
  • 构建持续时间: 待采集
  • 构建命令:
    • 基线构建与门禁一步执行(CI建议):
      • ./gradlew clean spotlessCheck test jacocoTestReport jacocoTestCoverageVerification --info --scan
    • 如存在集成测试 sourceSet(integrationTest):
      • ./gradlew clean spotlessCheck test integrationTest jacocoTestReport jacocoTestCoverageVerification --info --scan
  • 输出产物: 多模块可复用的可重现 JAR
    • app/build/libs/app-.jar
    • core/build/libs/core-.jar

构建日志摘要

待采集(请回传以下文件以生成摘要)

  • Gradle 控制台输出:build-logs.txt(建议使用 --info 或 --stacktrace)
  • 构建扫描链接(如使用 --scan):URL
  • 关键目录:
    • app/build/reports/
    • core/build/reports/
    • app/build/libs/, core/build/libs/

测试执行报告

测试统计

  • 总测试用例数: 待运行统计
  • 通过用例数: 待运行统计
  • 失败用例数: 待运行统计
  • 跳过用例数: 待运行统计
  • 测试通过率: 待运行统计

测试覆盖率

  • 代码行覆盖率: 待生成(阈值门禁 80%)
  • 分支覆盖率: 待生成
  • 方法覆盖率: 待生成
  • 类覆盖率: 待生成

覆盖率报告位置(默认 Jacoco):

  • 子模块:/build/reports/jacoco/test/html/index.html, /build/reports/jacoco/test/jacocoTestReport.xml
  • 聚合(如配置 jacocoRootReport):build/reports/jacoco/root/html/index.html

失败用例详情

待采集(请回传以下文件)

  • /build/test-results/test/*.xml
  • /build/reports/tests/test/index.html
  • 如有集成测试:/build/test-results/integrationTest/*.xml

质量评估与建议

问题分析

当前根据配置与最佳实践的静态评估(未含实际运行数据):

  1. 多模块覆盖率聚合与门禁
    • 仅执行 jacocoTestReport 通常生成子模块级报告;需要聚合与统一门禁以匹配阈值 80%。否则 CI gate 可能不精确。
  2. 集成测试未显式出现在命令中
    • 输入 scope 包含 unit,integration,但命令只有 test jacocoTestReport。若有 integrationTest sourceSet,应新增 integrationTest 任务与覆盖率合并。
  3. 风险驱动测试(changed_modules)
    • 仅在改动模块运行测试可提速,但需配置受影响模块追踪与上游依赖触发;否则可能遗漏跨模块回归。
  4. Lint 门禁与 -Xlint:all
    • 打开全部 lint 可能产生大量警告;如无消除策略或基线,门禁(spotless + lint)可能频繁阻塞。
  5. 可重现构建
    • 需确保归档任务设置 preserveFileTimestamps=false 与 reproducibleFileOrder=true,以保证 JAR 比特级可重复;否则 reproducible: true 要求无法兑现。
  6. JUnit 5 平台
    • test.useJUnitPlatform() 在所有子模块都需开启;否则测试可能被跳过或不一致。
  7. 覆盖率校验任务
    • jacocoTestCoverageVerification 未配置类/包排除项时,生成代码或样例代码会影响阈值判断。

改进建议

  1. Gradle 与插件通用配置(根项目)
    • Java 17 与编译选项:
      • java.toolchain.languageVersion=17
      • tasks.withType(JavaCompile).configureEach { options.compilerArgs += ['-Xlint:all','-Werror'] }
    • 测试平台:
      • tasks.withType(Test).configureEach { useJUnitPlatform(); testLogging { events "passed","skipped","failed" } }
    • 可重现归档:
      • tasks.withType(AbstractArchiveTask).configureEach { preserveFileTimestamps = false reproducibleFileOrder = true }
    • Spotless 门禁:
      • 在 subprojects 配置 com.diffplug.spotless 的格式化规则,并启用 spotlessCheck 于 CI 门禁
    • Jacoco 与门禁:
      • subprojects { apply plugin: 'jacoco' }
      • 在每个子模块开启 jacocoTestReport 并注册 jacocoTestCoverageVerification,阈值 line >= 0.80
      • 配置聚合任务(root):
        • jacocoMerge 收集所有子模块 test.exec 或 *.ec
        • jacocoRootReport 生成统一 HTML/XML 报告
    • 覆盖率排除示例(防止生成代码、DTO 降低覆盖率):
      • classDirectories.setFrom(files(classDirs).filter { exclude('/generated/','/Dto','/Config') })
  2. 集成测试 sourceSet(如存在)
    • 在每个需要的模块添加 integrationTest sourceSet 与任务:
      • configurations { integrationTestImplementation.extendsFrom(testImplementation) }
      • tasks.register('integrationTest', Test) { description="Runs integration tests"; useJUnitPlatform(); shouldRunAfter(test) }
    • 将 integrationTest 的执行数据并入覆盖率聚合
  3. 风险驱动测试执行(changed_modules)
    • 使用 Gradle task 输入参数或 CI 脚本计算改动模块(git diff --name-only),映射到 Gradle 子项目路径
    • 策略:
      • 快速回归:仅运行改动模块 test/integrationTest
      • 门禁前置:始终运行 spotlessCheck
      • 合并/主干分支:运行全量测试与聚合覆盖率
  4. CI 门禁流(示例顺序)
    • spotlessCheck → test/integrationTest(按风险策略) → jacocoTestReport → jacocoMerge/rootReport → jacocoTestCoverageVerification(聚合或逐模块) → 产物签名/上传
    • 覆盖率阈值:line >= 80%,如不达标则 fail build
  5. 性能与稳定性
    • 启用 Gradle build cache 与并行:--build-cache --parallel
    • 设置 --scan 以生成构建扫描分析瓶颈与 flaky 测试
  6. 报告产出与归档
    • 测试报告:/build/reports/tests/test/index.html
    • 覆盖率报告:/build/reports/jacoco/test/html/index.html 与 root 聚合
    • Lint 报告:spotlessApply 前后差异(CI 中仅使用 spotlessCheck)
    • 将上述报告作为 CI artifacts,PR 中展示关键信息(覆盖率、失败用例摘要)

如需示例命令矩阵(GitHub Actions):

  • 触发:push/pr 到主分支与受保护分支
  • 步骤:
    • actions/setup-java@v4(Java 17)
    • ./gradlew clean spotlessCheck test jacocoTestReport jacocoTestCoverageVerification --build-cache --parallel --info --scan
    • 收集 artifacts(测试与覆盖率 HTML/XML)

风险评估

  • 当前状态:未知(未运行实际构建与测试)
  • 风险来源:
    • 覆盖率聚合与门禁未验证,可能导致阈值 80% 不生效或误判
    • 集成测试未纳入执行命令,可能漏测
    • -Xlint:all 与 spotless 门禁在遗留代码库上易产生大量阻塞
  • 建议风险等级:中(基于配置复杂度与门禁严格度;实际风险需以运行数据确认)

以下为一次性执行与数据回传清单(便于生成最终报告):

  1. 运行命令:
    • 基线:./gradlew clean spotlessCheck test jacocoTestReport jacocoTestCoverageVerification --info --scan
    • 如有 integrationTest:./gradlew clean spotlessCheck test integrationTest jacocoTestReport jacocoTestCoverageVerification --info --scan
  2. 回传文件/链接:
    • 控制台日志(文本)
    • 构建扫描链接(如启用)
    • 测试报告目录:/build/reports/tests/test/
    • 覆盖率报告目录与 XML:/build/reports/jacoco/test/
    • 如已配置聚合:build/reports/jacoco/root/
    • 失败测试结果 XML:/build/test-results/**

收到上述数据后,我将生成包含:

  • 实际构建状态与关键日志摘要
  • 测试统计与失败用例定位
  • 覆盖率(行/分支/方法/类)与门禁结果
  • 定位性调试建议与性能优化清单
  • 风险等级的最终评估与放行建议(是否可合并/发布)

项目构建报告

构建状态

部分成功(已完成项目分析与可复现的环境/流水线配置;未实际运行构建与测试以避免生成虚假结果。运行后本报告将自动填充真实数据)

构建详情

  • 构建开始时间
    • N/A(尚未执行)
  • 构建持续时间
    • N/A(尚未执行)
  • 构建命令
    • 本项目为纯 Python(build: none),无编译构建步骤;提供可执行的打包与测试命令(按矩阵环境运行):
    • 本地(Linux/macOS)
      • python3 -m venv .venv && source .venv/bin/activate
      • pip install -U pip wheel
      • pip install -U pytest pytest-cov pytest-xdist pytest-rerunfailures flake8 requests
      • 可选打包验证:pip wheel . -w dist
      • 测试执行:
        • pytest -m "regression or compat" -n auto --cov=src --cov-report=html --cov-report=json:reports/coverage.json --cov-fail-under=90 --reruns 1 --durations=10 -rA --junitxml=reports/junit.xml
    • 本地(Windows PowerShell)
      • py -3.10 -m venv .venv; ..venv\Scripts\Activate.ps1
      • python -m pip install -U pip wheel
      • python -m pip install -U pytest pytest-cov pytest-xdist pytest-rerunfailures flake8 requests
      • 可选打包验证:python -m pip wheel . -w dist
      • 测试执行同上
    • CI(GitHub Actions 示例,含矩阵运行与夜间批处理)
      • .github/workflows/ci.yml:
        • name: CI
        • on:
          • push
          • pull_request
          • schedule:
            • cron: "0 2 * * *" # nightly batch at 02:00 UTC
        • jobs:
          • test:
            • runs-on: ${{ matrix.os }}
            • strategy:
              • fail-fast: false
              • matrix:
                • os: [ubuntu-latest, windows-latest]
                • python-version: [3.8, 3.9, 3.10]
            • steps:
              • uses: actions/checkout@v4
              • uses: actions/setup-python@v5 with: python-version: ${{ matrix.python-version }}
              • name: Install deps run: | python -m pip install -U pip wheel python -m pip install -U pytest pytest-cov pytest-xdist pytest-rerunfailures flake8 requests
              • name: Lint run: flake8 .
              • name: Optional package build run: python -m pip wheel . -w dist
              • name: Test run: | pytest -m "regression or compat" -n auto
                --cov=src --cov-report=html --cov-report=json:reports/coverage.json
                --cov-fail-under=90 --reruns 1 --durations=10 -rA
                --junitxml=reports/junit-${{ matrix.os }}-${{ matrix.python-version }}.xml
              • name: Upload coverage HTML uses: actions/upload-artifact@v4 with: name: coverage-${{ matrix.os }}-${{ matrix.python-version }} path: htmlcov
              • name: Upload junit + json coverage uses: actions/upload-artifact@v4 with: name: reports-${{ matrix.os }}-${{ matrix.python-version }} path: reports
  • 输出产物
    • 预期产物(运行后生成):
      • dist/*.whl(若启用打包验证)
      • reports/junit-*.xml(测试结果)
      • htmlcov/(HTML 覆盖率报告)
      • reports/coverage.json(JSON 覆盖率报告)
      • flake8.txt(可选,静态检查结果)

构建日志摘要

  • 关键步骤与检查点(运行时请关注以下日志片段):
    • 环境准备:pip 与依赖安装成功,无冲突或版本解析失败
    • Lint:flake8 通过(无 E/F 级错误);如有违规,记录文件路径与行号
    • 打包验证:pip wheel 产物生成成功,dist 中存在预期 .whl 文件;安装并导入无 ImportError
    • 测试启动:pytest 收集用例数符合预期,-n auto 启用并行,无因共享状态导致的错误
    • 覆盖率:--cov-fail-under=90 未触发失败;htmlcov 与 coverage.json 成功生成
    • 复跑策略:--reruns 1 对失败用例进行了 1 次自动复跑;复跑后稳定性改善情况记录
    • 失败视图:-rA 打印全部结果;--durations=10 输出最慢前 10 项以辅助定位性能问题

测试执行报告

(为避免伪造数据,以下为执行后将自动填充的字段与采集方式;现为占位与采集指引)

测试统计

  • 总测试用例数
    • N/A(运行后由 pytest 收集输出与 junit.xml 解析填充)
  • 通过用例数
    • N/A
  • 失败用例数
    • N/A
  • 跳过用例数
    • N/A
  • 测试通过率
    • N/A

数据来源与生成方式:

  • 使用命令:pytest ... --junitxml=reports/junit.xml
  • 解析 junit.xml 即可统计 pass/fail/skip,并计算通过率;矩阵中每个作业生成独立 xml,最终在汇总阶段聚合

测试覆盖率

  • 代码行覆盖率
    • N/A(运行后由 coverage.json 与 htmlcov 解析填充)
  • 分支覆盖率
    • N/A(如需分支覆盖率,请在 .coveragerc 启用 [run] branch = True)
  • 方法覆盖率
    • N/A(可通过第三方工具或将函数为单位统计)
  • 类覆盖率
    • N/A(同上)

配置建议:

  • pyproject.toml 或 .coveragerc
    • [tool.coverage.run]
      • branch = true
    • [tool.coverage.report]
      • fail_under = 90
      • exclude_lines = ["if name == .main.:", "pragma: no cover"]

失败用例详情

  • 采集方式与视图(运行后生成 Top-N 失败视图,无伪造):
    • 失败 Top-N(按耗时/次数):基于 junit.xml 与 --durations=10 输出,汇总生成 top-n 列表
    • 每项包含:用例名称、失败堆栈摘要、标记(regression/compat)、平台与 Python 版本、是否因复跑而成功
  • 当前状态:N/A(尚未执行)

质量评估与建议

问题分析

  • 风险点(基于项目与策略配置的静态分析):
    • 并行执行风险:pytest-xdist 并行下,若测试使用临时文件/网络端口/环境变量未隔离,可能出现偶发失败
    • 网络依赖:requests 如在测试中直连外部网络,易导致波动与 CI 不稳定;应使用 mock(如 responses 或 requests-mock)
    • 覆盖率门槛偏高:--cov-fail-under=90 在初期可能导致流水线红灯,应确保关键模块均有充分单测与集成测
    • 兼容性范围:包含 3.8、3.9、3.10;Python 3.8 已到达或接近 EOL,第三方库可能逐步停止支持,兼容性测试需关注
    • Windows/Linux 差异:路径、权限、换行符与临时目录路径差异可能导致测试不一致
    • 依赖未锁定:未提供约束文件(constraints 或 requirements.txt),不同时间安装的次要版本变动可能引入行为差异

改进建议

  • 测试隔离与稳定性
    • 使用 pytest fixtures 管理临时目录(tmp_path)、环境变量(monkeypatch)、伪随机种子(pytest-randomly)确保稳定
    • 网络调用统一 mock:引入 responses 或 requests-mock,禁止直接依赖外网;为兼容性测试可引入本地回环服务器或录制数据
    • 启用 flaky 检测:在 nightly 任务中加入 pytest-randomly + 两次重复运行比对结果,标记不稳定用例
  • 覆盖率与质量门槛
    • 分模块门槛:对关键模块设置更高门槛,对低风险模块设置合理门槛,避免一次性全量 90% 阈值导致阻断
    • 引入 mutation testing(如 mutmut)评估测试有效性,而不仅是覆盖率
  • 依赖与环境
    • 新增 requirements-dev.txt 与 constraints.txt,固定主要依赖的次要版本,减少“依赖漂移”
    • 缓存 pip(CI 缓存 ~/.cache/pip)以加速安装;使用 wheels 优先策略
  • 报告与可视化
    • 生成 JUnit、HTMLCov、JSON 覆盖率后,汇总矩阵结果至单页报告(可用小脚本或汇总 Job)
    • 失败 Top-N:解析所有矩阵的 junit.xml,按失败次数与耗时排序,展示 top-n,并链接至对应日志与覆盖率片段
  • 配置文件建议
    • pyproject.toml/pytest.ini(示例):
      • [tool.pytest.ini_options]
        • addopts = "-n auto --durations=10 -rA"
        • markers = ["regression", "compat"]
      • [tool.coverage.run]
        • branch = true
      • [tool.coverage.report]
        • fail_under = 90
    • pre-commit:加入 flake8、isort、black、trailing-whitespace 检查,提升一致性
  • 安全与合规(可选增强)
    • 引入 bandit、pip-audit 或 safety,在 nightly 任务中执行安全扫描

风险评估

  • 当前风险等级:中(尚未执行测试,覆盖率与兼容性真实状况未知;并行与跨平台带来潜在不稳定性)
  • 风险缓释手段:
    • 先在主分支引入 CI 并以警告门槛运行(软失败),收集一周基线数据后再启用硬门槛
    • 对失败/复跑成功的用例标记 flaky 并限期修复
    • 对 3.8 平台设立“兼容性维护窗口”,如依赖停止支持则评估是否下线 3.8

——

执行说明(可直接复用):

  1. 本地快速验证
  • 建立 venv 并安装依赖(见“构建命令”)
  • 运行:pytest -m "regression or compat" -n auto --cov=src --cov-report=html --cov-report=json:reports/coverage.json --cov-fail-under=90 --reruns 1 -rA --junitxml=reports/junit.xml
  • 查看 htmlcov/index.html 与 reports/coverage.json
  1. CI 首次启用
  • 提交 .github/workflows/ci.yml 与 pyproject.toml/.coveragerc/pytest.ini
  • 合并后观察各矩阵的 junit.xml、覆盖率与 flake8 结果
  • 生成汇总报告与 Top-N 失败列表,作为质量看板的输入

说明:本报告严格避免伪造任何构建/测试数据。完成一次实际执行后,请将产物上传(HTMLCov、JSON 覆盖率、JUnit XML),系统将自动生成“测试统计”“测试覆盖率”“失败用例详情”的真实数据填充。

示例详情

适用用户

个人开发者

在提交前一键跑构建与测试,自动获得覆盖率与失败定位;根据修复建议快速迭代,提升发布速度与稳定性。

研发团队负责人

统一团队构建规范与报告口径,设置自动化流程;基于风险与覆盖率分配任务,缩短合并与发布周期。

QA测试工程师

批量执行回归与兼容性测试,查看失败用例与定位信息;维护覆盖率目标,产出可视化质量评审报告。

解决的问题

打造一位随叫随到的“智能构建与测试专家”,帮助你把繁杂的构建与测试工作做到标准化、自动化、可视化: - 在个人开发、团队协作、企业级流水线中,自动完成项目分析、环境准备、构建执行、测试覆盖与质量评估的闭环。 - 即时定位失败原因并给出可操作的修复建议,让问题不再只停留在日志里。 - 以清晰可信的报告呈现构建状态、测试统计与覆盖率,支持管理者把控风险、开发者快速迭代、QA提升效率。 - 目标导向:缩短发布周期、减少回滚与线上事故、降低人工测试成本,提升整体交付质量与团队协作速度,驱动试用与持续付费转化。

特征总结

一键识别项目类型与测试需求,自动生成构建方案与执行计划,开箱即可验证代码改动。
分步骤监控构建进度,关键节点提醒与异常捕捉,实时给出处理建议避免卡顿与返工。
自动运行单元、集成与功能测试,汇总通过率与失败详情,快速定位问题并提供修复路径。
生成直观覆盖率可视化,明确薄弱模块与风险等级,指导优先级与迭代方向,提升发布信心。
智能分析构建失败成因,输出可操作清单与修复步骤,显著缩短排障时间,保障持续交付。
支持持续集成场景,轻松配置自动化流程与触发策略,让每次提交都获得可追踪质量结果。
报告模板可定制,按团队关注指标输出结构化结果,便于共享、复盘与合规审查。
按业务目标调优测试策略,平衡速度与覆盖深度,在紧张迭代中保持质量与节奏。
自动比对版本变更影响,突出高风险文件与依赖更新,提前预警潜在兼容问题。
支持多人协作场景,统一构建标准与报告口径,减少沟通成本,让团队步调一致。

如何使用购买的提示词模板

1. 直接在外部 Chat 应用中使用

将模板生成的提示词复制粘贴到您常用的 Chat 应用(如 ChatGPT、Claude 等),即可直接对话使用,无需额外开发。适合个人快速体验和轻量使用场景。

2. 发布为 API 接口调用

把提示词模板转化为 API,您的程序可任意修改模板参数,通过接口直接调用,轻松实现自动化与批量处理。适合开发者集成与业务系统嵌入。

3. 在 MCP Client 中配置使用

在 MCP client 中配置对应的 server 地址,让您的 AI 应用自动调用提示词模板。适合高级用户和团队协作,让提示词在不同 AI 工具间无缝衔接。

AI 提示词价格
¥5.00元 ¥20.00元
立减 75%
还剩 00:00:00
先用后买,用好了再付款,超安全!

您购买后可以获得什么

获得完整提示词模板
- 共 850 tokens
- 2 个可调节参数
{ 项目配置 } { 测试参数 }
获得社区贡献内容的使用权
- 精选社区优质案例,助您快速上手提示词
限时免费

不要错过!

免费获取高级提示词-优惠即将到期

17
:
23
小时
:
59
分钟
:
59