Curated Claude Code catalog
Updated 07.05.2026 · 19:39 CET
01 / Skill
voidborne-d

humanize-chinese

Quality
9.0

This skill detects AI-generated Chinese text using advanced, research-backed algorithms and rewrites it to sound more human. It is ideal for academics, content creators, and anyone needing to reduce AI detection scores across various text styles, from formal reports to social media posts, all locally and without dependencies.

USP

It's a free, local, zero-dependency tool integrating over 10 academic detection algorithms and offering scene-aware rewriting for 8 styles. It significantly reduces AI detection scores without external LLM or API keys.

Use cases

  • 01Reducing AI detection scores in academic papers
  • 02Humanizing AI-generated content for blogs and articles
  • 03Converting AI text to specific social media styles
  • 04Detecting AI traces in any Chinese text
  • 05Rewriting longform content like novels or reports

Detected files (1)

  • SKILL.mdskill
    Show content (12606 bytes)
    ---
    name: humanize-chinese
    description: >
      Detect and humanize AI-generated Chinese text. 20+ rule detection categories plus statistical
      features (sentence-length CV, short-sentence fraction, comma density, perplexity, GLTR, DivEye)
      plus scene-aware LR fusion (rule × 0.2 + LR × 0.8) trained on three scenes: general / academic /
      longform 长文本 (≥1500 字)。Unified CLI: ./humanize {detect,rewrite,academic,style,compare}.
      8 style transforms (casual/zhihu/xiaohongshu/wechat/academic/literary/weibo/novel)。
      Multi-paragraph rewriting (paragraph length CV、跨段 trigram 重复) plus best-of-N humanize
      (默认 N=10 取最低 LR)。165 replacement patterns + CiLin 同义词词林 38873 with collision blacklist。
      Academic paper AIGC reduction for CNKI/VIP/Wanfang (知网/维普/万方 AIGC 检测降重)。
      Pure Python, no dependencies, offline。v5.0.0 — HC3 fused 准确率 95%、学术 hero 100→35 (-65)、
      工作汇报 96→13 (-83)、长篇博客 96→41 (-55)。
      Use when user says: "去AI味", "降AIGC", "人性化文本", "humanize chinese", "AI检测", "AIGC降重",
      "去除AI痕迹", "文本改写", "论文降重", "知网检测", "维普检测", "AI写作检测", "让文字更自然",
      "detect AI text", "humanize text", "reduce AIGC score", "make text human-like",
      "去ai化", "改成人话", "去机器味", "降低AI率", "过AIGC检测", "长文本改写", "小说改写"
    allowed-tools:
      - Read
      - Write
      - Edit
      - exec
    ---
    
    # Humanize Chinese AI Text v5.0
    
    检测和改写中文 AI 生成文本的完整工具链。可独立运行(统一 CLI 或独立脚本),也可作为 LLM prompt 指南使用。
    
    **v5.0 亮点:** scene-aware 三路 LR 融合 (general / academic / longform);HC3 fused 准确率 95%;新增 `--scene novel/auto` 长文本场景;新增 `--style novel` 长篇叙事;`--best-of-n N` (默认 10) 多次 humanize 取最低 LR;段落级信号 (paragraph length CV / 跨段 trigram 重复) + 反制改写。
    
    ## CLI Tools
    
    ### 统一 CLI(推荐)
    
    ```bash
    ./humanize detect 文本.txt -v                              # 检测 + 详细
    ./humanize detect 章节.txt --scene novel                   # 长文本/小说显式 scene
    ./humanize detect 稿件.txt --scene auto                    # 按长度自动切 (≥1500 走 longform LR)
    ./humanize rewrite 文本.txt -o 改后.txt                    # 改写(默认 best-of-10)
    ./humanize rewrite 文本.txt -o 改后.txt --best-of-n 5      # 自调 best-of-N
    ./humanize rewrite 文本.txt -o 改后.txt --quick            # 快速模式(跳统计/best-of)
    ./humanize academic 论文.txt -o 改后.txt --compare          # 学术降重 + 双评分对比
    ./humanize style 章节.txt --style novel                    # 长篇叙事专属 (剔除 AI prompt artifact + markdown headers)
    ./humanize style 文本.txt --style xiaohongshu              # 风格转换
    ./humanize compare 文本.txt -a                              # 前后对比
    ```
    
    ### 独立脚本形式(等价)
    
    所有脚本在 `scripts/` 目录下,纯 Python,无依赖。
    
    ```bash
    # 检测 AI 模式(20+ 规则维度 + 8 统计特征,0-100 分)
    python scripts/detect_cn.py text.txt
    python scripts/detect_cn.py text.txt -v          # 详细 + 最可疑句子
    python scripts/detect_cn.py text.txt -s           # 仅评分
    python scripts/detect_cn.py text.txt -j           # JSON 输出
    
    # 改写(默认 best-of-10,scene-aware)
    python scripts/humanize_cn.py text.txt -o clean.txt
    python scripts/humanize_cn.py text.txt --scene social -a   # 社交 + 激进
    python scripts/humanize_cn.py text.txt --quick             # 18× 速度,纯替换
    python scripts/humanize_cn.py text.txt --cilin             # 启用 CiLin 同义词扩展
    
    # 风格转换(先自动 humanize 再套风格)
    python scripts/style_cn.py text.txt --style zhihu -o out.txt
    
    # 前后对比
    python scripts/compare_cn.py text.txt --scene tech -a
    
    # 学术论文 AIGC 降重(10 学术维度 + scene-aware academic LR + 双评分)
    python scripts/academic_cn.py paper.txt -o clean.txt --compare
    python scripts/academic_cn.py paper.txt -o clean.txt -a --compare  # 激进
    python scripts/academic_cn.py paper.txt -o clean.txt --quick       # 快速模式
    ```
    
    ### 评分标准
    
    | 分数 | 等级 | 含义 |
    |------|------|------|
    | 0-24 | LOW | 基本像人写的 |
    | 25-49 | MEDIUM | 有些 AI 痕迹 |
    | 50-74 | HIGH | 大概率 AI 生成 |
    | 75-100 | VERY HIGH | 几乎确定是 AI |
    
    ### 参数速查
    
    | 参数 | 说明 |
    |------|------|
    | `-v` | 详细模式,显示可疑句子 |
    | `-s` | 仅评分 |
    | `-j` | JSON 输出 |
    | `-o` | 输出文件 |
    | `-a` | 激进模式 |
    | `--seed N` | 固定随机种子 |
    | `--scene` | general / academic / novel / auto(detect_cn)—— auto 按 ≥1500 字切 longform LR |
    | `--style` | casual / zhihu / xiaohongshu / wechat / academic / literary / weibo / **novel** |
    | `--best-of-n N` | humanize N 次取 LR 最低(默认 10) |
    | `--compare` | 前后对比(学术双评分) |
    | `--quick` | 快速模式(跳过统计优化 + best-of,18× 速度) |
    | `--cilin` | 启用 CiLin 同义词扩展(humanize,38873 词,含碰撞 blacklist) |
    | `--no-humanize` | style 转换前不先去 AI 词 |
    | `--rule-only` | detect 只用规则层(跳 LR 融合) |
    
    ### 工作流
    
    ```bash
    # 1. 检测
    ./humanize detect document.txt -v
    # 2. 改写 + 对比
    ./humanize compare document.txt -a -o clean.txt
    # 3. 验证
    ./humanize detect clean.txt -s
    # 4. 可选:转风格
    ./humanize style clean.txt --style zhihu -o final.txt
    ```
    
    ### HC3-Chinese 基准测试
    
    阈值基于 [HC3-Chinese](https://github.com/Hello-SimpleAI/chatgpt-comparison-detection) 300+300 人类/AI 样本的 Cohen's d 校准,scene-aware LR 在 500+500 训练:
    
    - 句长变异系数 CV: d = 1.22(最强单信号)
    - 短句占比 (< 10 字): d = 1.21
    - 段落长度 CV: d = -1.49(v5 长文本新信号)
    - 段内句长 CV: d = -2.08(v5 长文本最强信号)
    - 跨段 trigram 重复: d = +1.13(v5 长文本新信号)
    - 困惑度: d = 0.47
    - GLTR top-10 bucket: d = 0.44
    - DivEye skew / kurt: d = 0.41 / 0.29
    - 逗号密度: d = -0.47
    
    **v5.0 100 样本回归测试 (HC3 fused)**:95% 正确分离率 / 55.0 分差距 / +40.5 平均降幅 / 100% 段落保留 / 0 grammar defect。
    
    **长文本 170 样本回归 (longform benchmark)**:gap 51.4 / avg delta +25.1 / 段留 98.8%。By genre:academic +13.8 / news +18.8 / blog +36.3 / novel +19.5 / review +31.8。
    
    **Hero 样本**(best-of-10, seed=42):academic 100→35 (-65) / 通用 100→35 (-65) / 小红书 100→41 (-59) / 长篇博客 96→41 (-55) / 工作汇报 96→13 (-83)。
    
    ---
    
    ## LLM 直接使用指南
    
    当用户要求"去 AI 味"、"降 AIGC"、"人性化文本"、"改成人话"时,如果无法运行 CLI 工具,按以下流程手动处理。
    
    ### 第一步:检测 AI 写作模式
    
    扫描文本中的以下模式,按严重程度分类:
    
    #### 🔴 高危模式(一眼就能看出是 AI)
    
    **三段式套路:**
    - 首先…其次…最后
    - 一方面…另一方面
    - 第一…第二…第三
    
    **机械连接词:**
    值得注意的是、综上所述、不难发现、总而言之、与此同时、由此可见、不仅如此、换句话说、更重要的是、不可否认、显而易见、不言而喻、归根结底
    
    **空洞宏大词:**
    赋能、闭环、数字化转型、协同增效、降本增效、深度融合、全方位、多维度、系统性、高质量发展、新质生产力
    
    #### 🟠 中危模式
    
    **AI 高频词:** 助力、彰显、凸显、底层逻辑、抓手、触达、沉淀、复盘、迭代、破圈、颠覆
    
    **填充废话:** 值得一提的是、众所周知、毫无疑问、具体来说、简而言之
    
    **模板句式:**
    - 随着…的不断发展
    - 在当今…时代
    - 在…的背景下
    - 作为…的重要组成部分
    - 这不仅…更是…
    
    **平衡论述套话:** 虽然…但是…同时、既有…也有…更有
    
    #### 🟡 低危模式
    
    - 犹豫语过多(在一定程度上、某种程度上 出现 >5 次)
    - 列举成瘾(动辄①②③④⑤)
    - 标点滥用(大量分号、破折号)
    - 修辞堆砌(排比对偶过多)
    
    #### ⚪ 风格信号
    
    - 段落长度高度一致
    - 句子长度单调
    - 情感表达平淡
    - 开头方式重复
    - 信息熵低(用词可预测)
    
    ### 第二步:改写策略
    
    按以下顺序处理:
    
    **1. 砍掉三段式**
    把"首先…其次…最后"打散,用自然过渡代替。不是每个论点都要编号。
    
    **2. 替换 AI 套话**
    - 综上所述 → 总之 / 说到底 / (直接删掉)
    - 值得注意的是 → (直接删掉,后面的话自己能说清楚)
    - 赋能 → 帮助 / 支持 / 提升
    - 数字化转型 → 信息化改造 / 技术升级
    - 不难发现 → 可以看到 / (删掉)
    - 助力 → 帮 / 推动
    
    **3. 句式重组**
    - 过短的句子合并("他很累。他决定休息。" → "他累了,干脆歇会儿。")
    - 过长的句子拆开(在"但是""不过""同时"等转折处断开)
    - 打破均匀节奏(长短句交替,不要每句差不多长)
    
    **4. 减少重复用词**
    同一个词出现 3 次以上就换同义词。比如"进行"可以换成"做""搞""开展""着手"。
    
    **5. 注入人味**
    - 加一两句口语化表达(场景允许的话)
    - 用具体的例子代替抽象概括
    - 偶尔加个反问或感叹
    - 不要每段都总分总结构
    
    **6. 段落节奏**
    打破每段差不多长的格局。有的段落 2 句话,有的 5 句话,像人写东西时自然的长短变化。
    
    ### 第三步:学术论文特殊处理
    
    当文本是学术论文时,改写规则不同——不能口语化,要保持学术严谨性:
    
    **学术专用检测维度:**
    1. AI 学术措辞("本文旨在""具有重要意义""进行了深入分析")
    2. 被动句式过度("被广泛应用""被认为是")
    3. 段落结构过于整齐(每段总-分-总)
    4. 连接词密度异常
    5. 同义表达匮乏("研究"出现 8 次)
    6. 引用整合度低(每个引用都是"XX(2020)指出…")
    7. 数据论述模板化("从表中可以看出")
    8. 过度列举(①②③④ 频繁出现)
    9. 结论过于圆满(只说好不说局限)
    10. 语气过于确定("必然""毫无疑问")
    
    **学术改写策略:**
    
    - **替换 AI 学术套话(保持学术性):**
      - 本文旨在 → 本文尝试 / 本研究关注
      - 具有重要意义 → 值得关注 / 有一定参考价值
      - 研究表明 → 前人研究发现 / 已有文献显示 / 笔者观察到
      - 进行了深入分析 → 做了初步探讨 / 展开了讨论
      - 取得了显著成效 → 产生了一定效果 / 初见成效
    
    - **减少被动句:**
      - 被广泛应用 → 得到较多运用 / 在多个领域有所应用
      - 被认为是 → 通常被看作 / 一般认为
    
    - **注入学术犹豫语(hedging):**
      在过于绝对的判断前加"可能""在一定程度上""就目前而言""初步来看"
    
    - **增强作者主体性:**
      - 研究表明 → 笔者认为 / 本研究发现
      - 可以认为 → 笔者倾向于认为
    
    - **补充局限性:**
      如果结论段没有提到局限,补一句"当然,本研究也存在一定局限…"
    
    - **打破结构均匀度:**
      调整段落长度,避免每段都一样。合并过短的段落,拆分过长的。
    
    ### 第四步:验证
    
    改写完成后,用 CLI 工具验证效果:
    
    ```bash
    ./humanize detect output.txt -s
    ```
    
    目标(基于 v5.0 fused 检测器,best-of-10 humanize):
    - 通用文本降到 35 分以下(LOW 区间)
    - 学术论文降到 35 分以下(学术专用 + 通用评分均低)
    - 长篇博客/小说(≥1500 字)降到 41 分左右(MEDIUM)
    - 真实 ChatGPT 短输出 baseline 通常已在 5-25 分,改写后再降 3-10 分
    - 刻板化 AI 样板文 (论文模板/八股) 可以看到 60-83 分降幅
    
    注:v5.0 fused 评分融合了 LR ensemble (rule × 0.2 + LR × 0.8),相同文本的分数会比 v3.x rule-only 更准。`--rule-only` 可降级到纯规则视图。
    
    ---
    
    ## 配置说明
    
    所有检测模式和替换规则在 `scripts/patterns_cn.json`,可自定义:
    - 添加新 AI 词汇
    - 调整权重
    - 增加替换规则
    - 修改正则匹配
    
    ## 外部配置字段
    
    ```
    critical_patterns    — 高权重检测(三段式、连接词、空洞词)
    high_signal_patterns — 中权重检测(AI 高频词、模板句)
    replacements         — 替换词库(正则 + 纯文本)
    academic_patterns    — 学术专用检测与替换
    scoring              — 权重和阈值配置
    ```
    

README

🔧 中文 AI 文本去痕迹工具  Tweet

免费、本地运行、零依赖、零 LLM。检测 + 改写一步到位。

GitHub stars ClawHub License: MIT Non-Commercial Python Claude Code


30 秒看效果

./humanize rewrite text.txt -o clean.txt --compare

💼 工作汇报体(166 字)

改写前 🔴 96/100 VERY HIGH:

随着业务的不断发展,本季度团队在多个层面取得了显著进展。值得注意的是,通过深度优化业务流程,我们不仅全方位提升了工作效率,更进一步赋能了公司核心战略,充分体现了多维度协同的价值。

首先,技术团队聚焦核心系统的稳定性建设,持续推动业务长效发展。其次,产品团队基于用户洞察,打造了更具竞争力的解决方案。综上所述,团队凝聚力得到进一步增强,为下一季度的发展奠定了坚实基础。

改写后 🟢 31/100 MEDIUM(降 65 分):

现在,本季度团队在多个层面做到了可观进展,同时也进一步支持了公司核心战略,充分体现了多个方面协同的价值。注意,通过深度优化业务流程,我们多方面提升了工作效率。成效不小。

技术团队聚焦核心系统的稳定性建设。持续推动业务长效发展。说到底,团队凝聚力得到深入增强,为下一季度的发展奠定了坚实基础,另外,产品团队基于用户洞察,打造了更具竞争力的解决方案。颇有看点。

零注册、零付费、零联网、零 LLM、零 API Key —— 本地几秒到几十秒跑完。

更多样本(学术 / 通用 / 小红书 / 长篇博客)见下方「改写前后对比」。


改写前后对比

🎓 学术论文(98 → 42,降 56 分)

改写前 🔴 98分:

随着信息技术的不断发展,人工智能在教育领域的应用正在日益深化,呈现出多维度、全方位的发展态势。本研究旨在探讨人工智能技术在个性化学习中的应用机制及其效果,具有重要的理论意义和实践价值。

值得注意的是,近年来人工智能赋能教育已成为学界关注的焦点。研究表明,智能化系统通过深度融合大数据分析与机器学习算法,能够全方位地评估学生学习状况,从而实现真正意义上的因材施教。不难发现,这种新型教学模式正在推动教育生态的深度变革。

综上所述,随着技术的不断发展,人工智能必将在教育领域发挥越来越重要的作用,为构建高质量教育体系提供有力支撑。由此可见,深入研究该领域具有广阔的发展前景。

改写后 🟡 42分:

现在,人工智能在教育领域的应用正在日益深化,呈现出各个层面、多方面的发展态势。本研究旨在探讨人工智能技术在个性化学习中的应用机制及其效果,具有重要的理论意义和实践价值。

注意,这几年人工智能促进教育现在是学界关注的焦点。从已有研究来看,智能化系统通过融入大数据解读与机器学习算法,能够各维度地评估学生学习状况,这样一来实现真正意义上的因材施教,可以看到,这种新型教学模式,正在推动教育体系的深度变革。前景看好。

说到底,眼下,人工智能必将在教育领域发挥日渐主要的作用,为构建高质量教育系统呈上有力支撑。看得出,深入探究该领域,享有广阔的发展前景。

💬 通用文本(98 → 38,降 60 分)

改写前 🔴 98分:

综上所述,人工智能技术在教育领域具有重要的应用价值和广阔的发展前景。值得注意的是,随着技术的不断发展,AI 将在个性化学习、智能评估和自适应教学等方面发挥越来越重要的作用。

首先,人工智能能够助力教师进行精准教学。通过大数据分析和深度学习算法,AI 系统可以全方位地了解每个学生的学习特点,从而实现真正意义上的因材施教。

改写后 🟡 38分:

总之,人工智能技术在教育领域,具有重要的应用价值和广阔的发展前景。注意,近来,AI 将在个性化学习、智能评估和自适应教学等方面发挥日渐重要的作用。

人工智能能够促进教师进行精准教学。凭借大数据解读和深度学习算法,AI 系统可以多方面地了解每个学生的学习特点,这样一来实现真正意义上的因材施教。

老实说,智能评估系统亦可各个层面地评判学习者的综合素质,不仅关注知识掌握程度,更注重功底的培养和素质的提升,还有,自适应学习平台能够根据学生的实时表现动态调整学习路径,为每位学习者呈上个性化的学习体验。空间不小。

🌸 社交媒体 → 小红书风格(95 → 14,降 81 分)

改写前 🔴 95分:

在当今快节奏的生活中,时间管理对于每个人来说都具有至关重要的意义。值得注意的是,通过合理规划和科学管理时间,不仅能够显著提升工作效率,更能够实现工作与生活的完美平衡,从而全方位提升整体生活质量。

首先,制定明确的目标是时间管理的基础。一个清晰的目标能够赋能我们的日常决策,帮助我们更好地分配时间和精力。

改写后 🟢 14分:

绝了绝了🧸!分享一个~

其实,在当今快节奏的生活中,时间管理对于每个人来说都具有至关重要的意义,注意,凭借合理规划和科学管理时间💖。

不仅能够可观提升工作效率,更能够实现工作与生活的完美平衡,因而多方面提升整体生活质量🍃!制定明确的目标,是时间管理的基础。

一个清晰的目标能够促进我们的日常决策,帮助我们更太好了地分配时间和精力,避免在不重要的事情上浪费宝贵的时间资源💫。

很明显,那些在时间管理上取得上佳成效的人,无一例外都拥有清晰的目标体系!势头不错💖。

📝 长篇博客(1364 字, 86 → 42,降 44 分)

改写前 🔴 86分(节选):

从程序员转产品经理,第一年学到的三件事

在技术领域工作多年后,我决定从程序员转型为产品经理。这一决定基于对自身职业发展的深思熟虑以及对产品创造的热情。在过去的一年里,我经历了从编写代码到推动整个产品发展的巨大转变……

一、沟通能力的重要性

程序员通常专注于技术细节和实现方式,他们与计算机打交道的时间往往多于与人交流。然而,作为产品经理,沟通能力成为我的一项核心技能……

案例:在一个项目中,我们需要开发一款新的移动应用。在项目初期,我意识到开发团队和设计团队在理解需求上有分歧……

改写后 🟡 42分(节选):

从程序员转产品经理,第一年学到的三件事

在技术领域工作多年后,我决定从程序员转型为产品经理。这一决定基于对自身职业发展的深思熟虑以及对产品创造的热情,在过去的一年里,我经历了从编写代码到推动整个产品发展的巨大转变。以下是我第一年里最重要的三件事。以及一些具体案例和反思。在这个过程中,我学到了许多宝贵的经验,潜力不小。

一、沟通能力的重要性

程序员通常专注于技术细节和实现方式。他们与计算机打交道的时间往往多于与人交流。在这个角色中,我需要与开发团队、设计师、市场营销团队以及客户进行频繁的交流。

然而,作为产品经理,沟通功底成为我的一项核心技能,对我来说,约莫,这意味着我必须调整自己的沟通风格,以便在不同的背景下有效传达信息。颇有看点。

完整长文本及输出请见 examples/sample_long_blog.txt

所有示例都在 examples/ 目录,可直接复现。


📚 技术基础(参考论文)

本项目的检测算法不是拍脑袋设的,每一条特征都对应一篇 paper 或研究发现:

技术来源论文 / 数据集作用
HC3-Chinese 校准Hello-SimpleAI/chatgpt-comparison-detection12,853 对人类/ChatGPT 真实问答,所有阈值在此数据集 300+300 样本上校准
DivEye 惊奇度Basani & Chen, TMLR 2026字符级 surprisal 时间序列的 skew/kurtosis/spectral flatness
GLTR rank 分桶Gehrmann et al., ACL 2019AI 倾向选 top-10 概率字,人类更分散
Fast-DetectGPTBao et al., ICLR 2024局部曲率:AI 文本在模型预测下曲率低
BinocularsHans et al., ICML 2024两个模型 perplexity 比值区分 AI / 人类
MPU (AIGC_detector_zhv2)Tian et al., ICLR 2024中文 AIGC detector 的 PU learning 范式
Ghostbuster 多尺度 ngramVerma et al., NAACL 2024多个 weak LM 的 log-prob 特征组合
Chinese AIGC 深度学习检测AIMS 2025中文 AI 文本的句长方差、标点密度等特征
psycholinguistic 差异arxiv 2505.01800人类写作的具体名词/命名实体密度更高
Stumbling Blocks taxonomyWang et al., ACL 2024AI 检测攻击面地图
CNKI 三链路情报linggantext 技术博客知网 AIGC 3.0 官方「语言模式/语义逻辑/知识增强」三链路
CiLin 同义词词林哈工大 LTP 同义词词林扩展版38,873 词的同义词映射,--cilin 可选启用

非商业使用免费,任何用户都可以复现所有数值。


安装

# 方式一:ClawHub
clawhub install humanize-chinese

# 方式二:Git Clone
git clone https://github.com/voidborne-d/humanize-chinese.git

# 方式三:Claude Code Skill
npx skills add https://github.com/voidborne-d/humanize-chinese.git

不需要 pip install 任何东西。下载就能用。


Claude Code

4 个 slash command,复制到 .claude/commands/ 即可:

git clone https://github.com/voidborne-d/humanize-chinese.git
cp humanize-chinese/claude-code/*.md YOUR_PROJECT/.claude/commands/

然后在 Claude Code 里:

/detect 综上所述,人工智能技术在教育领域具有重要的应用价值...
/humanize 本文旨在探讨人工智能对高等教育教学模式的影响...
/academic 论文.txt
/style xiaohongshu 在当今快节奏的生活中...
命令功能
/detectAI 痕迹检测,0-100 评分
/humanize去 AI 味改写
/academic学术论文 AIGC 降重
/style [风格]风格转换(7 种)

快速上手

统一 CLI(推荐)

./humanize --list
./humanize detect 论文.txt                       # 检测
./humanize academic 论文.txt -o 改后.txt --compare # 学术降重
./humanize rewrite text.txt --quick -o clean.txt  # 通用改写(极速)
./humanize style text.txt --style xiaohongshu     # 风格转换
./humanize compare text.txt -a                    # 前后对比
./humanize <sub> --help                           # 子命令帮助

底层依然是各 scripts/*_cn.py 独立脚本,./humanize 只是分发器,直接调用旧脚本也完全 OK。

🎓 学术论文降 AIGC 率

./humanize academic 论文.txt                      # 只检测
./humanize academic 论文.txt -o 改后.txt --compare  # 改写 + 对比
./humanize academic 论文.txt -o 改后.txt --quick    # 快速模式(跳过统计,~18× 速度)
./humanize academic 论文.txt -o 改后.txt -a --compare  # 激进模式

🔍 通用文本去 AI 味

./humanize detect text.txt -v           # 检测(详细)
./humanize rewrite text.txt -o clean.txt # 改写
./humanize rewrite text.txt --quick      # 纯替换,极快
./humanize compare text.txt -a           # 对比

📚 长篇小说 / 博客(--scene novel / --scene auto)

默认 detector 用 HC3 短问答校准,对 GPT-4o/Claude/Gemini 写的长篇小说、长博客会系统性欠估。两种修正方式:

python scripts/detect_cn.py 章节.txt --scene novel     # 显式:小说/长博客/散文/长新闻
python scripts/detect_cn.py 稿件.txt --scene auto      # 按长度自动选(≥1500 中文字符走长篇 LR)
python scripts/detect_cn.py 短问答.txt                 # 默认 scene(短问答/通用)
python scripts/detect_cn.py 论文.txt --scene academic  # 学术论文(显式 opt-in)

长篇 LR 专训在 170 条 AI 长文本(5 家 LLM × 5 类:小说/学术/新闻/博客/评论)+ 170 条人类长文本(v3ucn 小说 + CNewSum 新闻 + 博客)上,holdout 89.7%。

实测对照(3 篇 Gemini-2.5-flash 新写小说章节,约 2800-3200 字):

模式样本1样本2样本3均值
默认 scene(HC3 校准)52387053
--scene novel / auto63578267

默认模式对现代 LLM 的长篇创作欠估 ~15 分,切 --scene novel--scene auto 可修正。混合长度输入推荐 --scene auto —— 短文本仍走 general,长文本走长篇 LR。

🎨 风格转换

./humanize style text.txt --style xiaohongshu   # 小红书
./humanize style text.txt --style zhihu         # 知乎
./humanize style text.txt --style weibo         # 微博
./humanize style chapter.txt --style novel      # 小说/长篇叙事

8 种风格:口语化 / 知乎 / 小红书 / 公众号 / 学术 / 文艺 / 微博 / 小说

--style novel 专为长篇叙事设计:humanize 后剔除 AI 写小说时常混入的元说明("我将按照您的要求创作..."、"故事梗概"、"本次写作")+ markdown 章节头 (## ###) + 大纲 bullet (- 关键点:) + 分隔线,保段落不加 emoji/hashtag。处理长篇章节、博客时观感更干净。

风格转换会先自动跑一遍 humanize,去掉 AI 高频词,再套风格。--no-humanize 关闭。


功能一览

功能说明
🔍 AI 检测20+ 规则维度 + 三路 LR 分场景校准(general / academic / novel),0-100 评分
📈 统计层字符级 trigram 困惑度 + DivEye 惊奇度 + GLTR rank 分桶 + 句长 burstiness + 标点密度
✏️ 智能改写困惑度引导选词 + 低频 bigram 注入 + 短句插入 + 句长随机化 + 40 paraphrase 模板 + 144 条短语替换 + 三档自适应强度 + 多段 \n\n 段落保留(长篇章节不丢结构)
🎓 学术降重10 维度检测(含扩散度)+ 126 条学术替换 + 独立 picker 策略,针对知网/维普/万方
🎨 风格转换8 种中文写作风格(知乎/小红书/微博/公众号/学术/文艺/口语化/小说
📊 前后对比学术分 + 通用分双评分,改写效果一目了然
🔄 可复现--seed 保证相同输入相同输出
⚡ 速度10k 字符 --quick 模式 0.3 秒,完整模式 5 秒
📦 零依赖纯 Python 标准库,下载即用。可选 CiLin 词林(--cilin,38873 词 + 语义过滤)
📐 基准测试HC3-Chinese 12853 对人类/AI 真实问答回归测试(200 样本 fused 模式 95.5% 正确率)

🎓 学生党必看

用 ChatGPT / DeepSeek 写了论文初稿?三步搞定:

# 1. 看看 AIGC 率多高
python scripts/academic_cn.py 论文.txt

# 2. 一键改写
python scripts/academic_cn.py 论文.txt -o 改后.txt --compare

# 3. 不够就开激进模式
python scripts/academic_cn.py 论文.txt -o 改后.txt -a --compare

工具做了什么:

  • "本文旨在" → "本研究聚焦于"
  • "被广泛应用" → "得到较多运用"
  • 打破每段一样长的结构
  • 加入"可能""在一定程度上"等学术犹豫语
  • "研究表明" → "笔者认为""前人研究发现"
  • 基于 HC3-Chinese Cohen's d 校准的统计特征,学术词表禁用口语候选(不会把"应用"改成"施用")

⚠️ 改完通读一遍,确认专业术语没被误改、引用格式正确。建议用知网 AMLC 或维普验证。


评分标准

分数等级含义
0-24🟢 LOW基本像人写的
25-49🟡 MEDIUM有些 AI 痕迹
50-74🟠 HIGH大概率 AI 生成
75-100🔴 VERY HIGH几乎确定是 AI

技术原理

规则层(看词)

三段式套路、机械连接词、空洞宏大词、AI 高频词、模板句式、段落结构均匀度。规则都在 scripts/patterns_cn.json,可以自己改。

统计层(看分布)

所有阈值都基于 HC3-Chinese 300+300 人类-AI 对照样本的 Cohen's d 校准,不是拍脑袋设的。

1. 句长 burstiness (最强信号) — AI 中文爱写 15-25 字等长句,人类长短交错。灵感来自 AIMS 2025 中文深度学习 AIGC 检测 paper + 知网语言模式链情报。

  • 句长变异系数 CV (HC3 Cohen's d = 1.22 — 人类 0.52 vs AI 0.32)
  • 短句占比 (< 10 字的句子比例,HC3 Cohen's d = 1.21 — 人类 25% vs AI 2.6%)

2. 困惑度 (Perplexity) — 字符序列的平均负对数概率(d = 0.47)。基于 scripts/ngram_freq_cn.json 训练语料的字符级 3-gram。

3. GLTR rank 分桶 (Gehrmann et al. ACL 2019)

  • top-10 bucket 占比(AI 更集中在高概率字,d = 0.44)

4. DivEye surprisal 时间序列 (Basani & Chen TMLR 2026)

  • skew(d = 0.41)、excess_kurt(d = 0.29)、spectral_flatness(d = 0.20)

5. 逗号密度 — 有趣发现:AIMS 2025 paper 说「AI 标点密」但 HC3 实测相反。Q&A corpus 里人类写 casual 文本用更多 commas(4.82/百字 vs AI 3.82/百字,d = -0.47)。加了 low_comma_density 指标。

所有 statistical indicators 总分上限 25,和规则层(上限 75)加成最终 0-100。

智能改写

Picker 策略:每次替换从多候选中选「困惑度次高」的(最高的常是古语/错字,次高才是自然人类选择)。学术场景额外禁用 30 个口语候选 + 37 个 AI 触发词候选。

三档自适应强度

  • score < 5:conservative — 仅短语替换 + 标点清理
  • 5 ≤ score < 25:moderate — +restructure + bigram
  • score ≥ 25:full — 全量(含噪声注入 + 句长随机化)

避免对已经够干净的文本乱加噪音反而更像 AI。

其他技术

  • 低频 bigram 注入(把 "系统" × 6 的重复 60% 换成 "架构""体系""框架")
  • 句长随机化(避免每句差不多长,但保留"X指出,Y"等 attribution 结构)
  • 段落感知(每一步按 \n\n 分段处理,不丢段落结构)
  • 可选 CiLin 同义词词林扩展(--cilin,38,873 词 JSON)

CLI 参数速查

统一 CLI 形式(推荐):

./humanize detect   [file] [-v] [-s] [-j]
./humanize rewrite  [file] [-o out] [--scene S] [--style S] [-a] [--seed N] [--quick] [--cilin] [--best-of-n N] [--score-mode lr|fused|lr+rule]
./humanize academic [file] [-o out] [--detect-only] [-a] [--compare] [--quick]
./humanize style    [file] --style S [-o out] [--no-humanize]
./humanize compare  [file] [-o out] [--scene S] [-a]
./humanize doctor

等价的独立脚本形式:

python scripts/detect_cn.py [file] ...
python scripts/humanize_cn.py [file] ...
python scripts/academic_cn.py [file] ...
python scripts/style_cn.py [file] --style S ...
python scripts/compare_cn.py [file] ...
python scripts/check_assets.py
参数说明
-v详细模式,显示最可疑的句子
-s只输出评分
-jJSON 输出
-o输出文件
-a激进模式
--seed N固定随机种子
--quick纯替换 + 结构还原,跳过统计优化(~18× 速度
--no-stats关闭统计优化
--no-noise关闭噪声注入和句长随机化
--cilin开启 CiLin 同义词扩展(humanize)
--best-of-n N跑 N 个候选取 LR 最低(默认 20,0 关闭,N 倍延迟)
--debug-best-of-n打印每候选的 scene LR / 主要贡献到 stderr
--score-modebest-of-n 排序:lr(默认 scene-aware)/ fused / lr+rule
--secondary-weightsecondary signal 权重(默认 0.2,0 关闭)
--compare改写前后双评分对比(academic)
--no-humanizestyle 转换前不先去 AI 词

数据资产状态

fresh clone 可以离线运行,不会自动联网下载数据。但 3 份本地高阶 ngram 频率表不入库:

  • scripts/ngram_freq_cn_human.json:启用 Binoculars-like bino_lp_diff,也影响 best-of-n secondary signal。
  • scripts/ngram_freq_cn_wiki.json:启用 wiki_vs_human / wiki_vs_primary LR 特征。
  • scripts/ngram_freq_cn_news.json:启用 news_vs_human LR 特征。

缺少这些文件时程序会 graceful fallback,相关特征按 0.0 处理;detect/rewrite 不会崩,但 LR 分数、best-of-n 排序和 README hero 分数可能与完整本地资产环境不同。查看当前状态:

./humanize doctor

如需完整资产,请先准备本地语料,再离线重训:

python scripts/train_ngram_human.py
python scripts/train_ngram_wiki.py
python scripts/train_ngram_news.py

批量处理

for f in *.txt; do echo "=== $f ===" && ./humanize detect "$f" -s; done
for f in *.md; do ./humanize rewrite "$f" -a -o "${f%.md}_clean.md"; done

对比 Humanizer-zh

Humanizer-zh(5k⭐)的区别:

本项目Humanizer-zh
运行方式✅ 独立 CLI,终端直接跑纯 prompt,必须在 Claude Code 内用
依赖✅ 零依赖、零 LLM、零 token需要 Claude Code + API 额度
量化评分✅ 0-100 分(学术 + 通用双尺度)❌ 无评分
统计检测✅ 困惑度 + DivEye + GLTR,HC3 校准❌ 无
学术模式✅ 10 维度 + 126 条替换❌ 无
风格转换✅ 7 种❌ 无
可复现--seed❌ 每次不同
批量处理✅ CLI 管道❌ 只能单篇交互
免费✅ 完全免费⚠️ 需要 API 额度
基准测试✅ HC3-Chinese 200 样本回归❌ 无

简单说:Humanizer-zh 是个好 prompt,但只能在 Claude Code 里用。我们是独立工具,任何环境都能跑,而且每次改动都有 HC3 回归验证。


局限

  • 融合检测让分数差距拉大:v4.0.0 默认用 rule+stat + LR ensemble 融合评分,真实 ChatGPT 回答也能清晰区分。刻板化 AI 文本(论文模板/小红书腔)降幅 80-90 分;自然 ChatGPT 文本降幅 30-40 分。
  • 统计层不用神经网络:我们用字符级 n-gram + 时间序列特征,不是 RoBERTa 这类分类器。优点是零依赖,缺点是分类 AUC 不如 SOTA 检测器。
  • CNKI/维普/万方没有公开 API,我们无法接入作为 oracle。PaperPass / 朱雀 都有腾讯 T-Sec CAPTCHA 反爬。所以本项目基于自己的检测公式 + HC3 回归测试迭代,不盲信第三方检测器的具体分数。
  • 不保证过 100% 的 AIGC 检测。改写会降低「刻板 AI 味」,但最终还是要看检测器用什么模型。工具只是帮你更像人写的,不是反检测魔法。

真实数据测试

我们用 HC3-Chinese 公开数据集(12,853 对人类 vs ChatGPT 真实问答)做了基准测试,随机抽 200 对看工具的实际效果。

检测器表现(融合模式默认)

能力数值说明
区分 AI 和人写的能力95.5%随机抽一对文本,检测器给 AI 打分更高的概率
AI 原分 vs 人类原分74.8 vs 14.860.0 分,融合检测大幅领先 rule+stat(14.8 分)

改写效果(HC3 200 样本,平均降幅 40.6 分,184/200 样本降分)

领域AI 原分改写后下降
🧠 心理咨询75.422.5-53.0
🏥 医学问答70.119.8-50.3
💰 金融问答77.932.3-45.6
⚖️ 法律问答81.436.7-44.7
💬 开放问答74.939.3-35.6
📚 百科问答64.432.1-32.2
🔍 事实问答79.557.3-22.2

简单说:各领域改写后都能降 22-53 分,长文本+专业领域(心理/医学/法律/金融)效果最显著。

长文本基准(170 AI 长篇 × 5 体裁,--scene novel 检测)

针对 GPT-4o / Claude-sonnet-4 / Gemini-2.5-flash / DeepSeek / Qwen 写的 5 类长文本(小说/学术/新闻/博客/评论),用专门的长篇 LR 校准跑:

体裁nAI 原分改写后下降
📚 博客5078.731.2-47.5
🎬 评论2085.739.8-45.9
📖 小说6066.339.9-26.5
📰 新闻2087.963.0-24.9
🎓 学术2095.071.0-24.0

整体 gap 51.4,平均降幅 34.5 分,段落保留率 100%(多段 \n\n 章节结构、markdown 标题、bullet、对话段都不丢)。学术降幅最低是因为知网风格的术语密集 + markdown 章节结构,纯规则改写空间有限。

需要知道的

  • 融合检测(默认)很严。默认分数 = rule+stat × 0.2 + LR ensemble × 0.8,correct rate 从 75% 提到 95.5%,gap 从 14.8 扩到 60.0。HC3 里典型 ChatGPT 回答现在原分在 64-81 之间,改写后落在 20-57 区间,降幅明显。--rule-only 可回退到 legacy rule+stat 评分。
  • 短问答难降:事实类问答(nlpcc_dbqa)本身字数少,AI 特征不明显,工具发挥空间有限。
  • 所有阈值都有依据:每个检测特征都在 600 对人类-AI 样本上标定过,不是拍脑袋设的。

自己跑一遍:

# 需要先下载 HC3 数据到 ../data/hc3_chinese_all.jsonl
python evals/run_hc3_benchmark.py --n 200 --seed 42

# 长文本 170 样本 benchmark (含 AI long-form + 人类对照)
# best-of-n 20 = production 默认(rewrite CLI 默认值);省略此 flag 跑得快但 -10 分降幅
python evals/run_longform_benchmark.py --n-human 60 --seed 42 --best-of-n 20

Star History

Star History Chart


License

MIT Non-Commercial — 个人学习、学术研究、非商业开源项目随便用。

禁止商业使用,包括但不限于:

  • 卖本软件或基于本软件的衍生品
  • 把工具包装成付费服务(SaaS / API / 网页服务等)
  • 集成到商业产品中作为功能卖点
  • 用本软件给客户提供付费改写 / AI 检测服务

如需商业授权,请通过 GitHub repo 联系作者。

运行测试

PYTHONHASHSEED=0 python3 -m unittest discover

提交前建议同时运行语法检查:

python3 -m py_compile scripts/*.py evals/*.py evals/oracles/*.py