// Web of Science 核心集系统综述 (2015-2025)

基于 Transformer 的
半导体制造关键技术
研究热点与发展趋势

—— 基于 643 篇核心文献(含 DL 纯净集 147 篇)的系统计量分析

汇报团队项目展示组
项目标签Transformer / ViT
数据量级643 篇 (DL 147) / 5,974 被引
汇报日期2026年05月01日
01

第一部分:研究背景与问题

1.1 研究背景:Transformer 架构的跨域破圈

自 2017 年 Google 提出 Attention is all you need 以来,Transformer 凭借其卓越的全局特征捕捉能力和自注意力机制,迅速在自然语言处理(NLP)领域占据绝对统治地位。

2020 年,**Vision Transformer (ViT)** 的横空出世,打破了 CNN 在计算机视觉领域的长期垄断。这种底层架构的跃迁,正强势下沉至对精度要求极其苛刻的工业制造和复杂序列预测领域。

01

第一部分:研究背景与问题

1.2 研究背景:半导体制造的刚性 AI 需求

行业痛点挑战

半导体制造作为现代工业皇冠上的明珠,工艺节点已向亚纳米级迈进。晶圆缺陷检测的微观化、多工序良率控制的复杂性,使得传统算法与早期深度学习模型遭遇性能瓶颈。

交叉结合的破局意义

目前学术界与工业界尚缺乏 Transformer 在该交叉领域的系统性综述。本研究旨在填补这一空白,通过文献计量学手段客观识别技术跃迁路径,为企业的 AI 架构选型提供底层依据。

1.3 核心研究问题 (Research Questions)

1

Question 01

2015-2025 年间,该交叉领域的
研究热点究竟是什么?

2

Question 02

支撑这些核心热点的
知识基础(奠基文献)由哪些构成?

3

Question 03

哪些主题在近年突然兴起?未来的
前沿趋势指向何方?

4

Question 04

主导该领域发展演进的核心
研究团队、机构与国家有哪些?

02

第二部分:数据与方法

2.1 数据来源与全局概览

核心数据库Web of Science Core Collection (SCI-EXPANDED, SSCI, CPCI-S)
数据检索日期2026-04-14
目标时间跨度2015-01-01 至 2025-12-31
最终纳入文献量643 篇 | DL 纯净集 147 篇 (Plain Text 全记录导出)
全局被引总计5,974 次 (全局 h-index: 37)

2.2 核心检索式构建逻辑 (经历三轮严谨迭代)

Iteration v0

初步检索仅获 105 条

Iteration v1

扩展变体后达 512 条,含噪声

Iteration v2-Final

精准控噪锁定 643 条,DL 语义筛选得 147 条

TS = (Transformer* OR "Vision Transformer" OR ViT OR Swin OR Autoformer OR Informer OR PatchTST)
AND // 严格限定半导体相关场景(如晶圆缺陷检测、版图生成、工艺参数预测、芯片封装检测等)
TS = (semiconductor* OR wafer* OR "integrated circuit*" OR IC OR lithography OR "defect detection"...)
NOT // 精准排除 11 类干扰噪声(如电力变压器、医疗影像、NLP自然语言、语音识别、智能电网等非半导体领域)
TS = ("power transformer" OR "medical image" OR NLP OR speech OR biology OR chemistry OR "smart grid"...)

2.3 数据清洗与质控标准 (Quality Control)

  • 双重验证的【零重复】保障

    为防止数据库导出冗余,采用 CiteSpace 内置去重模块,辅以 UT (Unique Article Identifier) 与 DOI 双重交叉比对算法,确保样本绝对唯一。

  • 99%+ 的核心字段完整率

    对照 PRISMA 2020(国际系统综述与 Meta 分析首选报告标准),逐阶段记录筛选排除原因。纳入文献的 TI(标题)、AU(作者)、AB(摘要)、CR(引文)等核心分析字段数据完整度极高。

  • 52 字段数据字典与排除原因编码

    团队独立编写涵盖 52 个维度的 WoS 导出字段全量字典,建立初筛至复筛的排除原因编码表。经去重置信度、核心字段完整率、编码一致性三项自评,数据基础质量达标。

2.4 分析工具与 CiteSpace 参数配置

Toolchain

CiteSpace 6.4.1

作为本次核心计量引擎,负责执行关键词共现、共被引网络拓扑、前沿突现词检测、聚类打标与时间线演化分析。

Microsoft Excel

辅助工具,用于宏观数据透视、发文趋势的精细化统计与柱状可视化制图。

CiteSpace Parameters

时间切片 (Slice)2015-2025, 1 Year/Slice
阈值筛选策略g-index (k=25) 自适应平衡高低频节点
网络裁剪算法Pathfinder + Pruning Sliced 有效提取网络骨架特征
聚类标签提取LLR (Log-Likelihood Ratio)
03

第三部分:结果分析

3.1 发文趋势宏观分析 (2015-2025, DL 纯净集 147 篇)

图 1. 年度发文量与增长率趋势图 (2015-2025, DL 纯净集)。 主坐标轴(左)表示年度发文绝对量(柱状图),次坐标轴(右)表示较上一年发文量的相对增长率(折线图)。数据源自 Web of Science Core Collection,经 DL 语义筛选后保留 147 篇核心文献,排除 2026 年未满年数据点。2015–2017 年因年发文量基数过小(≤6 篇),增长率波动缺乏统计意义,折线不作展示。

I. 萌芽期 (2017-2021) 5 年仅 12 篇,年均不足 3 篇。Transformer 尚未进入半导体领域视野,偶有深度学习研究也以传统 CNN 为主,未见 ViT/Transformer 术语。
II. 加速期 (2022-2023) 2021 年 ViT/Swin 提出后经约 1 年学术传导延迟,Wei YX (2022) 等先驱工作"点燃"领域。2023 年发文量首次突破两位数(11 篇)。
III. 爆发期 (2024-2025) 两年累计 115 篇,占 DL 纯净集总量的 78%。受大模型热潮与 ViT 生态成熟双驱动,架构级 AI 在半导体全场景应用全面爆发。
03

第三部分:结果分析

趋势演变规律:三大阶段特征显著

萌芽期

2017-2021

2.4篇/年

5 年总计仅 12 篇 DL-半导体交叉文献。Transformer 架构尚未进入半导体领域视野,偶有涉及深度学习的论文也以传统 CNN 方法为主,无 ViT/Transformer 术语出现。

加速期

2022-2023

8.5篇/年

2021 年 ViT/Swin Transformer 提出,经过约 1 年的学术传导延迟后,2022 年起 Wei YX (2022) 等先驱学者将多尺度信息融合 Transformer 引入晶圆缺陷识别,标志着领域正式"点燃"。2023 年发文量首次突破两位数(11 篇)。

爆发期

2024-2025

57.5篇/年

两年共计 115 篇,占 DL 纯净集总量的 78%。2024 年增速 182%,2025 年延续 171% 高增速。受大模型(LLM)热潮与 ViT 生态成熟的双重驱动,架构级 AI 在半导体缺陷检测、版图生成、良率管控等全场景中的应用全面爆发。

3.2 国家与地区分布:中国处于绝对领先地位

260
40.4%

断层式领先 · 是第二名美国 (80篇) 的 3.25 倍

中国在"半导体智能制造 × AI工业赋能"交叉领域科研投入巨大,美国与韩国紧随其后。

Top 5 Countries / Regions

1. China40.4% (260)
2. USA12.4% (80)
3. South Korea8.9% (57)
4. UK5.9% (38)
5. Germany5.6% (36)

3.3 核心机构与源期刊:高校主导与 IEEE 阵地

Top 5 核心科研机构
1. Southeast University (东南大学)14 篇
2. Chinese Academy of Sciences (中科院)12 篇
3. Univ Elect Sci & Technol China (电子科大)12 篇
4. Zhejiang University (浙江大学)10 篇
5. Xi'an Jiao Tong University (西安交大)10 篇
Top 5 载文期刊 (IEEE 霸榜)
1. IEEE Trans. Power Electronics29 篇
2. IEEE Trans. Microwave Theory...24 篇
3. IEEE Access23 篇
4. IEEE Microwave & Wireless Comp.19 篇
5. IEEE Microwave & Wireless Tech.16 篇

3.4 关键词共现网络图谱

展示领域核心热点结构,图中节点大小代表共现频次,连线粗细代表关键词间关联强度。

关键词共现网络图谱

解读:关键词共现网络包含 N=387 个节点、E=649 条连线(Density=0.0084),时间跨度为 2015–2025 年。

deep learning 以绝对优势位居网络核心,节点尺寸显著大于其他关键词。紧随其后的核心节点包括 integrated circuit modeling(集成电路建模)、computational modeling(计算建模)、classification(分类)、predictive models(预测模型)、feature extraction(特征提取)以及 convolutional neural networks(卷积神经网络)

semiconductor manufacturing(半导体制造)defect detection(缺陷检测)等应用导向的关键词也已形成较大节点,反映出 AI 方法正从通用建模向具体制造场景加速渗透。网络整体呈"一超多强"格局——deep learning 为绝对核心,外围由传统器件建模、AI 算法与制造应用三类关键词交织共现。

交互式网络图(力导向拖拽 / 点击高亮 / 卡片悬停)

▼ 核心关键词识别(N=387, 按节点规模与中心性排序)

关键词中文释义网络定位
deep learning深度学习◎ 绝对核心
integrated circuit modeling集成电路建模● 传统支柱
computational modeling计算建模● 仿真核心
classification分类◈ AI桥头堡
feature extraction特征提取● 方法基础
predictive models预测模型● 应用枢纽
convolutional neural networks卷积神经网络● AI传统支柱
defect detection缺陷检测▲ 新兴增长极
semiconductor manufacturing半导体制造▲ 场景锚点

关键词聚类识别 (基于 LLR 算法)

关键词聚类图

主要聚类标签提取结果

聚类 ID聚类标签 (LLR) 及中文释义
#0lithium-ion batteries (锂离子电池)
#1machine learning (机器学习)
#2annotation (数据标注)
#3defect detection (缺陷检测)
#4inductors (电感器)
#5forward converter (正激变换器)
#6energy efficiency (能效)
#7eigenvalues and eigenfunctions (特征值与特征函数)
#8cnn (卷积神经网络)
#9parallel processing (并行处理)

* LLR 聚类共识别 10 个聚类,Modularity Q = 0.6733(> 0.3 表明网络社团结构显著),Mean Silhouette = 0.9023(> 0.7 表明聚类结果高度同质且可信)。各聚类单独 Silhouette 值未在图中直接标注。

3.4 关键词聚类深度解读

A. AI 与先进算法聚类(4/10)

10 个聚类中,4 个与人工智能方法直接相关:#1 machine learning(含 predictive models、graph neural networks、transformer model)、#2 annotation(含 deep learning、data models、data augmentation)、#3 defect detection(含 feature extraction、computer vision)和 #8 cnn(含 classification)。从时间线看,这些聚类大多在 2021–2022 年后快速壮大。

AI 相关聚类占比达 40%,与 2021 年 ViT 提出后 Transformer 架构在半导体视觉与检测任务中的快速渗透高度吻合,表明该领域正经历从传统硬件驱动到 AI 算法驱动的代际转型。其中 #2 annotation(数据标注)与 #3 defect detection(缺陷检测)作为应用导向最明确的两个聚类,是 AI 方法与半导体制造场景深度融合的直接证据。

B. 传统硬件与能源电子聚类(6/10)

传统硬件方向仍占据 6 个聚类席位:#0 lithium-ion batteries(含 semiconductor device modeling,规模最大、时间跨度最长)、#4 inductors(含 battery equalization,2019–2022 年后已无新节点)、#5 forward converter(含 semiconductor manufacturing)、#6 energy efficiency(含 integrated circuit modeling)、#7 eigenvalues and eigenfunctions(含 analytical models)与 #9 parallel processing(含 computational modeling,2020–2021 年已终止)。

核心发现:传统聚类中的 #4 inductors(电感器)与 #9 parallel processing(并行处理)在 2022 年后已完全停止产生新节点,呈现"学术死亡"状态;而 #0 lithium-ion batteries(锂离子电池)和 #6 energy efficiency(能效)虽时间跨度长,近年活跃度也在下降。传统电力电子与硬件建模方向的研究热度正在系统性衰减,学术资源正向 AI 方法聚类加速转移。

关于"为何仍有非AI聚类"的方法论说明

1. LLR 算法的统计本质

CiteSpace 的 LLR(对数似然比)聚类算法基于关键词间的统计共现模式自动提取标签,而非语义筛选或 AI 相关性判定。它忠实地反映文献关键词的"自然聚类"结构,不会因为某个聚类不包含 AI 术语就将其排除——这恰是计量分析的客观性所在。

2. 交叉领域的真实面貌

147 篇 DL 论文虽然均以 Transformer/ViT 方法为核心,但其应用场景天然涉及 lithium-ion batteries、energy efficiency、inductors 等半导体器件术语。例如一篇用 ViT 做锂离子电池缺陷检测的论文,其关键词同时包含 "vision transformer" 和 "lithium-ion batteries"——两类聚类并非互斥,而是方法论×应用场景的交叉共生。

3. 反而是重要的"对照组"

传统聚类的存在不仅不是数据清洗不足的证据,反而是有价值的内部对照:它们从 2022 年后系统性衰退(#4、#9 已停产生新节点),恰恰反衬出 AI 聚类的崛起并非统计噪声,而是真实的学术资源转移。这种"此消彼长"的结构性信号,比单纯的 AI 关键词频次增长更具说服力。

3.5 文献共被引网络 (Knowledge Base)

揭示支撑当前半导体+AI研究的底层知识基石,发掘高频被引的关键节点文献。

共被引网络图谱

解读:共被引网络包含 N=383 个节点、E=1,262 条连线(Density=0.0172),时间跨度为 2015–2025 年。

网络中最具统治力的高被引节点几乎全部来自 Vision Transformer (ViT) 及其核心变体——Dosovitskiy A (2021) 提出的 ViT 和 Liu Z (2021) 提出的 Swin Transformer 构成了整个知识网络的双核心,节点尺寸和紫色外圈(中心性指标)均最为突出。

紧随其后的关键节点包括 Carion N (2020) 的 DETR(检测 Transformer)、Touvron H (2021) 的训练策略改进,以及 Xie EZ (2021)Zhou HY (2021) 等在视觉 backbone 上的方法贡献。

在应用层面,Wei YX (2022) 的晶圆缺陷识别、Fan SKS (2024) 的 ViT 晶圆图分类增强框架以及 Yu JB (2021/2022) 的系列工作成为连接基础架构与半导体制造的桥梁节点。

网络呈现"基础架构→方法改进→制造应用"三层引文结构,该交叉领域的知识基础高度依赖 ViT/Swin 两条架构主线,应用层引文正在 2022–2024 年间快速膨胀。

交互式共被引网络(力导向拖拽 / 点击高亮 / 卡片悬停)

▼ 核心被引文献识别(N=383, 按被引频次与中介中心性排序)

被引文献 (第一作者, 年份)知识层级角色定位
Dosovitskiy A (2021) — ViTL1 奠基NLP→CV 架构桥梁
Liu Z (2021) — Swin TransformerL1 奠基层次化视觉骨干
Carion N (2020) — DETRL2 方法检测Transformer先驱
Touvron H (2021) — Training ViTL2 方法ViT训练策略改进
Xie EZ (2021) — PVTL2 方法金字塔ViT变体
Wei YX (2022) — Wafer DefectL3 应用晶圆缺陷检测先驱
Fan SKS (2024) — ViT Wafer MapL3 应用晶圆图分类增强
Yu JB (2021/2022)L3 应用半导体缺陷检测系列

共被引知识聚类群组

共被引聚类图

共 8 个聚类 | Modularity Q = 0.8411 | Mean Silhouette = 0.9522

#0 attention-guided fusion ViT

最大聚类。融合注意力的 ViT 变体构成知识基础核心,涵盖 Dosovitskiy (2021)、Liu Z (2021) 等奠基文献。

#2 mixup-based neural network

数据增强方法群。以 Mixup 为代表的少样本增强策略,在缺陷样本天然稀缺的晶圆检测中具有特殊价值。

#3 learning-based Conv-Trans

CNN-Transformer 混合架构群,代表从 CNN 到 ViT 的中间技术路线,是视觉迁移学习的过渡形态。

#4 vision transformer

纯 ViT 方法群。与 #0 互为姊妹聚类,聚焦 ViT 架构本身改进,2021 年以来引用增速最快的知识群组。

#5 advanced quality control

先进质量管控应用群。AI 视觉方法应用于半导体良率管理、工艺异常检测,连接学术与产业落地的关键知识群。

#8 generating layout pattern

版图生成应用群。利用 Transformer 序列建模自动生成芯片 Layout,代表 AI 从"检测"向"设计"环节的上游延伸。

#11 wafer defect

晶圆缺陷检测应用群。将 ViT 架构与工业级晶圆图分类任务紧密耦合,是产业需求最旺盛的知识群。

#12 large scale

大规模计算群。关注 Transformer 在工业级数据下的扩展性与部署优化,反映算法验证到产线落地的工程瓶颈。

03

第三部分:结果分析

知识基础的"CV→半导体"技术溢出路径

通过共被引聚类溯源,我们识别出一条清晰的跨领域技术溢出路径:

该交叉领域的知识基础并非内生于半导体学科,而是高度依赖通用计算机视觉(Computer Vision)的方法论输出——Dosovitskiy A (2021) 的 ViT 与 Liu Z (2021) 的 Swin Transformer 分别来自 NLP 注意力机制的视觉化迁移与层次化窗口设计,它们构成共被引网络的双核心后,通过 CNN→Conv-Transformer→ViT 的技术演化链条逐步渗透至半导体制造的缺陷检测、版图生成与良率管控场景。

下图展示了该交叉领域知识基础的技术传递链条:从 NLP 注意力机制 → 通用视觉骨干网络 → 半导体具体应用场景,耗时约 5 年完成全链路技术迁移。

NLP Attention
(Vaswani 2017)
CV Backbone
(ViT/Swin 2021)
Wafer Defect
& Layout
(2022-2025)

3.6 突现词检测时间线 (Burst Detection)

采用 Kleinberg 算法,敏锐捕捉特定时间段内被学术界突然高频关注的前沿技术词汇。

突现检测(Burst Detection)是 Kleinberg (2003) 提出的算法,通过建模词频的时序变化识别某词在特定时段是否出现了统计显著的"爆发式"增长。本研究共捕捉到 25 个突现词(2015–2025),按时间可划分为三阶段技术演进(我们也叫它"三波浪潮")。

突现强度绝对值普遍不高(最高仅 1.90),这与交叉领域仍处高速扩张初期、文献基数快速增长导致词频基线抬高的统计特征有关。

第一波 (2017–2019)

RFID、电感耦合、反激变换器等电力电子硬件术语,强度<0.7,传统器件研究微弱信号。

第二波 (2020–2022)

mathematical model (1.2) + classification (1.9) 标志 AI 分类方法规模化导入。

第三波 (2023–2025)

2024 年标志性拐点——vision transformers、ViT、super resolution、SEM 等 6 个术语同步突现。2025 年 anomaly detection 接棒延续。

突现检测时间线

突现主题三阶段技术演进解读

共检测到 25 个突现词(2015–2025),按时间顺序呈现明显的三波技术浪潮。

classification

全时段最强突现词。分类任务作为缺陷检测的核心技术形态,在 2022–2024 年间成为该领域方法论文献的第一高频主题。

Burst: 1.90
2022 - 2024

task analysis

2023–2024 年高强度突现,反映研究范式从"单一算法竞赛"向"任务级系统分析"的转向。

Burst: 1.86
2023 - 2024

scanning electron microscope (SEM)

2024 年单年爆发(Strength 1.59)。SEM 是晶圆缺陷成像的核心硬件,其突现说明 AI 研究正从通用数据集向真实半导体检测硬件数据源靠拢。

Burst: 1.59
2024 - 2024

vision transformers / ViT

2024 年集中爆发!vision transformers(1.05)、ViT(1.05)、super resolution(1.05)三个与 Transformer 视觉架构直接相关的术语同步突现。

Burst: 1.05 ×3
2024 - 2024

anomaly detection

2025 年最新突现词,代表前沿从"已知缺陷分类"向"未知异常检测"升级。同期 machine learning(0.83)也延至 2025,暗示通用 ML 方法仍在持续渗透。

Burst: 0.97
2025

三阶段技术演进总览:第一波(2017–2019)以 RFID、电感耦合、反激变换器、电荷均衡等电力电子硬件术语为主,强度<0.7。第二波(2020–2022)出现 mathematical model(1.2)与 classification(1.9),标志 AI 方法规模化导入。第三波(2023–2025)是真正的"Transformer 大爆发"——2024 年单年即有 vision transformers、ViT、super resolution、SEM、load modeling、data augmentation 共 6 个术语同步突现,2025 年由 anomaly detection 与 machine learning 接棒。突现强度绝对值普遍不高(最高 1.9),这与交叉领域仍处高速扩张初期、文献基数快速增长导致词频基线抬高的统计特征有关,并不削弱趋势信号的结构性意义。

突现主题三阶段技术演进解读

共检测到 25 个突现词(2015–2025),按时间顺序呈现明显的三波技术浪潮。突现强度绝对值普遍不高(最高 1.9),这与交叉领域仍处高速扩张初期、文献基数快速增长导致词频基线抬高的统计特征有关,并不削弱趋势信号的结构性意义。

Wave 01

2017–2019

以 RFID(射频识别)、电感耦合、反激变换器、电荷均衡等电力电子硬件术语为主。

突现强度 < 0.7

Wave 02

2020–2022

出现 mathematical model(数学模型, 1.2)与 classification(分类, 1.9)。

标志 AI 方法规模化导入

Wave 03

2023–2025

真正的"Transformer 大爆发"。6 个核心术语同步突现,由 anomaly detection(异常检测)接棒。

前沿范式升级
2022-24

classification分类

BST 1.90

全时段最强突现词。分类任务成为领域方法论文献高频主题。

2023-24

task analysis任务分析

BST 1.86

范式从"单一算法竞赛"向"任务级系统分析"重要转向。

2024

SEM扫描电子显微镜

BST 1.59

缺陷成像核心硬件,研究正从通用数据集向真实半导体硬件数据源靠拢。

2024

vision transformers/ ViT / super res.

BST 1.05

集中爆发!三个与 Transformer 视觉架构相关的术语同步突现。

2025-26

anomaly detection异常检测

BST 0.97
ML (机器学习): 0.83

最新突现,代表前沿从已知分类向"未知异常检测"升级。ML 持续渗透。

3.7 聚类时间线演化图 (Timeline View)

直观展示各大聚类(研究主题)随时间轴的演化、兴衰与技术轨道变迁。

解读:时间线演化图(2015–2025)揭示了 10 个聚类在时间轴上的兴衰分化,可清晰划分为三类命运轨迹:

第一类 · 已消亡的早期聚类:#4 inductors(2019–2022)、#9 parallel processing(2020–2021)和 #6 energy efficiency(2018–2024)已停止生成新节点。三者均属传统电力电子与硬件建模方向,学术生命周期的终结标志着研究重心向 AI 方向的结构性转移。

第二类 · 持续但边缘化的传统聚类:#0 lithium-ion batteries 是全时间线跨度最长的聚类(2018–2025),但增速已放缓;#5 forward converter(2022–2024)和 #7 eigenvalues and eigenfunctions(2020–2024)处于边缘活跃状态。这些聚类构成"学术底盘"——体量大但不再产生突破性节点。

第三类 · 高速崛起的 AI 聚类:#1 machine learning(2022–2025)、#2 annotation(2018–2025)、#3 defect detection(2022–2025)和 #8 cnn(2021–2025)是当前最具活力的四个聚类,在 2024–2025 年呈高密度节点分布。其中 #1 和 #2 活跃度延续至 2025 年,#3 defect detection 作为应用导向最明确的聚类,是 AI 与半导体制造场景深度融合的最直接证据。

聚类时间线图
04

第四部分:深度讨论与局限性

4.1 研究热点演变脉络

第一波:传统硬件主导 (2017–2019)

突现词以 RFID、电感耦合(inductive coupling)、负载调制(load modulation)、反激变换器(flyback converter)、电荷均衡(charge equalization)等电力电子与射频电路术语为主,突现强度集中在 0.67–0.69 的低位区间。时间线显示 #4 inductors、#6 energy efficiency、#9 parallel processing 等传统聚类在此阶段产生主要节点,AI 相关聚类尚未成形。该阶段半导体领域的研究话语权完全由硬件工程主导。

第二波:计算建模过渡 (2020–2022)

mathematical model(Burst 1.2,2020–2021)成为首个突破 1.0 强度的突现词。classification(Burst 1.9)与 convolutional neural networks(Burst 1.19)于 2022 年同步突现,宣告 AI 分类方法正式进入核心学术话语。时间线上,#8 cnn(2021 起)、#1 machine learning(2022 起)、#3 defect detection(2022 起)三个 AI 聚类同步诞生,#4 inductors 和 #9 parallel processing 则在此阶段产出最后一批节点后停止活跃。该阶段是从纯硬件到"硬件+AI"的范式转换临界区

第三波:Transformer 架构大爆发 (2023–2025)

2024 年成为标志性拐点——vision transformers(Burst 1.05)、ViT(Burst 1.05)、super resolution(Burst 1.05)、scanning electron microscope(Burst 1.59)、load modeling(Burst 1.05)、data augmentation(Burst 0.89)共 6 个术语在 2024 年同步突现,形成该领域史上最大规模的术语集中爆发。task analysis(Burst 1.86)反映研究范式从算法竞赛向系统级任务分析的升级。2025 年,anomaly detection(Burst 0.97)与 machine learning(Burst 0.83)接棒延续。时间线上,#1 machine learning、#2 annotation、#3 defect detection、#8 cnn 四大 AI 聚类同步活跃至 2025 年,而 #4、#6、#9 等传统聚类已系统性退场。

04

第四部分:深度讨论与局限性

4.2 & 4.3 前沿趋势预测 (Frontier Trends)

1. ViT 高精缺陷检测

Vision Transformer 凭借全局感受野,正逐步取代 CNN,成为晶圆划痕、颗粒等微观缺陷识别的标杆模型。

2. 时序工艺预测

利用 Autoformer、Informer 等时序特化 Transformer 变体,对刻蚀温度、压力等多模态传感器数据进行长序列精准预测。

3. 多模态深度融合

打破单一数据孤岛,联合晶圆视觉图像、机台运行时序日志与专家文本,实现真正的工厂级大模型 (Factory LLM)。

4. 小样本学习与边缘部署

结合大模型微调 (Fine-tuning) 与扩散模型 (Diffusion) 解决数据稀缺痛点;探索轻量化实现边缘推理。

4.4 研究局限性分析

  • 1
    单一数据源偏差:

    目前计量库仅基于 Web of Science Core Collection 的英文文献构建,遗憾未能覆盖 CNKI 等优秀中文学术数据库的本土顶尖成果。

  • 2
    检索式顽固噪声:

    尽管团队实施了严苛的排除,但在特定英文语境下,仍可能有少量跨领域的传统电力电子文献逃逸混入。

  • 3
    时间截断效应滞后:

    检索冻结时间点为 2026年4月,这意味着最新的高强度突现词存在时间切片统计学截断带来的滞后性。

05

第五部分:团队复盘与产出矩阵

5.1 项目核心产出物全景 (Deliverables)

规范文档体系 检索式设计演进表、52字段数据字典、数据质量检测报告、完整 PRISMA 标准筛选流程图
计量硬核资产 核心 CiteSpace 高清精修图谱、高强度突现词检测底稿、关键网络指标汇总表
学术初稿交付 文献计量分析课程报告 + 核心文献摘要整理
工程化展示套件 开源 GitHub 完整仓库 (v1.0 Release) + 本套基于 HTML5 + Tailwind CSS + ECharts 构建的交互式学术幻灯片
05

第五部分:团队复盘与产出矩阵

5.2 技术实践踩坑与反思 (Pitfalls & Retrospective)

做对的坚守:规范至上

  • 面对海量且混杂的数据,团队严格执行了 检索式三轮强迭代逻辑(从最初失控的噪声到最终的 643 条全集与 147 条 DL 纯净集)。
  • 全套标准文档(从自定义数据字典、PRISMA 流水线到查新报告)的无死角沉淀,保证了整个计量分析过程的可复现与学术严谨。
  • 双集分流设计——全量集作宏观统计与内部对照,DL 纯净集作核心图谱分析——确保了 CiteSpace 输出的客观性与聚焦性的平衡。

血泪踩坑记录:工程化陷阱

  • Git 仓库血崩:前期 GitHub 部署时不慎将庞大的 node_modules 强推,导致仓库体积爆炸与 CI 构建瘫痪。
  • 框架生态断裂:构建展示页时,最新版 CSS 框架配置冲突引发内核级报错,经紧急排查回滚至稳定版本。
  • 组件库缺失:设计初期依赖的图标库意外缺失原生组合,果断调整 UI 方案采用泛用图标平替。
  • 检索式漂移:初期关键词过宽导致 500+ 条与半导体完全无关的文献混入(NLP 纯文本、医学影像等),三轮迭代才收敛至精准集。
06

第六部分:结论与未来指引

6.1 核心主要发现总结

78%

爆发式增长

2024-2025年发文量占 DL 纯净集近八成,领域处于白热化上升期。

40.4%

中国断层领先

260篇为第二名美国(80篇)的3.25倍,科研投入强度巨大。

2024

历史级拐点

6个Transformer术语同步突现,SEM硬件数据源与AI方法在该节点对接。

ViT/Swin

知识基础双核心

共被引网络引力中心,L1架构奠基→L2方法改进→L3应用落地的三层引文结构。

3波

技术浪潮级跃迁

传统硬件(2015-19)→AI渗透(2020-22)→Transformer爆发(2023-25),范式代际转型。

~5年

知识传导全链路

NLP Attention(2017)→CV Backbone(2021)→Wafer Defect(2022-25),约5年完成跨界穿透。

核心判断:传统硬件聚类(#4 inductors、#9 parallel processing)2022年后系统性退场,AI聚类(#1 ML、#2 annotation、#3 defect detection、#8 CNN)齐头并进活跃至2025——不是关键词偏好的微调,而是整个研究共同体的注意力结构发生了代际级别的重组。

06

第六部分:结论与未来指引

6.2 本研究核心贡献

  • 01 全景式文献计量基线:运用 CiteSpace + Kleinberg 突现检测 + LLR 聚类算法,结合 WoS 系统检索与 DL 语义筛选,为该交叉领域提供了一份可复现的文献计量参照基线。
  • 02 三层引文结构模型:首次在半导体制造文献中系统识别出 L1 架构奠基→L2 方法改进→L3 应用落地的知识溢出路径,溯源 ViT/Swin 双核心的知识传导全链路(耗时约 5 年)。
  • 03 三波技术浪潮识别:通过突现检测 + 聚类时间线锁定 2024 年为关键历史拐点——6 个 Transformer 术语同步突现,传统聚类系统性退场与 AI 聚类结构性崛起形成"此消彼长"的清晰信号。
  • 04 可复用方法论流水线:PRISMA 2020 全流程文档化 + 双集分流设计 + 三轮检索式迭代——为交叉学科文献计量分析提供一套可操作的标准范式。

6.3 未来破局方向指引

基于以上计量发现,识别出该领域尚未被充分覆盖的 8 个方向性缺口:

  • 多模态大统一:将 ViT 扩展到光学图像 + SEM + 电性测试时序的联合表征。
  • 小样本迁移:晶圆缺陷标注成本极高,Few-shot/ViT 迁移是工业落地的首要瓶颈。
  • 从检测到预测:90% 文献集中于表观缺陷,向设备预测性维护的上游迁移几乎是空白。
  • 边缘端轻量化:厂端 GPU 稀缺,ViT 蒸馏/剪枝变体在 <50ms 低延迟推理是量产前提。
  • 中国从量到质:发文量断层领先,下一步应在基础架构创新上形成可比肩 ViT/Swin 的原创贡献。
  • 产学研闭环:引入专利与产线部署报告,揭示"实验室→Fab 厂"的技术转化效率。
  • 动态追踪更新:建立半年期更新机制,持续追踪聚类的新生/分裂/合并趋势。
  • 跨库交叉验证:引入 Scopus/IEEE Xplore,检验 WoS 单库结论的外部有效性。

核心参考文献 (References)

本报告分析方法与引用的关键文献,供课程评审参考。

方法论文献

[1] Kleinberg J. Bursty and hierarchical structure in streams[J]. Data Mining and Knowledge Discovery, 2003, 7(4): 373-397.

[2] Chen C. CiteSpace II: Detecting and visualizing emerging trends and transient patterns in scientific literature[J]. JASIST, 2006, 57(3): 359-377.

分析发现的核心文献

[3] Wei YX, Wang H. Mixed-type wafer defect recognition with multi-scale information fusion transformer[J]. IEEE Trans Semicond Manuf, 2022.

[4] Fan SKS, Chiu SH. A new ViT-based augmentation framework for wafer map defect classification[J]. Int J Prod Econ, 2024.

[5] Chen KQ, Cai N, Wu ZS, et al. Multi-scale GAN with transformer for surface defect inspection of IC metal packages[J]. Expert Syst Appl, 2023.

[6] Liu YL, Wu H. Automatic solder defect detection using transformer architecture[J]. IEEE Trans Compon Pack Manuf Technol, 2024.

[7] Wen L, Zhu Y, Ye L, et al. LayouTransformer: Layout patterns with transformer via sequential modeling[C]. IEEE/ACM ICCAD, 2022.

Github Repository: https://github.com/jyz2744153437-max/Transformer-Semiconductor-Bibliometrics

Built with HTML5, Tailwind CSS, and Vanilla JavaScript. Version 1.0

THANK YOU_