句法分析的目标是揭示句子的层次结构(如短语结构或依存关系)
词向量模型既能捕捉语义相似性,也能部分编码句法信息。
概率图模型(PGM)无法描述随机变量之间的高阶依赖关系
TextCNN 仅适用于文本分类,无法胜任关系抽取、句子匹配等任务
经典 RNN 在处理长序列时易出现梯度消失或爆炸问题
Seq2Seq 框架最早用于机器翻译,但同样适用于自动摘要、对话生成等序列到序列任务。
Skip-Gram模型的训练速度通常比CBOW模型更快
传统 TF‑IDF 基于词频统计,无法显式建模语义相似性
语义分析旨在为文本分配可机器推理的形式语义或语义角色标签,以理解深层含义
隐马尔可夫模型与条件随机场(CRF)都属于概率图模型范畴
在设计上专门解决 RNN 的梯度消失问题的网络结构是
LSTM
GRU
CNN
DNN
下列哪一项不是词向量表示方法
One‑Hot
Word2Vec
Glove
TF‑IDF
以下哪个模型最适合原生处理序列数据
决策树
卷积神经网络
KNN
循环神经网络
以下哪项是TextCNN 捕捉“n‑gram”特征的关键
全连接层
卷积核窗口
残差连接
注意力权重
以下哪种模型适合处理文本数据
卷积神经网络
支持向量机
循环神经网络
决策树
在词法分析流程中,以下哪项不属于其典型的子任务
依存句法分析
词性标注
分词
命名实体识别
以下哪个选项表述的是语言模型的核心目标
最大化句法树深度
最小化拼写错误
估计给定词序列出现的概率
对文本情感做极性分类
在以下网络结构中,哪种方法用于自然语言处理中的关键词提取
CNN
TF-IDF
RNN
LSTM
关于长短期记忆网络,下列说法错误的是
拥有输入门、遗忘门和输出门
可以双向堆叠形成 Bi‑LSTM
隐藏状态与记忆单元完全等价
可用于时序回归问题
下列哪个选项不属于LSTM的门控结构
输入门
遗忘门
输出门
激活门
语义分析在情感倾向分析等文本深层含义理解方面发挥关键作用
概率图模型擅长以显式方式刻画随机变量之间的复杂依赖关系
TextCNN 模型主要应用于文本分类任务,但也可拓展至其他自然语言处理领域
词向量技术(如 Word2Vec、GloVe)能够有效捕捉词语的上下文信息,从而实现语义表示
TF-IDF适用于关键词提取,但在显式建模语义相似度方面存在局限性
法分析的主要目标是揭示句子的层次结构或依存关系结构
Transformer相比传统 Seq2Seq(RNN)的显著优势不包括
完全并行计算
长期依赖捕捉更好
自注意力显式建模全局关系
参数更少
语言模型中最常用的训练算法是
反向传播
梯度下降
深度学习
LSTM
词向量训练中,CBOW模型的目标是预测________。
自然语言处理中,__________ 用于分析句子的结构层级与依存关系
TextCNN 通常使用一维卷积核+最大池化获取变长文本的固定维度表示,其中最大池化操作的作用为 _______________。
1、 RNN 和 LSTM 在建模序列数据时的问题(优缺点、适用场景)2、 TF-IDF 和 Word2Vec 的实现原理 3、Seq2Seq 模型在机器翻译中工作流程4、序列标注任务中,HMM 与 CRF 各有哪些优缺点5、如何使用自然语言处理中的相关技术解决实际生活中的用户评论情感分析(文本分类)的问题
1、word2vec.LineSentence(final_corpus_file)2、model = word2vec.Word2Vec(...),阐述其核心功能并解释关键参数3、采用model.save(w2v_model_file)保存模型的必要性
1、解析network = Seq2Seq(cfg)初始化过程,说明cfg如何影响模型参数的配置 2、说明 WithLossCell 的作用机制 3、说明选择 nn.Adam 优化器的原因,并分析其在机器翻译任务中的表现优势