人工智能

作者:陆金龙    发表时间:2022-11-28 04:00   

关键词:  

来源:https://www.51cto.com/article/716147.html

作者:千家网

人工智能包括:

  • 机器学习(ML):允许计算机收集数据并从中学习以产生见解。
  • 深度学习(DL):ML 的进一步发展,用于检测大量数据中的模式和趋势并从中学习。
  • 神经网络:旨在学习和识别模式的互连单元,很像人脑。
  • 自然语言处理(NLP):NLP 支持 AI 阅读、理解和处理人类语言的能力。
  • 计算机视觉:教计算机从图像和视频中收集和解释有意义的数据。

 

文本卷积神经网络(TextCNN):

 

来源简书:https://www.jianshu.com/p/6f286a2848ce  作者:hiyoung

TextCNN模型是由 Yoon Kim提出的Convolutional Naural Networks for Sentence Classification一文中提出的使用卷积神经网络来处理NLP问题的模型.相比较nlp中传统的rnn/lstm等模型,cnn能更加高效的提取重要特征,这些特征在分类中占据着重要位置.
 

来源:https://www.cnblogs.com/ModifyRong/p/11319301.html

与传统图像的CNN网络相比, textCNN 在网络结构上没有任何变化(甚至更加简单了), textCNN 其实只有一层卷积,一层max-pooling, 最后将输出外接softmax 来n分类。

TextCNN最大优势网络结构简单 ,在模型网络结构如此简单的情况下,通过引入已经训练好的词向量依旧有很不错的效果,在多项数据数据集上超越benchmark。网络结构简单导致参数数目少, 计算量少, 训练速度快,在单机单卡的v100机器上,训练165万数据, 迭代26万步,半个小时左右可以收敛。

 

TextCNN的主要流程是:获取文本的局部特征:通过不同的卷积核尺寸来提取文本的N-Gram信息,然后通过最大池化操作来突出各个卷积操作提取的最关键信息,拼接后通过全连接层对特征进行组合,最后通过交叉熵损失函数来训练模型。

注:N-Gram是大词汇连续语音识别中常用的一种语言模型。⼜被称为⼀阶马尔科夫链。它的基本思想是将⽂本⾥⾯的内容按照字节进行大小为 N 的滑动窗⼝操作,形成了长度是 N 的字节⽚段序列。每⼀个字节⽚段称为 gram,对所有的 gram 的出现频度进⾏统计,并且按照事先设定好的阈值进⾏过滤,形成关键 gram 列表,是这个⽂本的向量特征空间。列表中的每⼀种 gram 就是⼀个特征向量维度。