数据分析与NLP

1. 判断句子的相似度:
独热编码可以将单词向量化,而如果能够做到句子的向量化,就可以通过判断两个向量的余弦,来评估相似度:余弦越接近1,越相近,相反接近0则相背离
很容易想到,可以将独热编码后的每个单词的向量做为一个元素,去组成句子从而完成句子的向量化,但是问题在于,繁复的编码会造成存储空间的要求大,在一定程度上会影响性能。
我们考虑将独热编码改为数字编码,如此一来,我们可以成功地将语句进行一个不太耗费存储空间的编码和映射。但对于不同的语句,显然可以看出,他们的转换标准不统一,需要将他们映射到同一维度上才可以比较。
我们认为,当一个单词在一句话中反复出现多次时,对于这个句子,这个词可能比较重要。那么,当两个句子的关键词,也就是重复次数多的词都比较一致时,就可以大致判定两个句子语义近似。

image.png
2. TF-IDF算法
如果一个字或者单词在某个语句或者文章中出现的频率高,而在其他文章中很少出现,就可以认为这个字或者单词对该语句或者文章很重要,也可以说这个字或者单词具有很好的区分能力,反之则无关紧要。
TF:(词频)一个词在一句话中出现的频率

TF=某词出现次数/总词汇数

IDF:逆向文件频率,衡量词语在整个语料库中普遍程度的指标
如果在整个语料库中包含某个单词的文章越少,就说明该单词在整个语料库中具有很好的区分能力,这个单词的IDF指标就越大。

IDF=Log(语料库中的文章总数/1+出现该单词的文章数)

最终,TF-IDF的值就是TF*IDF
我们可以利用TF-IDF算法与余弦相似度相结合计算出文本相似度,帮助优化算法。
语义理解

  • 单向预测:一句话中mask掉一部分然后从前向后或是从后向前进行预测
  • 双向预测:为了更完整地理解语句的予以,把从前向后和从后向前两个预测拼接到一起
  • 上下文预测:【全向预测】--Transformer 模型-核心为聚焦机制,对于一个语句可以同时启用多个聚焦点,不必局限于是从前向后还是从后向前
    BERT: pre-training of deep bidirectional transformers for language understanding【联合调节所有层中的上下文来预先训练深度双向表示】
  • 预训练:
    image.png
    BERT 用了两个步骤,试图去正确地训练模型的参数:第一个步骤是把一篇文章中,15% 的词汇遮盖,让模型根据上下文全向地预测被遮盖的词。假如有 1 万篇文章,每篇文章平均有 100 个词汇,随机遮盖 15% 的词汇,模型的任务是正确地预测这 15 万个被遮盖的词汇。通过全向预测被遮盖住的词汇,来初步训练 Transformer 模型的参数。第二个步骤继续训练模型的参数:譬如从上述 1 万篇文章中,挑选 20 万对语句,总共 40 万条语句。挑选语句对的时候,其中 210 万对语句,是连续的两条上下文语句,另外 210 万对语句,不是连续的语句。然后让 Transformer 模型来识别这 20 万对语句,哪些是连续的,哪些不连续。
    特征分析
  • 数据预处理:解决不属于同一量纲、信息冗余、等性特征不能直接使用、存在缺失、信息利用率低等问题
  • 特征选择:
    考虑特征是否发散:如果一个特征不发散-比如说方差接近于0,那么这个样本在这个特征上基本没有差异,所以这个特征对样本的区分也没有什么用
    特征与目标的相关性:与目标相关性高的特征,应当优先选择
  • 特征选择的方法:
    过滤法filter:按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。
    包装发wrapper:根据目标函数-通常是预测效果评分,每次选择若干特征,或者排除若干特征。
    潜入发embedded:先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。
  • 降维
    由于特征矩阵可能过大,导致计算量大,训练时间长的问题,因此降低特征矩阵维度也是必不可少的。常见的降维方法:主成分分析法(PCA)和线性判别分析(LDA)。
    PCA和LDA有很多的相似点,其本质是要将原始的样本映射到维度更低的样本空间中,但是PCA和LDA的映射目标不一样:PCA是为了让映射后的样本具有最大的发散性;而LDA是为了让映射后的样本有最好的分类性能。所以说PCA是一种无监督的降维方法,而LDA是一种有监督的降维方法。
参考资料

[1][NLP自然语言处理]谷歌BERT模型深度解析
[2]机器学习中,有哪些特征选择的工程方法?

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,386评论 6 479
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,939评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,851评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,953评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,971评论 5 369
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,784评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,126评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,765评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,148评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,744评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,858评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,479评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,080评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,053评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,278评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,245评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,590评论 2 343

推荐阅读更多精彩内容