240 发简信
IP属地:北京
  • tf.nn.embedding_lookup_sparse API 笔记

    来自官网 tf.nn.embedding_lookup_sparse(params,sp_ids,sp_weights,partition_strategy='mod',na...

  • 120
    在m1 mac上安装tensorflow

    参考:https://github.com/apple/tensorflow_macos/issues/3[https://github.com/apple/tensorfl...

  • 引用计数算法

    前言 相比于前面三种垃圾收集算法,引用计数算法算是实现最简单的了,它只需要一个简单的递归即可实现。现代编程语言比如Lisp,Python,Ruby等的垃圾收集算法采用的就是引...

  • 120
    文献阅读笔记:Hierarchical Attention Networks for Document Classification

    最近在研究Attention机制在自然语言处理中的应用,查找了一些文献。文献:Hierarchical Attention Networks for Document Cla...

  • 120
    【NLP论文笔记】Attention Is All You Need(Transformer 模型结构理解)

    本文主要用于记录谷歌发表于2017年的一篇论文(引用量接近上千)。该论文提出的Transformer模型也是近年来被广泛应用的。本笔记主要为方便初学者快速入门,以及自我回顾。...

  • 120
    【NLP论文笔记】A Structured Self-attentive Sentence Embedding(self-attention 相关)

    本文主要用于记录IBM发表于2017年的一篇论文(引用量超过300)。该论文主要是提出了一种句向量的自注意力模型(self-attention)。本笔记主要为方便初学者快速入...

  • 120
    【NLP论文笔记】Enriching word vectors with subword information(FastText词向量)

    本文主要用于记录脸书AI研究院发表于2016年的一篇论文(引用量接近破千)。该论文提出的基于word2vec与字符级向量融合的词向量构建在保证效果的同时,大大提升了训练及预测...

  • 120
    《利用Python进行数据分析·第2版》第1章 准备工作

    《利用Python进行数据分析·第3版》新版上市[https://u.jd.com/W8xSkzl],新版使用的是Pandas 1.4,更新了不少内容。为了帮助大家学习,这次...