郭必扬的写字楼 郭必扬的写字楼
Home
深度学习笔记
NLP笔记
吃点儿论文
工程
随笔
Me
  • Github (opens new window)
  • 微信公众号「SimpleAI」 (opens new window)
  • 知乎「蝈蝈」 (opens new window)
  • 简书 (opens new window)
Home
深度学习笔记
NLP笔记
吃点儿论文
工程
随笔
Me
  • Github (opens new window)
  • 微信公众号「SimpleAI」 (opens new window)
  • 知乎「蝈蝈」 (opens new window)
  • 简书 (opens new window)
  • 自然语语言处理系列笔记

    • 文章列表

    # 自然语语言处理系列笔记

    # 文章列表

    CS224n笔记[1]:Word2Vec从何而来
    CS224n笔记[2]:Word2Vec算法推导&实现
    CS224n笔记[3]:共现矩阵、SVD与GloVe词向量
    CS224n笔记[4]:自然语言中的依存分析(Dependency Parsing)
    CS224n笔记[6]:更好的我们,更好的RNNs
    CS224n笔记[5]:语言模型(LM)和循环神经网络(RNNs)
    CS224n笔记[8]:NLP中的阅读理解和问答
    CS224n笔记[7]:机器翻译和seq2seq
    Huggingface🤗NLP笔记1:直接使用pipeline,是个人就能玩NLP
    Huggingface🤗NLP笔记2:一文看清Transformer大家族的三股势力
    Huggingface🤗NLP笔记3:Pipeline端到端的背后发生了什么
    Huggingface🤗NLP笔记4:Models,Tokenizers,以及如何做Subword tokenization
    Huggingface🤗NLP笔记5:attention_mask在处理多个序列时的作用
    Huggingface🤗NLP笔记6:数据集预处理,使用dynamic padding构造batch
    Huggingface🤗NLP笔记7:使用Trainer API来微调模型
    「精美手写笔记」Everything about Word2Vec 📒
    词向量Why and How
    Huggingface🤗NLP笔记8:使用PyTorch来微调模型