Transformer前传:Seq2Seq与注意力机制Attention
从神经网络语言模型(NNLM)到Word2Vec:自然语言处理中的词向量学习
循环神经网络