基于Transformer实现机器翻译 在上一篇博客中,我们已经详细分析了Encoder-Decoder架构和Attention机制,并基于二者实现了机器翻译的实例,本文将在此基础上,进一步使用Transformer进行机器翻译。 2024-06-22
Encoder-Decoder & Attention Mechanisms 本文是一篇NLP实验博客,核心内容是Encoder-Decoder、注意力机制,并将二者应用于机器翻译。文章结尾的拓展部分详细分析了模型构建和训练过程中的部分问题,欢迎评论区讨论。 2024-06-19
NLP-基于前馈神经网络的姓氏分类 本文是一篇实验博客,适合正在学习NLP的同学阅读。分别使用MLP和CNN进行姓氏分类。实验环境:Python3.6.7,基于Pytorch实现。受篇幅限制,本文仅给出部分代码示例。 2024-06-13