Thanks to visit codestin.com
Credit goes to github.com

Skip to content

Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer

zxuu/Self-Attention

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

72 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Self-Attention(pytorch实现)

transformer开山之作:Attention is all you need 代码参考这篇博客手撕Transformer Transformer输入输出细节以及代码实现(pytorch)

  1. decoder中,查询来自Decoder,键和值来自Encoder的输出。encoder的输出作为decoder的K,V的来源
  2. 解码器一个Block包含两个多头自注意力机制:
    • Masked Multi-Head Attention:decoder输入文本每个token只能观察到前面的token,因此需要mask。
    • Multi-Head Attention:decoder输出文本每个token可以观察到encoder的所有token,因此不需要mask。

OneHead文件夹下是单头自注意力机制的实现(无Mask)
MultiHead文件夹下是多头自注意力机制的实现(无Mask)
Encoder文件夹下是Ecoder编码器的完整实现(有mask)
Decoder文件夹下是Decoder解码器的完整实现(有mask)
Transformer文件夹下是把Encoder和Decoder两部分的合并,形成完整的transformer结构

Train文件夹是训练部分
Test文件夹是测试部分
Utils文件夹是工具包,包括一些常量的定义,还有Dataloader

My_Transformer.py是完整的transformer构建、数据输入、测试的例子

torch、transformer版本

torch                          1.13.1+cu117
torchaudio                     0.13.1+cu117
torchvision                    0.14.1+cu117
transformers                   4.26.1

输入例子

             # Encoder_input    Decoder_input        Decoder_output
sentences = [['我 是 学 生 P' , 'S I am a student'   , 'I am a student E'],         # S: 开始符号
             ['我 喜 欢 学 习', 'S I like learning P', 'I like learning P E'],      # E: 结束符号
             ['我 是 男 生 P' , 'S I am a boy'       , 'I am a boy E']]             # P: 占位符号,如果当前句子不足固定长度用P占位 pad补0

My_transformer.py输出(直接运行即可)

......
Epoch: 0050 loss = 0.088758
Epoch: 0050 loss = 0.003786
['', '', '', '', 'P'] -> ['I', 'am', 'a', 'student', 'E']

About

Transformer的完整实现。详细构建Encoder、Decoder、Self-attention。以实际例子进行展示,有完整的输入、训练、预测过程。可用于学习理解self-attention和Transformer

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published