注意力机制

小白理解:transformer模型需要学会抓重点,从一个句子中,抓到关键词,从而会生成一个加权的向量矩阵。所以就是模型需要知道将自己的注意力放在输入的内容中的哪些重点内容上。

反向链接: