自注意力机制(Self Attention)
输入的向量集
- One-hot 编码
- 词嵌入 (word embedding) ## 输出
- 每个向量对应一个标签(序列标注)
- 整个序列有一个标签
- 模型可以自行决定标签数量(seq2seq)
序列标注 (Sequence Labeling)
- 可以考虑上下文信息
- 将整个序列放在一个窗口中计算可能会消耗大量资源
自注意力机制 (Self-attention)

- 找到与
相关的向量,用 表示相关向量 - 使用点积 (Dot-product) 和加法 (Additive) 来计算
- 也可以使用其他函数如 ReLU
矩阵描述
[

Self-attention for Graph
