You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
在 2018年11月5日,下午5:58,dzpdzpdzp ***@***.*** ***@***.***>> 写道:
请问一下作者,您这里为什么在Attentive module只是用单头,而且没有使用位置编码。并且用于连接的FFN也设置隐藏层数目也设置成为了和词向量一样的维度。
另外就是还有一个问题在交叉注意力中,
Ui= AttentiveModule(U, R, R),Rl = AttentiveModule(R,U, U)
这个公式的设计大概是一个怎样的想法
刚刚那个问题一不小心手误删掉了,表示尴尬。
麻烦作者解答一下谢谢啦。
—
You are receiving this because you are subscribed to this thread.
Reply to this email directly, view it on GitHub <#7>, or mute the thread <https://github.com/notifications/unsubscribe-auth/AF-secGqdiWjxva1M39aqf89RxTDfyViks5usAuwgaJpZM4YOG6v>.
请问一下作者,您这里为什么在Attentive module只是用单头,而且没有使用位置编码。并且用于连接的FFN也设置隐藏层数目也设置成为了和词向量一样的维度。
另外就是还有一个问题在交叉注意力中,
Ui= AttentiveModule(U, R, R),Rl = AttentiveModule(R,U, U)
这个公式的设计大概是一个怎样的想法
刚刚那个问题一不小心手误删掉了,表示尴尬。
麻烦作者解答一下谢谢啦。
The text was updated successfully, but these errors were encountered: