admin
admin

注册于 7年前

回答
11
解读
30
关注者
3

admin 关注了领域

3年前

ai

admin 关注了领域

3年前

自然语言处理

admin 发布了问题

3年前

12312312312312312

admin 发布了问题

3年前

测试157157123123

admin 发布了问题

3年前

测试123123123

admin 对问题发布了答案

3年前

Graph Attention Network的本质是什么?

目前主流研究使用 Attention 进行边的动态调整,如果你的数据本身不是图结构,又找不到好的距离函数或者难以表达节点之间的相关关系,或许 Attention 是一个不错的选择 ~什么是 Atten

admin 对问题发布了答案

3年前

深度学习中有什么非常惊艳或者轻量级的Attention操作?

这里仅仅讨论视觉中的attentionattention的核心思想是根据全图的特征突出feature map中的某一核心部分,使得模型更加集中关注有效信息。所以前期的模型设计中更多采用一种类似于mas

admin 发布了问题

3年前

大大大大大大5555

发布
问题

0.047390s