Toggle navigation
首页
问答
解读
领域
专家
社团
专区
隐藏专区1
测试专区2
测试专区1
更多专区...
提问
会员
中心
登录
注册
家门口山娃拒绝曾
关注话题
创建问题
发布解读
举报
问题
1
解读
0
0
回答
27
浏览
【藏宝兔平台】淘宝补单平台|电商补单平台怎么样啊?可靠吗?『最新爆料』
家门口山娃拒绝曾
kakaka
2024-05-19
问答
1
解读
0
关注者
0
热门解读
信息到推荐系统的模型
表征学习辅助点击率预测 Representation Learning-Assisted Click-Through Rate Prediction
DeepMCP网络详解
AUCµ: A Performance Metric for Multi-Class Machine Learning Models
Mish: A Self Regularized Non-Monotonic Neural Activation Function
Implicit Neural Representations with Periodic Activation Functions
A Survey on Deep Hashing Methods 深度散列方法综述
自适应学习速率SGD优化算法
MOBIUS:面向百度赞助搜索的下一代查询广告匹配
七个小朋友,只能切四刀,怎么把三个苹果均分?
热门问题
深度学习(deep learning)和极限学习机(extreme learning machine)的区别和联系之处?
如何评价ResNeSt:Split-Attention Networks?
123123123qeqweqwqew
如何看待多模态transformer,是否会成为多模态领域的主流?
今天创建的今天创建的今天创建的今天创建的
Graph Attention Network的本质是什么?
今天发布的问题,有多个标签
12312312312312312
为什么Transformer 需要进行 Multi-head Attention?
3123123dasdasdasdas
热门标签
自然语言处理
模式识别
机器学习
数据挖掘
ai
js
123123
迁移学习
回归分析
梯度下降
强化学习法
深度学习
多智能体
深层神经网络
dd
提问
注意力机制
123123123
拼图
大革命
人脸识别
高斯过程
非负矩阵分解
近邻
最近邻
凸优化
学习模式
顺序决策
特征提取
支持向量机
高维数据
降维
学习系统
在线/主动学习
迭代优化
有监督/无监督学习
贝叶斯网络
聚类分析
计算效率
马尔科夫模型
标记/未标记数据
循环神经网络
卷积神经网络
知识图谱
推荐系统
图神经网络
数据增强算法
预测
联合学习
多目标模型
等待解答
如何通过机器学习实现拼图的拼接
12312312312312312
测试157157123123
测试123123123
为什么Transformer 需要进行 Multi-head Attention?
深度学习中Attention与全连接层的区别何在?
深度学习(deep learning)和极限学习机(extreme learning machine)的区别和联系之处?
Attention based model 是什么,它解决了什么问题?
如何评价ResNeSt:Split-Attention Networks?
为什么CNN里有maxpooling,没有minpooling?
推荐专家
yao
0个答案 0次被采纳
admin
11个答案 5次被采纳
发布
问题
回到
顶部