Toggle navigation
首页
问答
解读
领域
专家
社团
专区
隐藏专区1
测试专区2
测试专区1
更多专区...
提问
会员
中心
登录
注册
今天创建的今天创建的今天创建的今天创建的
发布于 2021-02-07 11:36:22
是的是的
查看更多
1
关注者
409
被浏览
admin
2021-02-07
大苏打实打实的
2
个回答
默认排序
按发布时间排序
dlut
2021-02-07
ddddddd
撰写答案
请登录后再发布答案,
点击登录
付费偷看:
¥
清除
积分
清除
¥1
¥2
¥5
¥10
10积分
20积分
50积分
100积分
1. 如果设定了付费偷看,则此回答只有提问者、回答者和管理员可以查看
2. 如果提问者采纳了此回答,则付费偷看生效(会员需要支付你设定的费用才能查看),如果采纳了其它答案,付费偷看失效(此时全体可见)
3. 如果提问者在 7 天后仍未采纳最佳答案,则所有付费偷看失效(此时全体可见)
登录
注册新账号
有人回复时邮件通知我
关于作者
admin
暂无描述
提问
18
回答
11
被采纳
5
关注TA
发私信
相关问题
热门解读
信息到推荐系统的模型
表征学习辅助点击率预测 Representation Learning-Assisted Click-Through Rate Prediction
DeepMCP网络详解
AUCµ: A Performance Metric for Multi-Class Machine Learning Models
Mish: A Self Regularized Non-Monotonic Neural Activation Function
Implicit Neural Representations with Periodic Activation Functions
A Survey on Deep Hashing Methods 深度散列方法综述
自适应学习速率SGD优化算法
MOBIUS:面向百度赞助搜索的下一代查询广告匹配
七个小朋友,只能切四刀,怎么把三个苹果均分?
热门问题
深度学习(deep learning)和极限学习机(extreme learning machine)的区别和联系之处?
如何评价ResNeSt:Split-Attention Networks?
123123123qeqweqwqew
如何看待多模态transformer,是否会成为多模态领域的主流?
今天创建的今天创建的今天创建的今天创建的
Graph Attention Network的本质是什么?
今天发布的问题,有多个标签
12312312312312312
为什么Transformer 需要进行 Multi-head Attention?
3123123dasdasdasdas
热门标签
自然语言处理
模式识别
机器学习
数据挖掘
ai
js
123123
迁移学习
回归分析
梯度下降
强化学习法
深度学习
多智能体
深层神经网络
dd
提问
注意力机制
123123123
拼图
大革命
人脸识别
高斯过程
非负矩阵分解
近邻
最近邻
凸优化
学习模式
顺序决策
特征提取
支持向量机
高维数据
降维
学习系统
在线/主动学习
迭代优化
有监督/无监督学习
贝叶斯网络
聚类分析
计算效率
马尔科夫模型
标记/未标记数据
循环神经网络
卷积神经网络
知识图谱
推荐系统
图神经网络
数据增强算法
预测
联合学习
多目标模型
等待解答
如何通过机器学习实现拼图的拼接
12312312312312312
测试157157123123
测试123123123
为什么Transformer 需要进行 Multi-head Attention?
深度学习中Attention与全连接层的区别何在?
深度学习(deep learning)和极限学习机(extreme learning machine)的区别和联系之处?
Attention based model 是什么,它解决了什么问题?
如何评价ResNeSt:Split-Attention Networks?
为什么CNN里有maxpooling,没有minpooling?
推荐专家
yao
0个答案 0次被采纳
admin
11个答案 5次被采纳
发布
问题
分享
好友
手机
浏览
扫码手机浏览
回到
顶部
ddddddd