A good way of thinking of where the Laplace Transform comes from, and a way which dispe...
IP属地:浙江
A good way of thinking of where the Laplace Transform comes from, and a way which dispe...
在推荐场景下,模型auc大于0.5,其排序能力一定高于随机吗?模型离线评估auc大于0.5,上线后发现与随机推荐没差别?排序的商品结果与用户没有相关性? 关于相关性与偏置信息...
1、由于高斯分布方差的最大似然估计为有偏估计,导致方差估计值在样本量较小时有较大的低估。[1]假设单一变量X分布(这里用高斯分布,实际也不是必要),虚线为负样本(数据量较大)...
对于目的为学习embedding的模型。比如向量化User,Query间的关系。一侧使用Query相关特征,一侧使用User相关特征,进行数层全连接后,得到两个N维向量。向量...
最大点积向量检索(MIPS):原有的LSH使用经过原点的随机超平面进行划分,只能对余玄相似度(cosine-distance)进行划分,所以在进行检索的时候,能大幅减少计算量...
之前关于BSD的讨论:https://www.jianshu.com/p/5edf15c787ed[https://www.jianshu.com/p/5edf15c787e...