🇨🇳
阿臻的学习笔记
  • 🤖AI
    • 📑README
    • 🕒Scheduling
      • 一种JSSP的DRL环境
    • 📜Paper
      • 神经协同过滤
      • 非侵入信号深度学习
      • 肾透析移植机器学习
      • 心理学随机森林
      • P300数据学习
    • ⚒️Pytorch
      • 1.1数据基础
      • 1.2自动梯度
      • 1.3神经网络
      • 1.4模型实现
      • 2数据操作
    • 🛠️Ray+Gym
    • 📃Graph Neural
      • 图神经网络基础
      • Contrastive Multi-View Representation Learning on Graphs
    • 📽️Deep Learning
      • 《第一章》
      • 《第二章》
      • 《第三章》
      • 《第四章》
      • 台湾陈蕴侬视频2020
    • 🔨MXNet
      • 《第一章》《第二章》
      • 《第三章》
      • 《第四章》
      • 《第五章》
      • 《第六章》
      • 《第七章》
      • 《第八章》
      • 《第九章》
      • 《第十章》
  • 👨‍🏭Study
    • 📔Algorithm
      • Leetcode
        • 第一天(乱刷)
        • 第二天(栈)
        • 第三天(栈)
        • 第四天(堆)(贪心)
        • 第五天(贪心)
        • 第六天(贪心)
        • 第七天(排序)
        • 第八天(排序)
        • 第九天(排序)
        • 第十天(位运算)
        • 第十一天(位运算)
        • 第十二天(位运算)
        • 第十三天(位运算)
        • 第十四天(树)
        • 第十五天(树)
        • 第十六天(树)
        • 第十七天(树)
        • 第十八天(树)
        • 第十九天(树)
        • 第二十天(树)
        • 第二十一天(树)
        • 第二十二天(并查集)
        • 第二十三天(并查集)
        • 第二十四天(DFS)(图)
        • 第二十五天(图)(设计)
        • 第二十六天(拓扑)
        • 第二十七天(字典树)
        • 第二十八天(字典树)
        • 第二十九天(树状数组)(二叉搜索树)
        • 第三十天(递归)
        • 第三十一天(脑筋急转弯)
        • 第三十二天(脑筋急转弯)
        • 第三十三天(记忆化)
        • 第三十四天(队列)
        • 第三十五天(队列)
        • 第三十六天(极小化极大)
        • 第三十七天(几何)
        • 第三十八天(蓄水池抽样)
        • 第三十九天(数组)
        • 第四十天(数组)
        • 第四十一天(数组)
        • 第四十二天(数组)
        • 第四十三天(数组)
        • 第四十四天(数组)
        • 第四十五天(数组)
        • 第四十六天(数组)
      • Sort
        • 最小堆
        • 归并排序(merge_sort)
    • 📓Knowledge
      • python补码
    • 🔧Other
      • pythonic语法
      • Ubuntu备忘
由 GitBook 提供支持
在本页

这有帮助吗?

导出为 PDF
  1. AI
  2. Paper

神经协同过滤

PPT1

发表:17年四月,world wide web会议,深度学习的网络结构,训练方法,GPU硬件的不断进步,促使其不断征服其他领域

何向南:中科大教授,92年,28岁

PPT2

点积和矩阵分解的关系:矩阵分解为两个矩阵相乘,又等价于第i行和第j列的点积

矩阵分解的限制性:Jaccard系数作为实际的结果,先计算u1,2,3,而后添加u4,发现,4和2的距离一定比4和3的距离更近

题外话:

Jaccard 主要用于判断集合间相似度,所以他无法像矩阵一样,体现更多的信息。

Cosine 的计算中,则可以把用户对电影的评分信息加进去。

PPT3:

目标:NCF,GMF,MLP,NeuMF

ranking loss:度量学习,相对位置,the objective of Ranking Losses is to predict relative distances between inputs. This task if often called metric learning.

解决方式:使用大量的隐藏因子去学习交互函数。

PPT4:

yui={1, if interaction is observed;0, elsey_{ui}= \begin{cases} 1,\ if\ interaction\ is\ observed;\\0,\ else \end{cases}yui​={1, if interaction is observed;0, else​

PPT5:

element-wise product:按元素积

将GMF作为一种特殊的NCF

如果a是恒等函数,h是1的均匀向量

PPT6:

经验:tower structure,halving the layer size for each successive higher layer

PPT7:

generalization ability:泛化能力,适应新样本的能力

PPT8:

神经张量网络,使用加法

PPT9:

神经矩阵分解,使用连结操作

PPT10:

显示评分:回归损失,预测一个值,平方损失

隐式交互:分类损失,预测离散结果,logistic

优化方法:随机梯度下降法

PPT11:

实验环境设置:

数据集,留一法,top-k排序,

HR@10:分母是所有的测试集合,分子式每个用户top-K推荐列表中属于测试集合的个数的总和

NDCG@10:最终所产生的增益(归一化折损累计增益)

PPT12:

BPR:基于矩阵分解的一种排序算法,针对每一个用户自己的商品喜好分贝做排序优化。在实际产品中,BPR之类的推荐排序在海量数据中选择极少量数据做推荐的时候有优势。淘宝京东有在用。部分填充,速度十分快。

eALS:最新的关于隐式数据的协同过滤算法,用一步到位的计算公式全部填充缺失值。

PPT13,14:

rel表示关联性,就是跟所想要的结果的关联度,0表示没有关联,越高说明关联性越高

i是位置,关联性乘以位置,就是第i个结果所产生的效益

IDCG是理想化的最大效益。

PPT15:

NeuMF,%5更优

NeuMF > GMF > MLP

PPT16:

理论成果

PPT18:

GMF: weights w can simply be absorbed into the embeddings matrices P and Q

总之,应用场景(数据集)不同,采用的方法应该不同,灵活使用推荐算法或模型

上一页Paper下一页非侵入信号深度学习

最后更新于3年前

这有帮助吗?

🤖
📜