tech share
  • tech-share
  • Engineering
    • 登录鉴权
    • SSR 页面路由
    • npm 版本号
    • 缓存
    • 数据库容灾
    • 动态效果导出 gif
    • Chrome-devtools
    • C 端 H5 性能优化
    • Docker
    • Monorepo 最佳实践
    • 技术架构演化
    • 项目规范最佳实践
    • snowpack
    • 静态资源重试
    • 前端页面渲染分析
    • Git
    • 前端重构
    • 微前端
    • 项目依赖分析
    • 前端监控原理
    • webpack
    • BS 架构与 CS 架构
    • HTTPS
    • package-lock.json 生成逻辑
    • SVN(Subversion)
    • 数据库分类
    • gulp
    • 前端架构
    • Bundle & Bundless
    • 控制反转 IoC
  • JavaScript
    • Javascript 性能
    • JavaScript 原型(2) - 原型与原型链
    • JavaScript 原型(1) - 构造函数
    • JavaScript - Promise
    • ES6 解构赋值
    • 前端离线化
    • Proxy
    • Object.defineProperty()简介
    • TypeScript
  • MachineLearning
    • GAN生成对抗网络
    • 虚拟对抗训练
    • 深度度量学习
    • 原型网络
    • PyTorch优化器
    • 隐马尔可夫模型2
    • Shapley Value 算法
    • Embarassingly Autoencoder算法
    • AutoRec算法及其后续发展
    • 深度学习常用激活函数
    • 序列预测ConvTran算法
    • 联邦学习
    • 深度学习推荐系统算法整理
    • 隐马尔可夫模型
    • 黎曼优化方法
    • FM算法
    • 机器学习常见评价指标
    • VAE算法
    • Adam优化器详解
    • Transformer算法
    • Self-attention 推荐算法
    • CNN 卷积神经网络
    • 图嵌入
    • 集成学习算法
    • RecBole开源框架
    • NCE-PLRec
    • 深度学习初始化方法
    • RNN循环神经网络
    • PyTorch数据处理
    • PyTorch安装和基本操作
    • XGBoost算法
    • NCF算法与简单MF的对比
    • 计算最佳传输
  • CSS
    • 什么是BFC
    • 纯CSS实现可拖动布局
    • 滚动穿透解决方案
  • React
    • React 生命周期
    • React Ref
    • React Hooks
    • SWR
    • React 数据流
    • React 函数式组件和类组件的区别
  • 可视化
    • OffscreenCanvas
    • Echarts 平滑曲线端点为什么不平滑
    • 颜色空间
    • 词云布局解析
    • 3D 数学基础
    • Canvas 图片处理
    • GLGL ES
    • WebGL 中绘制直线
    • Graphics API
    • 现代计算机图形学基础
    • Canvas 灰度
  • Vue
    • Vue2.x全局挂载整理
    • Vue2.6.x源码阅读
      • Vue2.6.x源码阅读 - 2.目录结构分析
      • Vue2.6.x源码阅读 - 4.源码阅读-platform
      • Vue2.6.x源码阅读 - 1.准备工作
      • Vue2.6.x源码阅读 - 5.源码阅读-core-Vue构造函数
      • Vue2.6.x源码阅读 - 7.源码阅读-core-响应式原理
      • Vue2.6.x源码阅读 - 3.源码阅读-shared
      • Vue2.6.x源码阅读 - 6.源码阅读-core-组件挂载
    • Vue + TypeScript Web应用实践
    • Vue2.x指令
    • nextTick()的使用
    • vue-cli2.x 的使用与项目结构分析
    • Vue响应式原理及总结
    • VueX的使用
    • Electron-Vue + Python 桌面应用实践
    • Vite
    • Vue组件通信整理
    • 记录一个问题的探索过程
  • Linux
    • memcg
  • GameDev
    • 游戏中的几种投影视图
    • 从零开始写软渲染器06
    • 从零开始写软渲染器05
    • 从零开始写软渲染器04
    • 从零开始写软渲染器03
    • 从零开始写软渲染器02
    • 从零开始写软渲染器01
    • 从零开始写软渲染器00
    • 现代游戏常用的几种寻路方案(一)
  • Node
    • NPM Dependency
    • Node 优势
    • Node Stream
    • Node 模块系统
  • HTML
    • html5语义与结构元素
  • 跨端
    • Flutter 介绍
  • Golang
    • Golang 基础
  • AR
    • SceneKit
由 GitBook 提供支持
在本页
  • 数据划分和处理
  • 具体算法
  • 总结

这有帮助吗?

  1. MachineLearning

Embarassingly Autoencoder算法

上一页Shapley Value 算法下一页AutoRec算法及其后续发展

最后更新于4年前

这有帮助吗?

我们介绍过Autoencoder 以及后续的变分Autoencoder在图像生成上以及序列编码上的应用。而Autoencoder最初的作用是用深度训练的方式寻找特征降维的一种映射。

最近项目遇到一个问题就是AutoRec在面对物品数量较多的情景时显存不足,在这种情况下,需要将上万维的物品点击历史的multi-hot编码降维,而且数据十分稀疏。因此调研了一些用Autoencoder进行稀疏数据降维的方法。Embarrassingly Autoencoder就是其中一种。

该算法来自于2019年WWW的论文:

数据划分和处理

数据处理方面和一般的topk推荐的划分方式不同。由于这里主要是以user作为主体,选取user的点击集合作为特征。因此在划分时考虑的时验证模型对于multi-hot点击特征的处理能力。

具体来说,首先划出80%的点击作为训练集。假设训练集中有N个user, M个item。那么这M个item就会被视为item的全集。在训练过程中会将item的完整历史都输入模型进行训练。

测试过程则是类似于冷启动的过程。首先会划出测试集每个用户80%点击历史作为测试集中的支持集,然后再用这部分支持集输入模型去预测剩余的20%。

作者将这种验证方式称作强泛化(Strong generalization)。并且认为这比对同样的用户进行训练和测试的弱泛化评估方法要更加困难。

具体算法

具体算法设计上实际非常简单,以至于我最初也很难把它和autoencoder联系在一起。

作者提出的EASE算法从根本上可以总结为如下的优化目标。其中X是NxM的评分矩阵 B则是item的MxM相似度矩阵。

其中第二项是作为对相似度矩阵的正则化项。而3式提出的限制则是避免每个物品本身的自相似度的影响。

我认为该算法和Autoencoder的主要相似点是在于,它也是将整个点击历史的multi-hot向量组装起来作为模型的输入去进行重建和计算loss。用pytorch可以实现如下:

class EASE(nn.Module):
    def __init__(self, n_items, lambda1, lambda2):
        super(EASE, self).__init__()
        self.B = torch.nn.Parameter(torch.Tensor(n_items, n_items))
        self.lambda1 = lambda1
        self.lambda2 = lambda2

    def forward(self, X):
        recon_matrix = X @ self.B
        loss1 = X.sub(recon_matrix)
        loss1 = loss1 ** 2
        loss1 = loss1.sum()
        loss2 = torch.norm(self.B)
        loss3 = torch.sum((torch.diag(self.B) - 0) ** 2)

        return loss1 + self.lambda1 * loss2 + self.lambda2 * loss3

但是这样的方法是非深度的,也很难通过正常的神经网络放在GPU上训练,效率也非常低。作者的主要贡献是基于这个优化目标,证明了其具有close-form的解。如下所示:

总之,这篇论文对Transformer的改进为Transformer和它核心的self-attention机制应用于长程序列中提供了实验依据,在推荐系统等领域也可以对此进行借鉴参考。

从而可以通过下面的算法直接解出B。因此通过简单的cpu上矩阵运算即可,无需进行深度学习。

在测试过程中只需要进行这种运算解出B,然后再通过X*B的矩阵运算得到预测出的评分矩阵即可。

总结

本篇论文比较特殊,它通过非深度学习的方法,而且是直接把机器学习转化为了数学计算问题,并且得到了比其他机器学习方法更好的结果。其中数学知识的理解和巧妙应用值得我学习。

Embarrassingly Shallow Autoencoders for Sparse Data
EASE
close-form solutin
EASE_algorithm