郭必扬的写字楼 郭必扬的写字楼
Home
深度学习笔记
NLP笔记
吃点儿论文
工程
随笔
Me
  • Github (opens new window)
  • 微信公众号「SimpleAI」 (opens new window)
  • 知乎「蝈蝈」 (opens new window)
  • 简书 (opens new window)
Home
深度学习笔记
NLP笔记
吃点儿论文
工程
随笔
Me
  • Github (opens new window)
  • 微信公众号「SimpleAI」 (opens new window)
  • 知乎「蝈蝈」 (opens new window)
  • 简书 (opens new window)
  • 深度学习系列笔记

    • 文章列表

    # 深度学习系列笔记

    # 文章列表

    「杂谈」从直觉上理解什么是最速下降法&共轭梯度法
    「杂谈」深度学习中的正则化(Regularization)
    「杂谈」深度学习中的的超参数调节
    通俗科普文:贝叶斯优化与SMBO、高斯过程回归和TPE
    「杂谈」神经网络中的激活(Activation)函数及其对比
    「杂谈」理解L1,L2正则化的正确姿势
    【DL笔记10】用TensorFlow和Keras搭建CNN的对比
    「杂谈」神经网络中的优化算法
    【DL笔记1】Logistic回归:最基础的神经网络
    【DL笔记2】神经网络编程原则&Logistic Regression的算法解析
    【DL笔记3】一步步亲手用python实现Logistic Regression
    【DL笔记5】用TensorFlow搭建神经网络——手写数字识别
    【DL笔记4】神经网络详解,正向传播和反向传播
    【DL笔记6】从此明白了卷积神经网络(CNN)
    【DL笔记7】他山之玉——窥探CNN经典模型
    【DL笔记9】迁移学习——光明正大借用前人劳动成果
    【DL笔记8】如果你愿意一层一层剥开CNN的心——你会明白它究竟在做什么
    一个小问题:深度学习模型如何处理大小可变的输入
    神经网络的前世今生
    如何理解Inductive bias(归纳偏置)?
    保姆级情感分类模型开发
    「杂谈」神经网络参数初始化的学问