郭必扬的写字楼
Home
深度学习笔记
NLP笔记
吃点儿论文
工程
随笔
Me
在别处~
在别处~
Github
(opens new window)
微信公众号「SimpleAI」
(opens new window)
知乎「蝈蝈」
(opens new window)
简书
(opens new window)
#
深度学习系列笔记
#
文章列表
「杂谈」从直觉上理解什么是最速下降法&共轭梯度法
「杂谈」深度学习中的正则化(Regularization)
「杂谈」深度学习中的的超参数调节
通俗科普文:贝叶斯优化与SMBO、高斯过程回归和TPE
「杂谈」神经网络中的激活(Activation)函数及其对比
「杂谈」理解L1,L2正则化的正确姿势
【DL笔记10】用TensorFlow和Keras搭建CNN的对比
「杂谈」神经网络中的优化算法
【DL笔记1】Logistic回归:最基础的神经网络
【DL笔记2】神经网络编程原则&Logistic Regression的算法解析
【DL笔记3】一步步亲手用python实现Logistic Regression
【DL笔记5】用TensorFlow搭建神经网络——手写数字识别
【DL笔记4】神经网络详解,正向传播和反向传播
【DL笔记6】从此明白了卷积神经网络(CNN)
【DL笔记7】他山之玉——窥探CNN经典模型
【DL笔记9】迁移学习——光明正大借用前人劳动成果
【DL笔记8】如果你愿意一层一层剥开CNN的心——你会明白它究竟在做什么
一个小问题:深度学习模型如何处理大小可变的输入
神经网络的前世今生
如何理解Inductive bias(归纳偏置)?
保姆级情感分类模型开发
「杂谈」神经网络参数初始化的学问