我的梦想
不是每个人都应该像我这样去建造一座水晶大教堂,但是每个人都应该拥有自己的梦想,设计自己的梦想,追求自己的梦想,实现自己的梦想。梦想是生命的灵魂,是心灵的灯塔,是引导人走向成功的信仰。有了崇高的梦想,只要矢志不渝地追求,梦想就会成为现实,奋斗就会变成壮举,生命就会创造奇迹。——罗伯·舒乐
N-Shot 学习 N-Shot 学习
参考连接:https://blog.floydhub.com/n-shot-learning/ Artificial Intelligence is the new electricity - Andrew NG If AI is t
2019-12-24
Hello World Hello World
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hex
2019-12-24
互怼的艺术:从零直达 WGAN-GP 互怼的艺术:从零直达 WGAN-GP
参考资料:PaperWeekly 第41期 | 互怼的艺术:从零直达 WGAN-GP 1 前言 GAN,全称 Generative Adversarial Nets,中文名是生成对抗式网络。对于 GAN 来说,最通俗的解释就是“造假者-
2019-12-20
LSTM LSTM
参考资料:https://colah.github.io/posts/2015-08-Understanding-LSTMs/ 循环神经网络Humans don’t start their thinking from scratch ev
2019-12-20
理解和使用Pytorch搭建GAN 理解和使用Pytorch搭建GAN
参考链接:https://becominghuman.ai/understanding-and-building-generative-adversarial-networks-gans-8de7c1dc0e25 原文标题:Understa
2019-12-20
变分自编码器VAE是这么一回事 变分自编码器VAE是这么一回事
参考链接:https://zhuanlan.zhihu.com/p/34998569 过去虽然没有细看,但印象里一直觉得变分自编码器(Variational Auto-Encoder,VAE)是个好东西。趁着最近看概率图模型的三分钟热度,
2019-12-20
变分自编码器背后的直觉 变分自编码器背后的直觉
参考链接:https://wiseodd.github.io/techblog/2016/12/10/variational-autoencoder/ There are two generative models facing neck
2019-12-20
词嵌入 词嵌入
1. 为何不采用 one-hot 向量假设词典中不同词的数量(词典大小)为 N,每个词可以和从 0 到N−1的连续整数一一对应。这些与词对应的整数叫做词的索引。 假设一个词的索引为i,为了得到该词的 one-hot 向量表示,我们创建一个全
2019-12-20 lunyang
探幽深度生成模型的两种方法 探幽深度生成模型的两种方法
参考链接:https://www.zybuluo.com/sambodhi/note/1040483 近年来,深度生成模型(Deep Generative Models)取得了令人瞩目的成功。其中有两种强大的深度生成模型学习框架:变分自
2019-12-20
从图嵌入算法到图神经网络 从图嵌入算法到图神经网络
参考链接:https://blog.csdn.net/weixin_43269174/article/details/98492487 一、引言近几年来,伴随着计算机算力的急剧提升,神经网络从历史的尘埃中走出,横扫各大领域,完成一次次颠覆
2019-12-20
零基础入门深度学习-递归神经网络 零基础入门深度学习-递归神经网络
参考链接:https://www.zybuluo.com/hanbingtao/note/626300 往期回顾在前面的文章中,我们介绍了循环神经网络,它可以用来处理包含序列结构的信息。然而,除此之外,信息往往还存在着诸如树结构、图结构等
2019-12-20
零基础入门深度学习-循环神经网络 零基础入门深度学习-循环神经网络
参考资料:https://www.zybuluo.com/hanbingtao/note/541458 %20-%20%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/22566
2019-12-20
1 / 2