忘记续费了。。。。新的把com改成cn
使用Python解析MNIST数据集(IDX文件格式)前言 最近在学习Keras,要使用到LeCun大神的MNIST手写数字数据集,直接从官网上下载了4个压缩包: 解压后发现里面每个压缩包里有一个idx-ubyte文件,没有图片...
忘记续费了。。。。新的把com改成cn
使用Python解析MNIST数据集(IDX文件格式)前言 最近在学习Keras,要使用到LeCun大神的MNIST手写数字数据集,直接从官网上下载了4个压缩包: 解压后发现里面每个压缩包里有一个idx-ubyte文件,没有图片...
@海桐爱学习 参考深度学习框架的源码, 比如Keras
【梯度下降法】三:学习率衰减因子(decay)的原理与Python实现前言 梯度下降法(Gradient Descent)是机器学习中最常用的优化方法之一,常用来求解目标函数的极值。 其基本原理非常简单:沿着目标函数梯度下降的方向搜索极小值(也...
@熊猫熏香 牛逼,典型的码农思维
使用Python解析MNIST数据集(IDX文件格式)前言 最近在学习Keras,要使用到LeCun大神的MNIST手写数字数据集,直接从官网上下载了4个压缩包: 解压后发现里面每个压缩包里有一个idx-ubyte文件,没有图片...
前言 最近没怎么更新博客,是因为最近三个月我主要花时间在造一个轮子:深度学习库 Hamaa。 GitHub地址:GitHub : monitor1379/hamaa 文档地址...
Using Keras and Deep Q-Network to Play FlappyBird—— github源码该项目通过卷积神经网络加Q-learning算法,利用...
UNDERSTANDING CONVOLUTIONAL NEURAL NETWORKS FOR NLP 卷积 卷积就是对矩阵(图像)应用的滑动窗口函数。 图中绿色为一个二值图...
前言 梯度下降法(Gradient Descent)是机器学习中最常用的优化方法之一,常用来求解目标函数的极值。 其基本原理非常简单:沿着目标函数梯度下降的方向搜索极小值(也...
前言 梯度下降法(Gradient Descent)是机器学习中最常用的优化方法之一,常用来求解目标函数的极值。 其基本原理非常简单:沿着目标函数梯度下降的方向搜索极小值(也...
前言 梯度下降法(Gradient Descent)是机器学习中最常用的优化方法之一,常用来求解目标函数的极值。 其基本原理非常简单:沿着目标函数梯度下降的方向搜索极小值(也...
前言: 以斯坦福cs231n课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。建议PC端阅读,该课程的学习资料和代码如下:视频和PPT笔记assig...
装饰器简介 在Python中,装饰器属于“元编程”的类别,“元编程”的主要目的就是创建函数或者类,并且用它们来操纵代码,比如说修改、生成或者包装已有的代码。而装饰器就是为修改...
前言 整个快速教程直接上例子,具体对Cython的使用可以看参考文章。以下工作均在Windows 10 + Python 2.7 + NumPy 1.11.0 + Cytho...
@dalalaa 谢谢~
Python调用C函数的方法以及如何编写Python的C扩展前言 前言属闲聊,正文请转后。 标题比较长,其实“如何用Python调用C的函数”以及“如何编写Python的C扩展”在广义上是同一件事,因为都是用C写底层实现,用Pytho...
前言 前言属闲聊,正文请转后。 标题比较长,其实“如何用Python调用C的函数”以及“如何编写Python的C扩展”在广义上是同一件事,因为都是用C写底层实现,用Pytho...