240 发简信
IP属地:江西
  • Resize,w 360,h 240
    【转载】Bert系列(二)——源码解读之模型主体

    原文章链接:https://www.jianshu.com/p/d7ce41b58801 本篇文章主要是解读模型主体代码modeling.py。...

  • 【转载】Bert系列(一)——demo运行

    原文章链接:https://www.jianshu.com/p/3d0bb34c488a 谷歌推出的Bert,最近有多火,估计做自然语言处理的都...

  • tf.variable_scope和tf.name_scope的用法

    无论tf.get_variable或者tf.Variable生成的变量,tf.variable_scope可以让不同命名空间中的变量取相同的名字...

  • tf.Variable()和tf.get_variable()

    tf.Variable()参数 经常使用的参数有initial_value、name、shape三个,分别是初始化,命名和规定所需要的形状大小。...

  • sess.run()方法

    参数详解 fetches可以是单个图元素(single graph element),也可以是任意嵌套的列表list,元组tuple,名称元组n...

  • Resize,w 360,h 240
    GoogLeNet重要结构:1x1卷积核

    深度神经网络的缺陷 我们知道在设计神经网络时最保险的就是增加网络的深度和宽度,增加深度就是要设计更多的网络层数,增加宽度就是增加卷积核的个数。但...

  • tf.Session()和tf.Session().as_default()的区别

    tf.Session():创建一个会话 在打印张量b的值时报错,报错为尝试使用一个已经关闭的会话。 tf.Session().as_defaul...

  • tf.app.flags.DEFINE_xxx()和tf.app.flags.FLAGS

    tf.app.flags.DEFINE_xxx()就是添加命令行的optional argument(可选参数)。 tf.app.flags.F...

  • Resize,w 360,h 240
    VGGNet为什么效果比AlexNet好

    VGGNet简介 VGGNet网络结构 下图是学界最常使用的vgg-16神经网络结构图,可以看到其组成由: 个通道数是的的卷积层 个通道数是的的...