[关闭]
@liuhui0803 2017-05-13T08:44:57.000000Z 字数 3897 阅读 1590

MXNet API入门 —第2篇

机器学习 深度学习 神经网络 MXNet AWS


摘要:

Apache MXNet是一种功能全面、可以灵活编程并且扩展能力超强的深度学习框架,支持包括卷积神经网络(CNN)与长短期记忆网络(LSTM)在内的顶尖深度模型。这一系列文章介绍了MXNet的基本概念和使用方法。本篇主要介绍了MXNet的Symbol API。

正文:

第1篇文章中,我们介绍了一些有关MXNet的基础知识,并介绍了NDArray API(简而言之:NDArrays可用于存储数据、参数等信息)。

在介绍过数据的存储后,本文将谈谈MXNet定义计算步骤的方式。

计算步骤?是说代码吗?

这个问题很棒!我们是否都学过“程序=数据结构+代码”?NDArrays是数据结构,那么接下来需要写代码了!

没错,是该这样做。我们需要明确定义所有步骤,随后针对数据按顺序运行。这也叫“指令式编程(Imperative programming)”,Fortran、Pascal、C、C++等都是这样做的,这么做也没什么错。

然而神经网络从本质上来说是一种并行的怪兽:在特定的技术层中,所有输出都可同步计算。每个层也可以并行运行。因此为了获得最佳性能,我们必须使用多线程或其他类似机制自行实现并行处理。具体做法大概都知道,而就算写出了恰当的代码,如果数据规模或网络布局不断变化,如何确保能可复用地进行?

好在还有其他备选方案。

1-V0ykrxGre3rGMet1I-eLVA.jpeg-40.3kB

数据流编程

数据流编程(Dataflow programming)”是一种定义并行运算的灵活方法,这种方法中,数据可通过Graph*的方式流动。Graph定义了运算顺序,即数据是要按顺序运算或并行运算。每个运算都是一种黑匣子:我们只需要为其定义输入和输出,无需制定具体的行为。

按照传统的计算机科学思路来看,这似乎很不靠谱,但实际上神经网络就是通过这种方式定义的:输入的数据流进行一系列叫做“层(Layer)”的有序操作,每一层可以并行运行指令。

说的差不多了,一起看一个例子吧。我们可以通过下列方式将E定义为(A*B) + (C*D)。

1-h0M4n_9FPyriCwT-LjE0HQ.png-21.8kB
E = (A*B) + (C*D)

A、B、C、D具体是什么目前暂不重要,它们实际上是符号(Symbol)

无论输入了什么内容(整数、向量、矩阵等),这个Graph可以告诉我们如何通过计算获得输出值,但前提是必须定义了“+”和“*”操作。

这个Graph还可以告诉我们 (A*B) 和 (C*D) 可以并行运算。

当然,MXNet会通过这些信息进行优化。

Symbol API

至此已经了解到这些东西为何叫做符号(Symbol)(显而易见嘛!)接下来一起看看如何为上述例子编写代码。

  1. >>> import mxnet as mx
  2. >>> a = mx.symbol.Variable('A')
  3. >>> b = mx.symbol.Variable('B')
  4. >>> c = mx.symbol.Variable('C')
  5. >>> d = mx.symbol.Variable('D')
  6. >>> e = (a*b)+(c*d)

看到了吗?上述代码完全是有效的。我们可以直接向E指派结果,而无需知道A、B、C、D分别是什么。继续吧。

  1. >>> (a,b,c,d)
  2. (<Symbol A>, <Symbol B>, <Symbol C>, <Symbol D>)
  3. >>> e
  4. <Symbol _plus1>
  5. >>> type(e)
  6. <class 'mxnet.symbol.Symbol'>

A、B、C、D是我们明确声明的符号。但E略有不同,它也是符号,但实际上它是“+”运算的结果。接下来进一步看看E。

  1. >>> e.list_arguments()
  2. ['A', 'B', 'C', 'D']
  3. >>> e.list_outputs()
  4. ['_plus1_output']
  5. >>> e.get_internals().list_outputs()
  6. ['A', 'B', '_mul0_output', 'C', 'D', '_mul1_output', '_plus1_output']

从上述代码可以知道:

当然,通过使用符号,我们能做的远远不止“+”和“*”。与NDArrays类似,还可以定义很多不同类型的运算(数学、格式等)。详细信息可以参阅API 文档

至此我们已经了解了如何定义计算步骤。接下来看看如何将其应用给实际数据。

NDArray与Symbol的绑定

将Symbol定义的计算步骤应用给NDArray中存储的数据,需要一种名为“绑定(Binding)”的操作,例如将一个NDArray分配给Graph的每个输入变量。

继续用上面的例子来看。在这里我们将“A”设置为1,“B”为2,“C”为3,“D”为4,因此我创建了4个包含单一整数的NDArray。

  1. >>> import numpy as np
  2. >>> a_data = mx.nd.array([1], dtype=np.int32)
  3. >>> b_data = mx.nd.array([2], dtype=np.int32)
  4. >>> c_data = mx.nd.array([3], dtype=np.int32)
  5. >>> d_data = mx.nd.array([4], dtype=np.int32)

随后将每个NDArray绑定给对应的Symbol。这里请注意,还需要选择用于执行该操作的上下文(CPU或GPU)。

  1. >>> executor=e.bind(mx.cpu(), {'A':a_data, 'B':b_data, 'C':c_data, 'D':d_data})
  2. >>> executor
  3. <mxnet.executor.Executor object at 0x10da6ec90>

接着需要让输入的数据流经Graph并获得结果:这是通过forward()函数实现的。由于一个Graph可以包含多个输出,因此该函数可以返回NDArrays组成的数组。这里我们只有一个输出,即“14”这个值,这个值当然与 (1*2)+(3*4) 的运算结果是相等的。

  1. >>> e_data = executor.forward()
  2. >>> e_data
  3. [<NDArray 1 @cpu(0)>]
  4. >>> e_data[0]
  5. <NDArray 1 @cpu(0)>
  6. >>> e_data[0].asnumpy()
  7. array([14], dtype=int32)

接下来我们将这个Graph应用给四个1000x1000矩阵,这些矩阵中填充了介于0和1之间的随机浮点数。为此我们只需要定义新的输入数据,绑定和计算过程是完全相同的

  1. >>> a_data = mx.nd.uniform(low=0, high=1, shape=(1000,1000))
  2. >>> b_data = mx.nd.uniform(low=0, high=1, shape=(1000,1000))
  3. >>> c_data = mx.nd.uniform(low=0, high=1, shape=(1000,1000))
  4. >>> d_data = mx.nd.uniform(low=0, high=1, shape=(1000,1000))
  5. >>> executor=e.bind(mx.cpu(), {'A':a_data, 'B':b_data, 'C':c_data, 'D':d_data})
  6. >>> e_data = executor.forward()
  7. >>> e_data
  8. [<NDArray 1000x1000 @cpu(0)>]
  9. >>> e_data[0]
  10. <NDArray 1000x1000 @cpu(0)>
  11. >>> e_data[0].asnumpy()
  12. array([[ 0.89252722, 0.46442914, 0.44864511, ..., 0.08874825,
  13. 0.83029556, 1.15613985],
  14. [ 0.10265817, 0.22077513, 0.36850023, ..., 0.36564362,
  15. 0.98767519, 0.57575727],
  16. [ 0.24852338, 0.6468209 , 0.25207704, ..., 1.48333383,
  17. 0.1183901 , 0.70523977],
  18. ...,
  19. [ 0.85037285, 0.21420079, 1.21267629, ..., 0.35427764,
  20. 0.43418071, 1.12958288],
  21. [ 0.14908466, 0.03095067, 0.19960476, ..., 1.13549757,
  22. 0.22000578, 0.16202438],
  23. [ 0.47174677, 0.19318949, 0.05837669, ..., 0.06060726,
  24. 1.01848066, 0.48173574]], dtype=float32)

很酷吧!这种数据和计算之间明确的区分使得我们可以在不同环节同时获得最佳效果

本文的内容就是这些。下篇文章将介绍Module API,随后将开始训练并使用神经网络!

后续内容:
- 第3篇:Module API
- 第4篇:使用预训练模型进行图片分类(Inception v3)
- 第5篇:进一步了解预训练模型(VGG16和ResNet-152)
- 第6篇:通过树莓派进行实时物体检测(并让它讲话!)

作者Julien Simon阅读英文原文An introduction to the MXNet API — part 2

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注