美文网首页"人工智障 机器瞎学 数据掩埋" 入门笔记
【原创】复数神经网络的反向传播算法,及pytorch实现方法

【原创】复数神经网络的反向传播算法,及pytorch实现方法

作者: JamesPang_4841 | 来源:发表于2019-09-26 08:58 被阅读0次

    复函数的可导性

    复变函数按照是否可导,分为全纯函数holomothic和nonholomophic,判断条件为Cauchy-Riemann方程。

    对于不可导的nonholomophic函数:

    Wirtinger算子

    采用Wirtinger算子来计算反向传播。

    Wirtinger算子的思路是,将任何复变函数f,看做f(z,z*),求导数就是对z和共轭z*分别求导:
                        df=\frac{\partial f}{\partial z} dz+\frac{\partial f}{\partial z^*}dz^* \\
    其中:
    \frac{\partial }{\partial z}=\frac{\partial }{\partial x}-j\frac{\partial }{\partial y} \\
\frac{\partial }{\partial z^*}=\frac{\partial }{\partial x}+j\frac{\partial }{\partial y}
    z=x + jy。

    而全纯函数f(z),当且仅当df/dz*=0。

    参考123


    Pytorch实现

    损失函数梯度

    损失函数J的梯度为:

                        \nabla J(z) =2\left(\frac{\partial J}{\partial w}\right)^*\\

    且由于J为实数,因此:

                            \begin{align}\nabla J &= 2\left(\frac{\partial J}{\partial y} \frac{\partial y}{\partial w} + \frac{\partial J}{\partial y^*} \frac{\partial y^*}{\partial w} \right)^* \\&=2\left(\frac{\partial J}{\partial y} \frac{\partial y}{\partial w} + \left[\frac{\partial J}{\partial y}\frac{\partial y}{\partial w^*} \right]^*\right)^*\\&=\nabla J\left(\frac{\partial y}{\partial w}\right)^*+\left(\nabla J\right)^*\frac{\partial y}{\partial w^*}\end{align}\\

    综上,算法流程如下:

    1) 全纯函数y=f(w):
            由于dy/dw*=0,由推导可知,梯度与实数域结果一样,无需额外实现
    2)非全纯函数y=f(w,w*):
            a, 求得g1 = dy/dw,g2 = dy/dw*。
            b, 拿到上层backward回来的梯度,也就是grad_output
            c, 求得本节点的梯度 += grad_output.g1* + grad_output*.g2

    具体实现

    pytorch自动求导机制可以通过继承torch.autograd.Function来扩展求导算法。由上可知,只需要扩展非全纯函数即可。

    复数的矩阵表示形式为z[..., 2],最后维度的2个值分别是实部和虚部。

    例如函数 y=z.z*的实现如下:

    相关文章

      网友评论

        本文标题:【原创】复数神经网络的反向传播算法,及pytorch实现方法

        本文链接:https://www.haomeiwen.com/subject/ojxkuctx.html