编写同时在PyTorch和Tensorflow上工作的代码

作者|Ram Sagar
编译|VK
来源|Analytics In Diamag

“库开发人员不再需要在框架之间进行选择。”

来自德国图宾根人工智能中心的研究人员介绍了一种新的Python框架EagerPy,EagerPy允许开发人员编写独立于PyTorch和TensorFlow等流行框架的代码。

在最近发表的一篇关于EagerPy的文章中,研究人员写道,库开发人员不再关注框架依赖性。他们的新Python框架,急切地解决了它们的重新实现和代码复制障碍。

例如,Foolbox是一个构建在EagerPy之上的Python库。该库是用EagerPy而不是NumPy重写的,以实现在PyTorch和TensorFlow中开发,并且只有一个代码库,没有代码重复。Foolbox是一个对机器学习模型进行对抗性攻击的库。

框架无关的重要性

为了解决框架之间的差异,作者探索了句法偏差。在PyTorch的情况下,使用In-place的梯度需要使用_grad_(),而反向传播是使用backward()调用的。

然而,TensorFlow提供了一个高级管理器和像tape.gradient这样的函数来查询梯度。即使在句法层面,这两个框架也有很大的不同。例如,对于参数,dim vs axis;对于函数,sum vs reduce_sum。

这就是“EagerPy ”发挥作用的地方。它通过提供一个统一的API来解决PyTorch和TensorFlow之间的差异,该API透明地映射到各种底层框架,而无需计算开销。

EagerPy允许你编写自动使用PyTorch、TensorFlow、JAX和NumPy的代码。”

研究人员写道,EagerPy专注于Eager执行,此外,它的方法是透明的,用户可以将与框架无关的EagerPy代码与特定于框架的代码结合起来。

TensorFlow引入的eager执行模块和PyTorch的相似特性使eager执行成为主流,框架更加相似。然而,尽管PyTorch和TensorFlow2之间有这些相似之处,但编写框架无关的代码并不简单。在语法层面,这些框架中用于自动微分的api是不同的。

自动微分是指用算法求解微分方程。它的工作原理是链式规则,也就是说,求解函数的导数可以归结为基本的数学运算(加、减、乘、除)。这些算术运算可以用图形格式表示。EagerPy特别使用了一种函数式的方法来自动区分。

下面是一段来自文档的代码片段:

import eagerpy as ep

x = ep.astensor(x)

def loss_fn(x):
	#这个函数接受并返回一个eager张量
    return x.square().sum()

print(loss_fn(x))

# PyTorchTensor(tensor(14.))

print(ep.value_and_grad(loss_fn, x))

首先定义第一个函数,然后根据其输入进行微分。然后传递给ep.value_and_grad 来得到函数的值及其梯度。

此外,norm函数现在可以与PyTorch、TensorFlow、JAX和NumPy中的原生张量和数组一起使用,与本机代码相比几乎没有任何开销。它也适用于GPU张量。

import torch

norm(torch.tensor([1., 2., 3.]))

import tensorflow as tf

norm(tf.constant([1., 2., 3.]))

总之,EagerPy 旨在提供以下功能:

  • 为快速执行提供统一的API

  • 维护框架的本机性能

  • 完全可链接的API

  • 全面的类型检查支持

研究人员声称,这些属性使得使用这些属性比底层框架特定的api更容易、更安全。尽管有这些变化和改进,但EagerPy 背后的团队还是确保了eagerpy API遵循了NumPy、PyTorch和JAX设置的标准。

入门EagerPy

使用pip从PyPI安装最新版本:

python3 -m pip install eagerpy
import eagerpy as ep

def norm(x):

    x = ep.astensor(x)

    result = x.square().sum().sqrt()

    return result.raw

了解更多关于“eagerpy”的信息:https://eagerpy.jonasrauber.de/guide/autodiff.html

原文链接:https://analyticsindiamag.com/eagerpy-pytorch-tensorflow-coding/

欢迎关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官方文档:
http://sklearn123.com/

欢迎关注磐创博客资源汇总站:
http://docs.panchuang.net/

posted @ 2020-10-28 21:20  人工智能遇见磐创  阅读(499)  评论(0编辑  收藏  举报