首页 > AI资讯 > 最新资讯 > Keras3.0正式发布!一统TF/PyTorch/Jax三大后端,改变游戏规则

Keras3.0正式发布!一统TF/PyTorch/Jax三大后端,改变游戏规则

新火种    2023-12-01

梦晨 发自 凹非寺量子位 | 公众号 QbitAI

Keras 3.0正式发布,被誉为改变了机器学习游戏规则:不仅支持TensorFlow、PyTorch、Jax三大框架作为后端,还能在它们之间无缝切换,甚至混合使用。Keras之父François Chollet认为,这样至少可以获得4大好处:始终让模型获得最佳性能:JAX通常在GPU、CPU各种PU上都最快,但不使用XLA(加速线性代数)的Tensorflow在GPU上偶尔更快。Keras 3.0能够动态为模型提供最佳性能的后端,而无需更改代码,保证以最高效率运行。解锁多个生态系统任何Keras 3模型都可以作为PyTorch模块实例化,可以导出为TF的SavedModel,或者可以实例化为无状态的 JAX 函数。这意味着可以将Keras 3模型与PyTorch生态的包,TensorFlow中的部署工具或生产工具,以及JAX大规模TPU训练基础设施一起使用,获得机器学习世界所提供的一切。在开源社区扩大影响力如果使用纯TensorFlow或PyTorch实现一个开源模型,都只有大约一半的人能使用。但如果使用Keras 3,任何人无论偏好哪个框架,(即使不是 Keras 用户)都能立刻使用。在不增加开发成本的情况下,使影响力翻倍。使用任何来源的数据管道无论使用哪个后端,Keras 3 都能与tf.data.Dataset对象、PyTorch DataLoader对象、NumPy 数组、Pandas数据框兼容。这意味着可以在PyTorch DataLoader上训练Keras 3 + TensorFlow模型,或在 tf.data.Dataset上训练Keras 3 + PyTorch模型。不少人都对这一进展表示祝贺,项目参与者、谷歌高级工程师Aakash Kumar Nain认为:Keras 3再次展示了心智模型的重要性。开发API 是一方面,而开发一个拥有出色心智模型的API则完全是另一个层次的工程实践。也有开发者表示:很高兴能够通过熟悉的Keras API获得框架可选性,让简单的用例变得容易,复杂的用例也成为可能。欢迎来到多框架机器学习Keras 3.0发布公告中开篇写到,欢迎来到多框架机器学习。具体来说,Keras 3.0完全重写了框架API,并使其可用于TensorFlow、JAX和PyTorch。任何仅使用内置层的Keras模型都将立即与所有支持的后端配合使用。使用Keras 3可以创建在任何框架中都能以相同方式工作的组件,允许访问跨所有后端运行的keras.ops命名空间。只要仅使用keras.ops中的ops,自定义层、损失、指标和优化器等就可以使用相同的代码与JAX、PyTorch和TensorFlow配合使用。这意味着只需维护一个组件实现,就可以在所有框架中使用完全相同的数值。除此之外,还发布了用于大规模数据并行和模型并行的新分布式API,为多设备模型分片问题提供Keras风格的解决方案。为此设计的API使模型定义、训练逻辑和分片配置完全独立,这意味可以像在单个设备上运行一样编写代码,然后在训练任意模型时将任意分片配置添加到任意模型中。不过新的分布式API目前仅适用于JAX后端,TensorFlow和PyTorch支持即将推出。为适配JAX,还发布了用于层、模型、指标和优化器的新无状态API,添加了相关方法。这些方法没有任何副作用,它们将目标对象的状态变量的当前值作为输入,并返回更新值作为其输出的一部分。用户不用自己实现这些方法,只要实现了有状态版本,它们就会自动可用。如果从Keras 2迁移到3,使用tf.keras开发的代码通常可以按原样在Keras 3中使用Tensorflow后端运行。有限数量的不兼容之处也给出了迁移指南。在旧版Keras 2中开发的预训练模型通常也可以在Keras 3中使用TensorFlow后端开箱即用。如果旧版模型仅使用了Keras内置层,那么也可以在Keras 3中使用JAX和PyTorch后端开箱即用。也有人敲警钟在迫不及待尝试新版本的开发社区氛围中,Cohere机器学习总监Nils Reimers提出“真心希望历史不要重演”,也获得不少关注。Reimers认为,Keras最初从支持单个后端(Theano)开始,陆续添加了Tensorflow、MXNet和CNTK等多后端。这引发了一系列问题:某些功能只在特定后端可用各个后端的计算结果存在不一致:在一个后端上运行正常的代码,在另一个后端可能产生不同结果对于开源软件开发者来说体验糟糕:你刚完成了一个自定义的 Keras层想要分享?你是否愿意为其他后端重新实现和优化它呢?调试问题:代码在一个后端上表现完美,但在另一个后端的最新版本上却频繁出错…随着时间推移,这些问题愈发严重:某些模块只能在 Theano 上运行良好,某些只适用于Tensorflow,还有一些模块可以在MXNet上进行推理,但无法训练…因此,2019年Keras转向单一后端(Tensorflow),是保障这一伟大项目继续存在的关键之举。我希望这一次的多后端能有更好的表现,但这无疑仍是一个挑战。您是否需要等到像FlashAttention v2这样的重要特性在JAX、TensorFlow和PyTorch 上都可用后,才能在 Keras 中使用它?还是说您只能在某些特定后端中使用它?对于未来,我们还面临着许多未解决的挑战。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。