linuxsir首页 LinuxSir.Org | Linux、BSD、Solaris、Unix | 开源传万世,因有我参与欢迎您!
网站首页 | 设为首页 | 加入收藏
您所在的位置:主页 > 小企鹅新闻图书馆 >

来自2019 TensorFlow开发者峰会的热门公告

时间:2019-03-11  来源:未知  作者:admin666

为期两天的2019年TensorFlow开发者峰会刚刚结束,对TensorFlow生态系统进行了重大更新。主要公告包括发布最令人垂涎??的TensorFlow 2.0的第一个alpha版本。还宣布了TensorFlow Lite 1.0、TensorFlow Federated、TensorFlow Privacy等。

来自2019 TensorFlow开发者峰会的热门公告

TensorFlow Federated

在一篇medium博客中,Alex Ingerman(产品经理)和Krzys Ostrowski(研究科学家)在第一天就介绍了TensorFlow Federated框架。这个开源框架对于在分散数据上进行机器学习和其他计算非常有用。

顾名思义,这个框架使用了Federated Learning,这是谷歌在2017年引入的一种学习方法。这种技术使ML模型能够协作地学习共享的预测模型,同时将所有训练数据保存在设备上。因此,机器学习不再需要将数据存储在云中。

作者指出,TFF是基于他们在谷歌开发联合学习技术的经验。TFF使用Federated Learning API来表示ML模型体系结构,然后跨多个开发人员提供的数据对其进行培训,同时保持每个开发人员的数据是独立的和本地的。它还使用Federated核心(FC) API,这是一组较低层的原语,支持在分散的数据集中表达广泛的计算范围。

作者总结道: 有了TFF,我们很高兴能将一个灵活、开放的框架放在所有TensorFlow用户手中,用于本地模拟分散计算。你可以在浏览器中试用TFF,只需点击几下,就可以浏览教程。

TensorFlow 2.0.0 - alpha0

本次峰会还发布了TensorFlow 2.0框架的第一个alpha版本,该版本的API更少。去年8月谷歌工程师Martin Wicke首次推出TensorFlow 2.0这款应用,预计将推出以下功能:

使用Keras和热切的执行轻松建模。 在任何平台上进行生产中的强大模型部署。 强大的研究实验。 通过减少重复删除已弃用的端点来简化API。 第一个预告片,TensorFlow 2.0.0-alpha0版本附带以下更改: API清理包括删除tf.app,tf.flags和tf.logging以支持absl-py。 没有更多的全局变量使用辅助方法,如tf.global_variables_initializer和 tf.get_global_step。 函数,而不是会话(tf.Session和 session.run - tf.function)。 在TensorFlow 2.0中添加了对TensorFlow Lite的支持。 tf.contrib已被弃用,功能已迁移到核心TensorFlow API,tens福彩3d选号技巧orflow / addons或完全删除。 RNN和优化器的检查点断裂。

还对Keras和Python API以及tf.estimator进行了一些小错误修复。

阅读更改日志中的错误修复的完整列表。

TensorFlow Lite 1.0

TF-Lite框架基本上旨在帮助开发人员在移动和物联网设备上部署机器学习和人工智能模型。 Lite于2017年5月在I/O开发者大会上首次推出,并于当年晚些时候在开发人员预览中推出。在TensorFlow 开发者峰会上,该团队宣布了该框架的新版本TensorFlow Lite 1.0。根据VentureBeat的一篇文章,改进包括在训练期间和之后选择性注册和量化更快,更小的模型。 TF-Lite 1.0背后的团队表示,量化帮助他们实现了一些模型压缩的4倍。

TensorFlow Privacy

在TensorFlow开发峰会上发布的另一个有趣的库是TensorFlow Privacy。这个基于Python的开源库帮助开发人员培训他们的机器学习模型,提供强大的隐私保障。为实现这一目标,它从差异隐私原则中汲取灵感。这种技术提供了强大的数学保证,模型在训练用户数据时不会学习或记住任何特定用户的详细信息。

TensorFlow Privacy包括用于训练具有差异隐私的机器学习模型的TensorFlow优化器的实现。有关更多信息,您可以通过技术白皮书更详细地描述其隐私机制。

创作者还注意到 使用TensorFlow Privacy时,不需要隐私专业知识或其基础数学。那些使用标准TensorFlow机制的人不应该改变他们的模型架构,培训程序或流程。

TensorFlow Replicator

TF Replicator也在TensorFlow Dev Summit上发布,是一个软件库,可以帮助研究人员在GPU和云TPU上部署他们的TensorFlow模型。为此,创建者确保开发人员只需要很少的工作量,并且不需要具有分布式系统的先前经验。

对于多GPU计算,TF-Replicator依赖于 in-graph replication 模式,其中每个设备的计算在同一TensorFlow图内复制。

当TF-Replicator构建图内复制计算时,它首先独立地为每个设备构建计算,并留下占位符,其中用户指定了跨设备计算。一旦构建了所有设备的子图,TF-Replicator就会通过用实际的跨设备计算替换占位符来连接它们。

有关更全面的描述,您可以阅读研究论文。

这些是在TensorFlow Dev Summit 2019上做出的最重要的公告。您可以浏览此YouTube播放列表上的公告和教程的主题演讲和其他视频。

Linux公社的RSS地址:https://www.linuxidc.com/rssFeed.aspx

本文永久更新链接地址:https://www.linuxidc.com/Linux/2019-03/157380.htm

linux Qt 5.13支持处理Lottie文件,可以方便地进行移植 Apache Maven Javadoc Plugin 3.1.0 发布
上一篇:RISC
友情链接