在大部分的谷歌机器学习过程中,用于训练 (training) 和推理 (inference) 的发布数据都需要进行数据的预处理,通过预处理将不同的深度算图输入数据(例如图像)规整至相同尺寸并进行批(batch)存储。这一步使高性能的学习深度学习库,例如 TensorFlow,持动可以并行的态计处理批存储中的所有输入,且以相同的谷歌计算图(computation graph)进行处理。批处理(Batching)利用现代 GPU 和多核 CPU 的发布单指令流多数据流(SIMD)性能来加速运算执行。但是深度算图,当输入数据的学习尺寸和结构变化时会产生诸多问题,例如在自然语言理解中的持动解析树(parse tree)、源代码中的态计抽象语法树(abstract syntax tree)、网页的谷歌文档树(DOM tree)等。在这些情况下,发布不同的深度算图输入数据需要不同的计算图,通常这些计算图不能够批存储在一起,导致处理器、存储器以及缓存利用率低。企商汇

今天我们发布 TensorFlow Fold 来解决这些困难。TensorFlow Fold 使得处理不同数据尺寸和结构的深度学习模型更容易实现。不仅如此,TensorFlow Fold 将批处理的优势赋予这些模型,使得这些模型在 CPU 上的运行速度有超过 10 倍的提升,在 GPU 上的运行有超过 100 倍的提升(相比于其他实现方式)。这一提升来源于动态批存储(dynamic batching)技术,在我们的论文中有详细介绍(Deep Learning with Dynamic Computation Graphs)。

以上动图演示了动态批处理运行的递归神经网络。带有同样的颜色的运算聚成一批,这使得 TensorFlow 能够更快的运行它们。Embed 运算将单词转换为向量表征。完全连接(fully connected,FC)运算结合词向量,从而形成段落向量表征。网络的输出是一个完整语句的向量表征。尽管上图只演示了一个语句解析树,但在多种任意形状与大小的解析树上,服务器托管这个网络同样也能运行并实现批处理运算。
TensorFlow Fold 库首先会为每个输入建立一个独立的计算图。
因为单独的输入可能有不同的大小和结构,计算图也可能是这样。动态批处理自动结合这些图,从而获取在输入内以及整个输入进行批处理机会的优势,并且插入额外的指令在批处理操作之间移动数据。(查看技术细节请参考论文)
想要了解更多,也可以查看我们的 github 网址:https://github.com/tensorflow/fold。我们希望 TensorFlow Fold 能够帮助研究人员与从业者在 TensorFlow 中部署动态计算的神经网络。
论文:DEEP LEARNING WITH DYNAMIC COMPUTATION GRAPHS

摘要:在包括自然语言处理(解析树)与化学信息学(分子图)在内的多个领域中,在图结构上进行计算的神经网络是解决问题的天然方式。然而,因为每个输入的计算图有不同的形状与大小,所以网络通常不能直接进行批训练或推断。它们也难以部署到流行的深度学习库中,因为这些库是基于静态数据流图的b2b供应网。我们引入了一种称之为动态批处理(Dynamic Batching) 的技术,它不仅能批处理不同输入图(形状也不类似)之间的运算,也能批处理单个输入图内的不同节点。该技术使得我们能够创造静态图、使用流行的库、模仿任意形状与大小的动态计算图。我们进一步展现了组成区块的高层次库,从而简化了创造动态图模型的过程。使用这一库,我们论证了文献中多种模型的简洁且明智的批处理并行实现。
原文:https://research.googleblog.com/2017/02/announcing-tensorflow-fold-deep.html
【本文是专栏机构机器之心的原创译文,微信公众号“机器之心( id: almosthuman2014)”】
戳这里,看该作者更多好文
相关文章:
相关推荐:
亿华云企商汇香港云服务器服务器租用源码下载IT技术网源码库IT资讯网益华科技益华科技益华IT技术论坛云站无忧益强编程堂亿华互联极客码头益强前沿资讯益强编程舍亿华智造益强智囊团亿华科技益强科技技术快报益华科技IT资讯网益强资讯优选多维IT资讯运维纵横思维库益强科技亿华灵动科技前瞻极客编程亿华云计算亿华智慧云智能时代全栈开发益强数据堂码力社益强IT技术网码上建站创站工坊云智核
0.5275s , 11672.578125 kb
Copyright © 2025 Powered by 谷歌发布深度学习库TensorFlow Fold,支持动态计算图,汇智坊 滇ICP备2023006006号-2