How to use Docker containers and Docker Compose for Deep Learning applications
了解如何使用 Docker 容器化深度学习模型。从容器背后的基本概念开始,使用 Docker 打包 Tensorflow 应用程序,并使用 Docker compose 组合多个图像
How to use uWSGI and Nginx to serve a Deep Learning model
使用 Flask、uWSGI 作为 Web 服务器以及 Nginx 作为反向代理向用户提供 Tensorflow 模型。为什么我们同时需要 uWSGI 和 Flask,为什么我们需要在 uWSGI 之上使用 Nginx,以及一切是如何连接在一起的?
Deploy a Deep Learning model as a web application using Flask and Tensorflow
如何使用 Flask 将使用 Tensorflow 构建的深度学习模型公开为 API。了解如何构建 Web 应用程序以向用户提供模型,以及如何使用 HTTP 客户端向其发送请求。
Distributed Deep Learning training: Model and Data Parallelism in Tensorflow
如何使用镜像策略、参数服务器和中央存储等分布式方法在多个 GPU 或机器中训练数据。
简介我一直在寻找 AutoML 解决方案的列表以及对它们进行比较的方法,但一直没能找到。所以我想我不妨编制一份清单供其他人使用。如果您不熟悉 AutoML,请阅读这篇文章以快速了解其优缺点。我还没有能够测试所有这些并做出适当的评论,所以这只是基于功能的比较。我试图挑选出我觉得最重要的功能,但它对你来说可能不是最重要的。如果您认为缺少某些功能,或者您知道应该在列表中的 AutoML 解决方案,请告诉我。在我们进入列表之前,我会快速介绍一下这些功能以及我如何解释它们。功能部署某些解决方案可以通过一键部署直接自动部署到云端。有些只是导出到 Tensorflow,有些甚至可以导出到边缘设备。类型可以是
How to build a custom production-ready Deep Learning Training loop in Tensorflow from scratch
使用检查点和 Tensorboards 可视化在 Tensorflow 和 Python 中构建自定义训练循环
这篇文章探讨了如何使用 TensorFlow 和 R 训练大型数据集。具体来说,我们介绍了如何下载和重新分区 ImageNet,然后使用 TensorFlow 和 Apache Spark 在分布式环境中跨多个 GPU 训练 ImageNet。
Data preprocessing for deep learning: How to build an efficient big data pipeline
如何使用 ETL 模式和函数式编程在 Tensorflow 中开发高性能输入管道
有关如何调试机器学习代码以及如何使用日志捕获生产中的错误的指南(包括一组有用的 Tensorflow 函数,让您的调试生活更轻松)
How to Unit Test Deep Learning: Tests in TensorFlow, mocking and test coverage
使用 tf.test() 探索 TensorFlow 代码中的单元测试、模拟和修补对象、代码覆盖率以及机器学习应用程序中测试用例的不同示例
Easy PixelCNN with tfprobability
PixelCNN 是一种深度学习架构(或架构包),旨在生成高度逼真的图像。要使用它,无需对 arXiv 论文进行逆向工程或搜索参考实现:TensorFlow Probability 及其 R 包装器 tfprobability 现在包含一个 PixelCNN 分布,可用于以可参数化的方式训练直接定义的神经网络。
Hacking deep learning: model inversion attack by example
与其他应用程序相比,深度学习模型似乎不太可能成为隐私攻击的受害者。但是,存在确定实体是否在训练集中使用的方法(称为成员推理的对抗性攻击),并且“模型反转”下包含的技术允许仅根据模型输出(有时是上下文信息)重建原始数据输入。这篇文章展示了模型反转的端到端示例,并探讨了使用 TensorFlow Privacy 的缓解策略。
Towards privacy: Encrypted deep learning with Syft and Keras
深度学习与隐私保护并非不可调和。联合学习支持设备上的分布式模型训练;加密使模型和梯度更新保持私密;差分隐私可防止训练数据泄露。如今,私密且安全的深度学习是一种新兴技术。在这篇文章中,我们介绍了 Syft,这是一个与 PyTorch 和 TensorFlow 集成的开源框架。在一个示例用例中,我们从 Keras 模型中获得私密预测。
A first look at federated learning with TensorFlow
“联合学习”一词是为了描述一种分布式模型训练形式而创造的,其中数据保留在客户端设备上,即永远不会发送到协调服务器。在这篇文章中,我们介绍了核心概念,并使用 R 运行了 TensorFlow Federated 的首次实验。
NumPy-style broadcasting for R TensorFlow users
广播,就像 Python 的科学计算库 NumPy 所做的那样,涉及动态扩展形状,以便可以将不同大小的数组传递给需要一致性的操作 - 例如逐元素添加或乘法。在 NumPy 中,广播的工作方式是精确指定的;同样的规则适用于 TensorFlow 操作。对于偶尔查阅 Python 代码的任何人,这篇文章都力求解释清楚。
First experiments with TensorFlow mixed-precision training
上周发布的 TensorFlow 2.1 允许进行混合精度训练,利用最新的 NVidia GPU 中提供的 Tensor Cores。在这篇文章中,我们报告了第一批实验结果,并提供了有关这一切的背景信息。
Differential Privacy with TensorFlow
差异隐私保证数据库查询的结果基本上与单个个体在数据中的存在无关。应用于机器学习,我们预计没有任何单个训练示例会以实质性的方式影响训练模型的参数。这篇文章介绍了 TensorFlow Privacy,这是一个基于 TensorFlow 构建的库,可用于从 R 训练差分隐私深度学习模型。