tensorflow-federated - DP-FedAvg 中客户更新的剪辑
问题描述
在Learning differentially private recurrent language models
介绍算法的论文中DP-FedAvg
,客户端更新的剪辑似乎发生在客户端。每个客户端剪辑他的本地更新,然后将已经剪辑的更新返回给服务器。
但是,在另一篇论文中Advances and open problems in federated learning
,似乎服务器是剪辑更新的那个。该论文在第 48 页中说,“使用这种技术,服务器会裁剪单个更新的 L2 范数,聚合裁剪的更新,然后将高斯噪声添加到聚合中”。
遵循哪个过程TFF
?谁在执行剪辑?
解决方案
TFF 中没有任何固有的东西可以阻止您提到的任何一个选项;两者都可以实现。
如果您询问具体的可用 API,则在聚合值之前创建聚合器,将裁剪应用于客户端tff.aggregators.DifferentiallyPrivateFactory.gaussian_fixed
的固定规范。
推荐阅读
- json - WordPress REST AP - 根据与另一个自定义帖子类型的关系过滤自定义帖子类型的 json
- c++ - 使用 iostream 读取二进制文件的不同行为
- webpack - Webpack 4:如何使用 ExtractTextPlugin.extract()
- python - Tensorflow restore() 缺少 1 个必需的位置参数:'save_path'
- python-3.x - Python - 如果文件夹不存在,如何跳过该过程
- ruby - 如何使用 RDoc 记录文件
- javascript - 如何根据变量的值进行由 onbeforeload 触发的条件 ajax 调用
- python - OpenCV 检测非常小的线条
- java - spring-data-mongo 存储库 geoIntersects
- python - 在 Cython 中使用 LAPACK 包装器估计行列式进行 LU 分解