从9月初到现在9月22号,一直在努力学习谷歌的TFF联邦学习框架。小小总结一下这个框架的优缺点:
优点
- 模型构造的简洁性非常好,用简单的代码实现复杂的功能。
- 兼容TensorFlow代码好。服务器参数更新和客户端参数更新都可以用TensorFlow代码编写。
- 教程完善,官网的教程介绍的比较详细。
缺点
- 和优点第一条对应,代码过于简单,尤其是模型参数内部通信机制几乎不可见,导致我们学习的时候无法了解通信机制(这也许是我吹毛求疵了)
- 和优点第二条对应,模型只能通过TensorFlow来构建,无法兼容其他深度学习框架。并且TFF对于数据类型的要求非常严格!
这里也要不得不吐槽一下,由于TFF在构建联邦学习算子的时候非常强调数据类型,需要明确输入模型的权重类型和数据集的权重类型,所以我们必须要获取模型的权重类型。而要获取模型的权重类型,就必须按照TFF规定的方法来构建TensorFlow模型,
官方提供了两种构建TensorFlow模型方法: (方法1)直接设置模型的参数weight + bias,然后通过参数手动构建网络。这种方式对于复杂的网络构建来说就是噩梦,相当于把网络全部手写一遍。
(方法2)先构建tf.keras.model,然后从这个模型构建。但是这个网络也不能是直接通过网络的class()实例化直接得到。而是必须通过tf.keras.Sequential() 的方式来进行模型构建。然后通过tff.learning.from_keras_model() 函数来构建联邦学习模型。 当然,经过测试,我们也可以通过class构建模型,然后在add到tf.keras.Sequential() 里面,但是对class的call函数也有明确的要求:要求输入参数除了self 外只能有一个input (这里的变量名称可以任意),出现多余的参数会造成构建错误。
- 缺点3,TFF与TensorFlow的版本高度绑定,如果版本不兼容就无法运行。然而,官方github上并不能找到明确的版本对应。能找到的版本对应都来自于csdn,但是都是几年前的老版本,没有新版本。严重怀疑官方删掉了版本对应表格,如果有小伙伴找到了请在评论区指出来。
- 缺点4,TFF框架目前都是试验阶段,也就是只能在本地进行联邦学习,所以如果你想要工程实现,建议还是考虑微众银行FATE的框架,或者干脆自己写一个简单的框架把。
就说这么多,大家考虑清楚自己的模型输入能不能转换成[x,y]的固定格式,如果是简单的图像分类模型,倒是可以一试,有多模态数据输入的模型就不建议考虑了。
心累,忙活了半个月发现我的模型搞不了。
|