前文提到知识蒸馏是一种模型压缩方法,通过利用复杂模型(Teacher Model)强大的表征学习能力帮助简单模型(Student Model)进行训练,主要分为两个步骤:

1)提取复杂模型的知识,在这里知识的定义有很多种,可以是预测的logits、模型中间层的输出feature map、也可以是模型中间层的attention map,主要就是反映了教师模型的学习能力,是一种表征的体现;

2)将知识迁移/蒸馏到学生模型中去,迁移的方式也有很多种,主要是各种loss function的实现,有L1 loss、L2 loss以及KL loss等手段。

知识蒸馏可以在保证模型的性能前提下,大幅度的降低模型训练过程中的通信开销和参数数量,知识蒸馏的目的是通过将知识从深度网络转移到一个小网络来压缩和改进模型。

这很适用于联邦学习,因为联邦学习是基于服务器-客户端的架构,需要确保及时性和低通信,因此最近也提出很多联邦知识蒸馏的相关论文与算法的研究,接下来我们基于算法解析联邦蒸馏学习。

FL-FD 数据增强的联邦蒸馏算法【1】

在联邦学习(Federated Learning: FL)中,在每个设备端执行训练过程需要与模型大小成比例的通信开销,从而禁止使用大型模型,因此,作者寻求在非IID私有数据下可以实现通信高效的设备上ML方法。

作者提出 联邦蒸馏(FD)算法 ,这是一种分布式在线知识蒸馏方法,其通信有效成本的大小不取决于模型大小,而取决于输出尺寸。在进行联邦蒸馏之前,我们通过 联邦增强(FAug) 来纠正非IID训练数据集。

这是一种使用生成对抗网络(GAN)进行的数据增强方案,该数据增强方案在隐私泄露和通信开销之间可以进行权衡取舍。经过训练的GAN可以使每个设备在本地生成所有设备的数据样本,从而使训练数据集成为IID分布。

联邦蒸馏(FD) : 在FD中,每台设备都将自己视为学生,并将其他所有设备的平均模型输出视为其老师的输出。每个模型输出是一组通过softmax函数归一化后的logit值,此后称为logit向量,其大小由标签数给出。

使用交叉熵来周期性地测量师生的输出差异,交叉熵成为学生的损失调整器,称为蒸馏调整器,从而在培训过程中获得其他设备的知识,具体损失是:KDLoss(Local_Logit,Global_Logit)+CELoss(Local_Logit,Local_Lable)。FD中的每个设备都存储着本地每个标签的平均logit向量,并定期将这些本地平均logit向量上载到服务器。

服务器将从所有设备上载的本地平均Logit向量平均化,从而得出每个标签的全局平均Logit向量。所有标签的全局平均logit向量被下载到每个设备。然后,当每台设备进行蒸馏的时候,其教师的输出为与当前训练样本的标签具有相同标签的全局平均logit向量。具体如下图1所示。

图1:联邦蒸馏(FD)示意图【1】

联邦增强(FAvg) : 因为蒸馏最好在具有相同数据集的效果下进行,由于不同设备之间具有异质性所以在蒸馏前进行数据增强可以提升蒸馏效果。FAug中每个设备都可以识别数据样本中缺少的标签,称为目标标签,并通过无线链路将这些目标标签的少量种子数据样本上载到服务器。

服务器则会通过例如Google视觉数据图像搜索等方法对上传的种子数据样本进行超采样,并使用这些数据来训练一个GAN。

最后,下载经过训练的GAN生成器使每个设备补充目标标签,直到达到IID训练数据集为止。FAug的操作需要确保用户生成的数据的私密性。

实际上,每台设备的数据生成偏差(即目标标签)都可以轻松地显示其隐私敏感信息,为了使这些目标标签对服务器不公开,每个设备还将从目标标签以外的其他标签进行上载(冗余数据样本),由此减少了从每个设备到服务器的隐私泄漏。

事实上,模型的输出精度会随着训练的进行而增加,因此,在局部logit平均过程中,最好采用加权平均值随着局部计算时间的增加而增加,即当模型采用整体损失函数:a * KDLoss(Local_Logit,Global_Logit)+CELoss(Local_Logit,Local_Lable) * (1-a),随着迭代次数的增加,a应该逐渐减小(模型的输出精度会随着训练的进行而增加,所以本地模型比重应该增大)。具体伪代码如下图2所示。

图2:FL-FD伪代码【1】

总结一下FL-FD算法的过程 :

1)每个设备都把自己当作一个学生,并将所有其他设备的平均模型输出视为其老师的输出;

2)FD中的每个设备存储每个标签的平均logit向量,并定期将这些本地平均logit向量上传到服务器;

3)对于每个标签,对所有设备上传的本地平均logit向量进行平均,从而得到每个标签的全局平均logit向量;

4)所有标签的全局平均logit向量都被下载到每个设备上,进行蒸馏损失计算,其教师的输出被选择为与当前训练样本的标签相同的全局平均logit向量。

DS-FL 基于蒸馏的半监督联邦【2】

以往的FL框架以及FedAvg算法都是通过传输加密后的梯度信息或者参数信息去进行聚合然后广播,最后让客户端更新,但是这大大加大了通信代价因为通信代价正比于上传的参数信息。所以在具有与FL相当的模型性能的同时,如何设计可根据模型大小在通信效率方面进行扩展的FL框架?

本文利用客户之间共享的无标签开放数据来增强模型性能,提出了一种基于蒸馏的半监督算法(DS-FL),该算法在客户端上传本地模型的输出,而不是本地模型的梯度或参数信息,即DS-FL的通信成本仅取决于模型输出的尺寸,而不会根据模型的参数信息等加大而扩展 。

客户端首先训练本地数据,接着利用训练所得模型预测开放数据集,得到logit,所有客户端都向服务器上传logit,服务器会平均这些logits得到全局logit并且发放给每个客户端,每个客户端基于开放数据集以及服务器发放的对应logit(label)再次在开放数据集上蒸馏训练本地模型(由于数据的增强效应所以本地模型的性能也得到了增强)。

但是由于每个客户端之间的异质性导致了每个客户端对开放数据集的输出logit也具有异质性, 针对此情况提出ERA方法(对于每个输出进行Softmax-T算法,即类似于蒸馏但是设置温度T=0.1,这样进一步锐化了每个客户端输出,保证经过softmax的logit(one-hot向量)某一列值足够大 (即保证在服务器端平均的时候,不会出现好几个数值的可能性差不多的情况),从而减少模型输出异质性带来的影响)。

DS-FL算法 : 基于利用未标记开放数据集的想法,我们提出了一种基于蒸馏的半监督FL(DS-FL)算法,该算法在移动设备之间交换本地模型的输出,而不是典型框架所采用的模型参数交换。在提出的DS-FL中,通信成本仅依赖于模型的输出尺寸,而不根据模型大小进行扩展。

交换的模型输出用于标记开放数据集的每个示例,从而创建一个额外标记的数据集。利用新标记的数据集对局部模型进行进一步训练,由于数据增强效应,增强了模型的性能。具体如下图3所示。

图3:DS-FL算法框架图【2】

ERA算法 : 减少全局对数熵的动机是为了加速和稳定DS-FL,特别是在非IID数据分布中;因此,在简单的聚合方法中,很难使用如此不适当的高熵logit进行训练,因此, 训练的成功需要减少熵 。在所提出的DS-FL中,设备数据集的异质性导致了每个数据样本的模糊性,降低了训练的收敛性。

为了防止这种情况发生,作者提出了熵减少平均,其中聚合的模型输出被有意地锐化。ERA算法主要有以下两个优点:

1)锐化标签来加快收敛速度:针对联邦蒸馏中的平均标签聚合而言,ERA通过锐化每个logits,从而加快收敛速度;

2)抵御有害客户端的攻击:减少全局对数熵的另一个有利结果是增强了对破坏本地对数和通知开放数据的各种攻击的鲁棒性;在这些被攻击情况下,与非IID数据分布类似,简单聚合方法平均局部对数产生的全局对数熵较高,导致模型性能较差;降低全局logit的熵有望增强对客户端攻击的鲁棒性。具体如下图4所示。

图4:ERA算法【2】

FedGEN 联邦无数据蒸馏【3】

最近出现了利用知识蒸馏来解决联邦学习中的用户异构性问题的想法,具体是通过使用来自异构用户的聚合知识来优化全局模型,而不是直接聚合用户的模型参数。然而这种方法依赖于代理数据集(proxy dataset),如果没有这proxy dataset,该方法便是不切实际的。此外,集成知识没有被充分利用来指导局部模型的训练,这可能反过来影响聚合模型的性能。

基于上述挑战,这篇文章提出了一种data-free知识蒸馏法来解决FL中的异构性问题,该方法称为FeDGen。 其中服务器学习一个轻量级生成器,以data-free的方式集成用户信息,然后广播给用户,使用学习到的知识作为"归纳偏置"来调节局部训练 。 ("归纳偏置"就是基于先验知识对目标模型的判断,将无限可能的目标函数约束在一个有限的假设类别之中)。

归纳偏置 : 机器学习试图去建造一个可以学习的算法,用来预测某个目标的结果。要达到此目的,要给于学习算法一些训练样本,样本说明输入与输出之间的预期关系。然后假设学习器在预测中逼近正确的结果,其中包括在训练中未出现的样本。既然未知状况可以是任意的结果,若没有其它额外的假设,这任务就无法解决。 这种关于目标函数的必要假设就称为归纳偏置 。

FedGen学习一个仅从用户模型的预测规则导出的生成模型(在给定目标标签的情况下,该模型可以产生与用户预测的集合一致的特征表示)。该生成器随后被广播给用户,用户从潜在空间(生成器产生的分布空间)采样得到的增广样本帮助模型训练(该潜在空间体现从其他对等用户提取的知识)。给定一个比输入空间小得多的潜在空间,FeDGen所学习的生成器可以是轻量级的,给当前的FL框架带来最小的开销。

FedGEN方法 : FedGEN通过聚合所有客户端模型的知识(标签信息)用来得到一个生成器模型,生成器可以根据标签Y生成特征Z,服务器将生成器广播给所有客户端,客户端通过生成器生成增广样本用来帮助本地模型训练(增广样本具有归纳偏置信息),通过生成器可以提炼出全局分布数据的知识给客户端,从而实现无信息的知识蒸馏。 具体来说,就是学习全体客户端的知识,然后通过生成器将这种知识发放给每个客户端 。

图5:FedGEN结果展示【3】

上图图5是通过FedGEN方法得到的,G_w基于用户模型的预测规则进行学习,目的是融合来自用户模型的聚合信息来估计全局数据分布R(x|y),接着用户从G_w(x|y)进行采样,采样结果作为自身的归纳偏置,进而调整决策边界,如下图所示,在知识蒸馏KD之后,一个用户的准确率从81.2%提高到了98.4%。

FedGEN和先前研究的主要区别在于: 知识被蒸馏至用户模型,而不是全局模型 。因此, 蒸馏出来的知识(向用户传递的归纳偏置)可以通过在潜在空间Z上进行分布匹配,直接调节用户的学习 。

推荐内容

  • 联邦知识蒸馏概述与思考(续)

  • Marteker 日报:(2022.3.21)

  • 详解ID拉通 | CDP 智库系列文章 ②

  • “AI+知识管理”为企业数智升级注入新动力

  • AI靠语意理解把照片变抽象画,无需相应数据集,只画4笔也保留神韵,有毕加索内味儿了

  • 抢先苹果!罗永浩“真还传”下月完结:即将进军VR行业

  • 深度视觉宣布完成过亿元A轮融资,将用于产品研发和市场拓展等

  • 瑞数信息荣膺CCIA2021年度优秀会员单位

  • 全行业攻坚智能网联汽车安全

  • NFT与元宇宙热度回撤,阵痛之后何去何从?

  • 特斯拉推送四大新功能:空调功能更新、新增语言支持
    特斯拉推送四大新功能:空调功能更新、新增语言支持

  • 日本公司推出便携避难屋,能防爆抗震滤辐射,可供7人逃难!有人还把这放在客厅?

  • 一键关闭!再见,App广告

  • 活久见!视奕科技竟然自导自演虚假上市闹剧

  • 创新高!中国电信公布最新业绩:营收实现4342亿,净利润259.5亿,同比大增24.4%!

  • 联通秘密打造算力枢纽节点,布局“东数西算”国家重大工程!

  • Paradigm联合创始人Fred:过去10年,未来30年(一)

  • ​SaaS业务的收入,究竟该如何衡量?

  • SaaS 客户生命周期

  • 永远退出机器学习界!从业八年,Reddit网友放弃高薪转投数学:风气太浮夸

  • 国内AR企业「Rokid」获7亿元C轮融资

  • 罗永浩,欠的何止6个亿

  • 知乎转型,内容“救场”

  • 数字时代,国通星驿赋能商户数字化运营

  • 国通星驿赋能B端企业,助力产业互联网新经济发展

  • 微软发布量子计算最新成果,证实拓扑量子比特的物理机理

  • VoNR来了,它到底是什么技术?

  • 疯狂刷屏的“网课房”,是风口还是噱头?

  • 榜首!容联云AI科学院研发先进KBQA能力

  • 容联云智能客服荣获2021年度中国技术之星

  • 微信强力清理工具,1秒干掉20G垃圾!

  • 如何判断早期区块链项目的价值?

  • Marteker 日报:(2022.3.18)

  • 【报告下载】2021年Q3计算机产品行情季刊

  • 芒果TV入局,TME产品1.3秒售罄,2022年还是NFT高速发展期?

  • 从“人、财、物”视角出发,提升网络空间的安全态势

  • 打破「反向传播」垄断,「正向自动微分」也能计算梯度,且训练时间减少一半

  • 徐小平沈南鹏,押错格灵深瞳

  • 微软智能云在华新增数据中心区域正式启用

  • 微软通往 10 万亿美金的路

  • 边缘计算的数据模式,与现有系统的整合和共存

  • 飞奔的天翼云:2021营收达279亿元,同比增长102%

  • 复盘格灵深瞳荒诞剧:1.9万亿估值泡沫如何吹爆?

  • 史上最离谱需求——一键超车!

  • 中央网信办:打造智慧应急,加快应急管理信息化建设

  • 为什么你需要关注国际 SaaS 赛道?

  • 中国广电入局5G消息,四家运营商资费比拼

  • 格灵深瞳今日于上交所挂牌上市,成为“科创板人工智能第一股”

  • 美国网络攻击特点被曝光:为攻击一国核设施准备了4年多

  • 北京确诊新冠的小米员工活动轨迹曝光!网友:人间真实...

  • 联邦知识蒸馏概述与思考(续)

  • 打造酒类新零售界的“丝芙兰”,酒廷1990想怎么做?

  • 房地产公司抢着送钱,既便宜又不卡脖子,钠电池要火了?

  • AI靠语意理解把照片变抽象画,无需相应数据集,只画4笔也保留神韵,有毕加索内味儿了

  • Marteker 日报:(2022.3.21)

  • 详解ID拉通 | CDP 智库系列文章 ②

  • “AI+知识管理”为企业数智升级注入新动力

  • 郭明錤:iPhone14系列“新瓶旧酒”是一种营销策略
    郭明錤:iPhone14系列“新瓶旧酒”是一种营销策略

  • 年内五连涨!2022款欧拉好猫全系车型价格调整
    年内五连涨!2022款欧拉好猫全系车型价格调整

  • 猝不及防!比亚迪、小鹏等车企宣布涨价
    猝不及防!比亚迪、小鹏等车企宣布涨价

  • 全行业攻坚智能网联汽车安全

  • 特斯拉推送四大新功能:空调功能更新、新增语言支持
    特斯拉推送四大新功能:空调功能更新、新增语言支持

  • NFT与元宇宙热度回撤,阵痛之后何去何从?

  • 特斯拉推送四大新功能:空调功能更新、新增语言支持
    特斯拉推送四大新功能:空调功能更新、新增语言支持

  • 谷歌新操作系统曝光:屏幕底部有任务栏
    谷歌新操作系统曝光:屏幕底部有任务栏

  • 抢先苹果!罗永浩“真还传”下月完结:即将进军VR行业

  • 瑞数信息荣膺CCIA2021年度优秀会员单位

  • 深度视觉宣布完成过亿元A轮融资,将用于产品研发和市场拓展等

  • 日本公司推出便携避难屋,能防爆抗震滤辐射,可供7人逃难!有人还把这放在客厅?

  • 一键关闭!再见,App广告

  • 联通秘密打造算力枢纽节点,布局“东数西算”国家重大工程!

  • 融资丨「齐禾生科」完成过亿元种子轮融资,杏泽资本独家领投

  • ​SaaS业务的收入,究竟该如何衡量?

  • 左手乐华,右手泰洋川禾,字节互博?

  • 苹果、伯克希尔的年度信函和巴菲特主义

  • 汉服的现实困局:价格战血拼、供应链掣肘、大IP依赖

  • 创新高!中国电信公布最新业绩:营收实现4342亿,净利润259.5亿,同比大增24.4%!

  • Paradigm联合创始人Fred:过去10年,未来30年(一)

  • 活久见!视奕科技竟然自导自演虚假上市闹剧

  • 融资丨「胡曼智造」完成数千万元Pre-A轮融资,南京江北科投基金其瑞佑康独家投资

  • 国内AR企业「Rokid」获7亿元C轮融资

  • 融资丨「FunPinPin」完成A2轮融资,梅花创投独家投资

  • 融资丨「通用净水」完成千万级美元B轮融资,GGV纪源资本领投

  • 永远退出机器学习界!从业八年,Reddit网友放弃高薪转投数学:风气太浮夸

  • 罗永浩,欠的何止6个亿

  • SaaS 客户生命周期

  • 融资丨「云拿科技」完成了新一轮融资,全球化进程再提速

  • 知乎转型,内容“救场”

  • 疯狂刷屏的“网课房”,是风口还是噱头?

  • VoNR来了,它到底是什么技术?

  • 微软发布量子计算最新成果,证实拓扑量子比特的物理机理

  • 国通星驿赋能B端企业,助力产业互联网新经济发展

  • 数字时代,国通星驿赋能商户数字化运营

  • 后厂村:蔚来汽车二次上市,与钱无关?

  • 微信强力清理工具,1秒干掉20G垃圾!

  • 容联云智能客服荣获2021年度中国技术之星

  • 榜首!容联云AI科学院研发先进KBQA能力

  • 如何判断早期区块链项目的价值?

  • 首发丨「深度视觉」完成过亿元融资,通用技术创投领投

  • 摸透“沙县模式”,江西米粉杀进北上广

  • 用玩游戏的方法解决现实问题?这是微软对元宇宙的另一种解读|海外视角

  • 融资丨「Rokid」完成7亿元C轮融资

  • 创始人套现离场,如今高瓴操盘二次上市,鞋王百丽能否再次霸占年轻人的鞋柜?

  • 斗鱼的长期主义

  • 离职后,我快还不起房贷了

  • 李宁狂奔,安踏慌神

  • 负债1亿的创业败局,是谁的疯狂

  • 卖一辆亏一辆,零跑上市急什么?

  • 新能源二手车真的逆风翻盘了?

  • 云集的难题:要利润还是要规模?

  • 我在直播间上“求职私教课”:钱花了,offer没到手

  • 疯狂的石头,碎于直播间

  • 苹果隐私政策变化始末

  • 唯美L&D岩板 | 助力“冬奥生活艺术”-十二·间公益设计展之启幕篇
    唯美L&D岩板 | 助力“冬奥生活艺术”-十二·间公益设计展之启幕篇

  • 中国锂都争霸赛

  • 从直播电商到私域流量,抖音的电商路走的怎样

  • 餐饮“倒春寒”:店主的自救与迷茫

  • 月销18万单,他在抖音电商卖绿植,帮助至少30位残疾人实现就业

  • 曝光土坑酸菜,统一、康师傅一年涨价10%,保利润还是圈钱?

  • 抖音+搜狐,快手+乐视/风行,爱优腾的新老对手联盟了?

  • 康师傅栽了“老坛酸菜”的跟头,白象或是最后赢家?

  • 第一家扭亏为盈的AI企业,格灵深瞳成功冲刺IPO

  • 油价9元了,我把“骑车减肥”默念100遍

  • 莫廷医疗获百度风投数千万元A+轮融资;云南白药拟现金认购上海医药18.02%股份;励楷科技完成超2亿元B+轮融资丨医线周报

  • 美ONE心焦,佳琦出淘

  • 向淘宝、京东看齐?美团电商再次发力电商业务

  • 新浪微博连投5轮!图森未来被迫切割中国市场?投融资市场或迎来剧变

  • 在线音乐这半年:版权停火,神曲搅局

  • 6G要来了?三大运营商5G用户数破7亿,5G布网水平至少领先欧洲10年

  • 3个真实故事,直击深圳餐饮人的困境和抗争

  • 一个人开始走上坡路的5种迹象

  • Marteker 日报:(2022.3.18)

  • 【报告下载】2021年Q3计算机产品行情季刊

  • 百果园再次冲击IPO,“水果第一股”如何讲好新零售的故事?

  • 百度搜索到百度AI

  • 海外创投丨员工沟通工具提供商「Staffbase」完成1.15亿美元E轮融资,General Atlantic领投

  • 芒果TV入局,TME产品1.3秒售罄,2022年还是NFT高速发展期?

  • 土坑酸菜坑惨统一、康师傅,却让白象爆火,销量暴增,咋回事?

  • 从“人、财、物”视角出发,提升网络空间的安全态势

  • 融资丨「伯宇科技」完成数千万元融资,清控金信、李书福旗下基金参与投资

  • 微软通往 10 万亿美金的路

  • 微软智能云在华新增数据中心区域正式启用

  • 打破「反向传播」垄断,「正向自动微分」也能计算梯度,且训练时间减少一半

  • 边缘计算的数据模式,与现有系统的整合和共存

  • 徐小平沈南鹏,押错格灵深瞳

  • 卖了4套房,创业12年,如今负债1亿,无家可归

  • 百果园欲戴“水果连锁第一股”王冠

  • 融资丨「康威生物」完成近2亿元A轮融资,龙磐投资领投

  • 融资丨「蓝墙互联」完成5000万元A轮融资,Hearst Ventures领投

  • 融资丨「茶嘟嘟」完成千万元级天使轮融资,虹溪创投独家投资

中国智能在线