在联邦学习Federated Learning中,出现的很高频的一个词就是Non-IID,翻译过来就是非独立同分布,这是一个来自于概率论与数理统计中的概念,下面我来简单介绍一下在Federated Learning中IID和Non-IID的概念。
IID是数据独立同分布(Independent Identically Distribution,IID),它是指一组随机变量中每个变量的概率分布是相同的,且这些随机变量互相独立。下面介绍IID中的“独立”和“同分布”这两个概念:
例如抛骰子,我抛两次,上一次抛的结果并不会影响到下一次的结果,这两次采样样本之间就是独立的。但是假如说我想要两次结果之和大于8,那么这时候两次抛就不独立了。
还是抛骰子,每次采样的样本都来自于同一个分布,即每次抛都会随机得到一个1~6的点数,每个点数的概率为1/6。
现在很多机器学习中的方法都是基于数据IID的假设,这是一种理想情况,因为在现实中往往是Non-IID的。
首先要明确一个概念,Non-IID是非·独立同分布,解释来说就是,Non-IID可以分为三类:非独立但同分布、独立但非同分布、非独立也非同分布。上述的任何一种我们都可以称之为Non-IID。
比如要求两次抛骰子结果之和大于8、不放回地摸黑球白球。
来自不同的分布,一个样本我从抛骰子中获取16,另一个样本我从扑克中抽AK。
在机器学习中,有特征Features和标签Labels这两个概念。由这两个概念,我们就能引申出FL中的5种Non-IID情况:
在FL中,数据是存储在不同的设备上的,而各个设备可能采集不同类型的数据、数据量不同、数据质量不同、数据采集的时间和地点也不同,因此不同设备之间的数据可能是非独立或非同分布的。
由于数据Non-IID,在联邦学习模型训练时,可能会受到的影响:
在FL中,Non-IID通常伴随着异构性Heterogeneity一起出现。我们通常认为,Non-IID是异构性Heterogeneity的一种表现,而异构性Heterogeneity在概念上更为广泛。
在FL中,异构性Heterogeneity一般分为三种: