由于点云不是常规数据格式,通常将此类数据转换为规则的 3D 体素网格或图像集合,然后再用神经网络进行处理。数据表示转换使生成的数据过于庞大。
PointNet是第一个直接处理原始点云的方法。只有全连接层和最大池化层,PointNet网络在推理速度上具有强大的领先优势,并且可以很容易地在CPU上并行化。
方案1:排序
高维空间的排序,不可稳定。
方案2:假如有N个点,N!种排列训练一个RNN。
2015年《Order Matters: Sequence to sequence for sets》证明RNN网络对序列的排序还是有要求的。
方案3:设计对称函数,因为输入顺序对于对称函数没有影响。比如:加法、乘法
PointNet使用的最大池化,是对称函数。
分类网络以n个点为输入,应用输入和特征变换,然后通过最大池化聚合点特征。输出是 k 个类的分类分数。
Pointnet网络的搭建(tensorflow版):
- class PointNet(Model):
- def __init__(self):
- super(PointNet, self).__init__()
-
- self.MLP64 = layers.Conv1D(filters=64, kernel_size=1, strides=1, padding="valid", activation="relu")
- self.MLP1024 = layers.Conv1D(filters=1024, kernel_size=1, strides=1, padding="valid", activation="relu")
- self.Dense10 = layers.Dense(10, activation="softmax")
-
- def call(self, inputs, training=None, mask=None):
- x = self.MLP64(inputs)#(Batch,1,1000,64)
- print(x.shape)
- x = self.MLP1024(x)#(Batch,1,1000,1024)
- print(x.shape)
- x = tf.reduce_max(x, axis=1)#(Batch,1,1024)
- print(x.shape)
- x = layers.Flatten()(x)
- x = self.Dense10(x)#(Batch,10)
- print(x.shape)
- return x
-
-
- model = PointNet()
- input_shape = (1, 1000, 3)
- model.build(input_shape)
- model.summary()
这是我看pointnet论文后复现的分类网络,由于以前总是对图像进行2D卷积,这里对输入的理解还不深刻。采用了(B,H,W,C)的输入结构,因为是每个点有3个特征,所以将其处理为(B,1,W,C)的结构。但后期发现其比较复杂,所以改进了一下,使用(B,Len,C)的输入结构。
在深度学习中,处理点云数据(Point Cloud Data)或3D形状数据与传统的2D图像数据有所不同。
原始输入结构: (B, H, W, C)
转换为 (B, 1, W, C)
改进后的输入结构: (B, Len, C)
使用 (B, Len, C) 的输入结构可以更直接地处理点云数据,并且符合PointNet的设计初衷。
- def Point_MLP(inputs, num_filters, use_bn=True, activation='relu'):
- x = layers.Conv1D(num_filters, kernel_size=1, activation=activation, padding='valid')(inputs)
- if use_bn:
- x = tf.keras.layers.BatchNormalization()(x)
- x = tf.keras.layers.Activation(activation)(x)
- return x
-
-
- def Model_Point(point_num, feature_num, mode):
- inputs = layers.Input(shape=(point_num, feature_num))
- x64 = Point_MLP(inputs, 64) #(B,N,64)
- x512 = Point_MLP(x64, 512)
- x1024 = Point_MLP(x512, 1024) #(B,N,1024)
- gloable = tf.reduce_max(x1024, axis=1) #(None, 1024)
-
- if mode == "clc":
- x = layers.Flatten()(gloable)
- x = layers.Dense(10, activation="softmax")(x)
- model = Model(inputs=inputs, outputs=x)
- if mode == "seg":
- global_feature_tiled = tf.tile(tf.expand_dims(gloable, 1), [1, tf.shape(x512)[1], 1])
- concatenated_features = tf.concat([x512, global_feature_tiled], axis=2)
- #concatenated_features 的形状是 (batch_size, num_points, local_feature_dim + global_feature_dim)
- model = Model(inputs=inputs, outputs=concatenated_features)
- return model
-
- PointNet = Model_Point(10000, 3, mode="clc")
- PointNet.summary()