在MindSpore的数据集加载接口中,可以启动多进程模式加快数据处理速度,具体有2个API支持:
mindspore.dataset.GeneratorDataset
mindspore.dataset.GeneratorDataset(source, column_names=None, column_types=None, schema=None, num_samples=None, num_parallel_workers=1, shuffle=None, sampler=None, num_shards=None, shard_id=None, python_multiprocessing=True, max_rowsize=6)
map(operations, input_columns=None, output_columns=None, column_order=None, num_parallel_workers=None, python_multiprocessing=False, cache=None, callbacks=None, max_rowsize=16, offload=None)
这两个API中,与多进程启动相关的参数是python_multiprocessing和max_rowsize。
python_multiprocessing决定是否启用多进程模式加快数据处理速度,而max_rowsize用于配置多进程模式下共享内存的大小,属于高级用法。
一般来说,只需要将python_multiprocessing设置为True在大多数情况下就可以适用。
△ 如果打开了多进程模式,可能会碰到以下的错误,这里总结了一些常见的错误和解决办法。
错误1:
核心报错信息是 This might be caused by insufficient shm, and the recommended shm size is at least 5 GB.
原因:
系统可用的共享内存太小,可以通过 df -h 查看共享内存的大小,如下示例有500G的共享内存,妥妥的够用啦。
解决办法:
如果发现自身系统的 /dev/shm 不足5G,那确实会导致这个错误,有2个解决办法
错误2:
核心报错信息是 OSError: [Errno 24] Too many open files.
这个错误可能会在 非root用户 下使用 多进程模式 时触发
原因:
有几个可能的原因
可以看到当前用户的可用 open files 数目只有2,这样很大程度就会抛出上述错误。
解决办法:
通过 ulimit -a 查看 open files 的数量,然后通过 ulimit -n 设置成较大的数值,如
重新启动训练就可以啦。
错误3:
核心报错信息是 Insufficient shared memory available. Required: xxxxx, Available: xxxxx.
这个错误可能会在 共享内存不够/处理的数据块过大 时触发
原因:
解决办法: