目录
TensorFlow和Keras就不过多介绍了。
反正记得对于很多人来说,TensorFlow+Keras的组合就够用了,并且也很好用。
深度学习系统里有一个很严重的问题,就是兼容性。这是因为深度学习系统里有很多的模块(构件、组件),并且很可能是不同的团队开发,比如TensorFlow和Keras。
TensorFlow 1和Keras互相独立,虽然在TensorFlow 1.1x的时候就整合了Keras,但整合进去的还不完善,所以当时得分别安装
- pip install tensorflow
- pip install keras
也要分别引用
- import tensorflow
- import keras
TensorFlow 2(2.6之前)完成了对Keras 的整合,Keras变成了TensorFlow代码库的一部分。
安装变成了只安装TensorFlow即可,Keras不再作为独立的模块出现,而是TensorFlow的一部分。
pip install tensorflow
这个时候感觉代码的结构就已经比较混乱了。因为想使用Keras,有好多入口(调用方法)
比如
- import tensorflow.keras.xxxx
- import tensorflow.python.keras.xxx
种种原因,TensorFlow 2(2.6之后,含2.6),Keras的代码又独立出来了。
Tensorflow 2.6 的发行说明中指出,Keras 被拆分为单独的 PIP 包(keras),Keras代码已移至 GitHub 存储库 keras-team/keras,tf.keras 的 API 端点保持不变,但现在由 keras PIP 包支持。
对于用户来说,安装命令还是一样。
虽然命令一样,但实际的动作和TensorFlow 2(2.6之前)不一样了,执行这条命令除了安装Tensorflow模块之外,还会自动安装Keras模块(Keras模块从TensorFlow模块中拆分出来了)
pip install tensorflow
Tensorflow 2.6 的发行说明中还说明了tensorflow/python/keras 中的现有代码是一个陈旧的副本,将在未来版本 (2.7) 中删除。
应删除对 tensorflow.python.keras 的任何导入,并将它们替换为公共 tf.keras API。
所以应统一使用
import tensorflow.keras.xxxx
当然了,tensorflow和keras发展的过程中,分分合合,造成了很多历史遗留问题。虽然现在统一使用tensorflow.keras这个入口,但这个入口背后的代码却是层层跳转,显得非常复杂。
tensorflow.keras里定义了很多模块,比如layers、models
假设有一个模块叫tf.keras.xxx
CTRL+鼠标左键点击xxx无法跳转到定义
断点调试可以发现,tf.keras模块实际调用的是keras.api._v2.keras模块,
查看tf.keras的源码也佐证了这一点
- _keras_module = "keras.api._v2.keras"
- keras = _LazyLoader("keras", globals(), _keras_module)
- _module_dir = _module_util.get_parent_dir_for_name(_keras_module)
- if _module_dir:
- _current_module.__path__ = [_module_dir] + _current_module.__path__
- setattr(_current_module, "keras", keras)
keras.api._v2.keras.datasets.mnist模块其实还不是最终节点,在其__init__.py中有定义
from keras.datasets.mnist import load_data
keras.datasets.mnist才是实现了mnist数据集操作的模块
我们主要用到的是读取数据集,即loda_data函数
来源于from keras.api._v2.keras import models
在keras.api._v2.keras.models的__init__.py中有定义
from keras.engine.sequential import Sequential
可以看出,Sequential其实是在keras.engine.sequential中实现的
和tf.keras.models类似,都是定义在keras.api._v2.keras下,最终在keras.engine.xx或者keras.layers.xx中实现
例如ReLU,实际是在from keras.layers.activation.relu import ReLU中实现