第一步:导入模块:import tensorflow as tf
第二步:制定输入网络的训练集和测试集
第三步:搭建网络结构:tf.keras.models.Sequential()
第四步:配置训练方法:model.compile():
第五步:执行训练过程:model.fit():
第六步:打印网络结构:model.summary()
第七步:执行验证过程:model.evaluate()
- import tensorflow as tf
- from sklearn.datasets import load_iris
- from sklearn.model_selection import train_test_split
- from sklearn.preprocessing import StandardScaler
-
- # 加载鸢尾花数据集
- iris = load_iris()
- X = iris.data
- y = iris.target
-
- # 数据预处理
- scaler = StandardScaler()
- X = scaler.fit_transform(X)
-
- # 划分训练集和测试集
- X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
-
- # 创建模型
- model = tf.keras.Sequential([
- tf.keras.layers.Dense(64, activation='relu', input_shape=(X.shape[1],)),
- tf.keras.layers.Dense(64, activation='relu'),
- tf.keras.layers.Dense(len(set(y)), activation='softmax')
- ])
-
- # 编译模型
- model.compile(optimizer='adam',
- loss='sparse_categorical_crossentropy',
- metrics=['accuracy'])
-
- # 训练模型
- model.fit(X_train, y_train, epochs=10, batch_size=32)
- model.summary()
- # 评估模型
- test_loss, test_accuracy = model.evaluate(X_test, y_test)

本人读研期间发表5篇SCI数据挖掘相关论文,现在某研究院从事数据挖掘相关科研工作,对数据挖掘有一定认知和理解,会结合自身科研实践经历不定期分享关于python、机器学习、深度学习基础知识与案例。
致力于只做原创,以最简单的方式理解和学习,关注我一起交流成长。
邀请三个朋友关注本订阅号V:数据杂坛,即可在后台联系我获取相关数据集和源码,送有关数据分析、数据挖掘、机器学习、深度学习相关的电子书籍。