import pandas as pd
import tensorflow as tf
# 构建RNN神经网络
tf.random.set_seed(1)
df = pd.read_csv("../data/Clothing Reviews.csv")
print(df.info())
df['Review Text'] = df['Review Text'].astype(str)
x_train = df['Review Text']
y_train = df['Rating']
from tensorflow.keras.preprocessing.text import Tokenizer
# 创建词典的索引,默认词典大小20000
dict_size = 14848
tokenizer = Tokenizer(num_words=dict_size)
# jieba: 停用词,标点符号,词性.....
tokenizer.fit_on_texts(x_train)
print(len(tokenizer.word_index), tokenizer.index_word)
# # 把评论的文本转化序列编码
x_train_tokenized = tokenizer.texts_to_sequences(x_train)
# # 通过指定长度,把不等长list转化为等长
from tensorflow.keras.preprocessing.sequence import pad_sequences
max_comment_length = 120
x_train = pad_sequences(x_train_tokenized, maxlen=max_comment_length)
for v in x_train[:10]:
print(v, len(v))
# 构建RNN神经网络
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, SimpleRNN, Embedding
import tensorflow as tf
rnn = Sequential()
# 对于rnn来说首先进行词向量的操作
rnn.add(Embedding(input_dim=dict_size, output_dim=60, input_length=max_comment_length))
rnn.add(SimpleRNN(units=100)) # 第二层构建了100个RNN神经元
rnn.add(Dense(units=10, activation=tf.nn.relu))
rnn.add(Dense(units=6, activation=tf.nn.softmax)) # 输出分类的结果
rnn.compile(loss='sparse_categorical_crossentropy', optimizer="adam", metrics=['accuracy'])
print(rnn.summary())
result = rnn.fit(x_train, y_train, batch_size=64, validation_split=0.3, epochs=1)
print(result)
print(result.history)
该代码的主要目的是构建一个简单的RNN(循环神经网络)来对"Clothing Reviews.csv"中的评论进行分类。评论文本被转换为数值序列,然后使用这些序列来训练RNN模型,以预测评论的评分。
流程描述:
设置随机种子:确保结果的可重复性。
tf.random.set_seed(1)
读取数据:使用pandas读取"Clothing Reviews.csv"文件,并打印数据信息。
df = pd.read_csv("../data/Clothing Reviews.csv")
print(df.info())
数据预处理:
x_train
和标签y_train
。df['Review Text'] = df['Review Text'].astype(str)
x_train = df['Review Text']
y_train = df['Rating']
文本标记化:
使用Tokenizer
进行文本标记,创建一个字典来将每个词映射到一个整数值。
通过调用fit_on_texts
方法对评论文本进行学习。
dict_size = 14848
tokenizer = Tokenizer(num_words=dict_size)
tokenizer.fit_on_texts(x_train)
将评论文本转换为整数序列。
x_train_tokenized = tokenizer.texts_to_sequences(x_train)
序列填充:为了确保所有序列长度相同,使用pad_sequences
对序列进行填充或截断。
max_comment_length = 120
x_train = pad_sequences(x_train_tokenized, maxlen=max_comment_length)
构建RNN模型:
Sequential
。Embedding
层,将词汇转换为固定大小的向量。SimpleRNN
层,含有100个神经元。Dense
,用于分类任务。rnn = Sequential()
rnn.add(Embedding(input_dim=dict_size, output_dim=60, input_length=max_comment_length))
rnn.add(SimpleRNN(units=100))
rnn.add(Dense(units=10, activation=tf.nn.relu))
rnn.add(Dense(units=6, activation=tf.nn.softmax))
rnn.compile(loss='sparse_categorical_crossentropy', optimizer="adam", metrics=['accuracy'])
模型结构
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding (Embedding) (None, 120, 60) 890880
simple_rnn (SimpleRNN) (None, 100) 16100
dense (Dense) (None, 10) 1010
dense_1 (Dense) (None, 6) 66
模型摘要:打印模型的摘要,显示各层的细节。
print(rnn.summary())
训练模型:使用提取的数据训练RNN模型,并将30%的数据用作验证集。训练1个epoch。
result = rnn.fit(x_train, y_train, batch_size=64, validation_split=0.3, epochs=1)
打印结果:显示模型的训练历史。
print(result)
print(result.history)
总之,这段代码首先进行数据预处理,然后构建和训练一个RNN模型来对评论进行分类。
当然可以!下面是逐行解读的代码:
tf.random.set_seed(1):
df = pd.read_csv(“…/data/Clothing Reviews.csv”):
df
。print(df.info()):
df
的简要摘要,包括每列的非空值数量、数据类型等信息。df[‘Review Text’] = df[‘Review Text’].astype(str):
x_train = df[‘Review Text’]:
df
中提取’Review Text’列的内容,并将其赋值给x_train
。y_train = df[‘Rating’]:
df
中提取’Rating’列的内容,并将其赋值给y_train
。from tensorflow.keras.preprocessing.text import Tokenizer:
dict_size = 14848:
tokenizer = Tokenizer(num_words=dict_size):
dict_size
。tokenizer.fit_on_texts(x_train):
x_train
中的文本内容为tokenizer对象构建词汇表。x_train
中的文本转换为整数序列,并赋值给x_train_tokenized
。x_train_tokenized
中的序列填充或截断为统一的长度(120)。x_train
中前10个序列及其长度。rnn
。result
。该代码的主要目的是使用Recurrent Neural Network (RNN)来对"Clothing Reviews.csv"中的评论进行分类。
当然可以!以下是对每个重要函数的详细介绍:
tf.random.set_seed(1):
pd.read_csv(“…/data/Clothing Reviews.csv”):
df[‘Review Text’].astype(str):
Tokenizer(num_words=dict_size):
dict_size
个词将被考虑。tokenizer.fit_on_texts(x_train):
tokenizer.texts_to_sequences(x_train):
pad_sequences(x_train_tokenized, maxlen=max_comment_length):
Sequential():
Embedding(input_dim=dict_size, output_dim=60, input_length=max_comment_length):
SimpleRNN(units=100):
这些函数共同完成了数据处理、模型构建和训练的过程。希望这些详细的介绍能够帮助您更好地理解代码!
rnn = Sequential()
rnn.add(Embedding(input_dim=dict_size, output_dim=60, input_length=max_comment_length))
rnn.add(SimpleRNN(units=100))
rnn.add(Dense(units=10, activation=tf.nn.relu))
rnn.add(Dense(units=6, activation=tf.nn.softmax))
rnn.compile(loss='sparse_categorical_crossentropy', optimizer="adam", metrics=['accuracy'])
模型结构
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding (Embedding) (None, 120, 60) 890880
simple_rnn (SimpleRNN) (None, 100) 16100
dense (Dense) (None, 10) 1010
dense_1 (Dense) (None, 6) 66
图中红框标记的是神经网络各层的参数数量。每一层的参数数量是根据层的输入和输出大小以及层的类型计算出来的。这里是如何计算每一层参数的:
参数数量是词汇表大小(input_dim
)乘以嵌入维度(output_dim
)。如果词汇表有 20,000 个词,每个词被映射到 60 维空间,则参数数量是 20,000 * 60 = 1,200,000。图中显示的是 898,880,这暗示词汇表大小可能约为 14,981(因为 898,880 / 60 ≈ 14,981)。
(None, 120, 60) 是输入RNN的矩阵,None代表评论的数量,每条评论长短不一(我们统一为120,因为最大为120),每个词的特征都是60。
(None, 120, 60) – 》 【评论数, 每条评论的长度, 词向量】 --》【评论数,词向量】
循环神经网络它是一个序列结构,每条评论有120个词,这120个词,会逐个进入神经网络中,每个词都有60个特征。假设该神经网络每秒处理一个词,120个词需要2分钟,每个词进来的时候,都有60个特征。在时序神经网络中,这120个词是随着时间的推移一个一个进去的,但是每一个词最后的结构,【评论数,词向量】(到神经网络的就是这个东西
一个简单的 RNN 层的参数数量由三部分组成:输入到隐藏状态的权重(input_dim * units
),隐藏状态到隐藏状态的权重(units * units
),以及偏置项(units
)。计算公式是 (input_dim + units) * units + units
。如果输入维度是 60(从嵌入层来),单元数是 100,则参数数量是 (60 + 100) * 100 + 100 = 16,100。
全连接层的参数数量是输入单元数乘以输出单元数,再加上输出单元数的偏置项。如果前一层有 100 个单元,这一层有 10 个单元,则参数数量是 100 * 10 + 10 = 1,010。
同上,如果前一层有 10 个单元,这一层有 6 个单元,则参数数量是 10 * 6 + 6 = 66。
参数计算是构建和训练神经网络时考虑计算成本和模型容量的一个重要因素。每个参数都需要通过训练数据来学习,因此参数的数量直接影响模型的学习能力和训练时间。