深度学习生成古诗词的原理

深度学习生成古诗词的原理是什么?我的理解是这样的:先把诗词数据集处理(去除空格,符号之类)然后打包成Tensor,生成诗词的时候先把给出的开头字符串转化为Tensor,然后用循环神经网络算出很多个概率,取最大的概率,然后把最大概率对应的字符拼接到开头的字符串上,然后这样重复下去。不知道正不正确,请指正。还有就是batch_size的作用是可以处理数据更高效,但是具体作用是什么呢?

batch_size指的是在训练过程中每次处理的样本数量,一般情况下,一个批次的数据被输入到神经网络中,计算得到一个损失值,然后通过反向传播更新神经网络的参数。batch_size的作用是可以使计算速度更快,减少训练时间,同时也可以让模型更稳定地收敛到最优解。当batch_size设置得过大时,会导致内存占用过高,使训练变得缓慢。所以在实际应用中需要根据硬件资源和数据集大小等因素选择适当的batch_size