神经网络获取训练数据报错


> library(torchdatasets)
> library(torchvision)
> set.seed(1)
> max_features <- 10000
> imdb_train <- imdb_dataset(
+   root = ".", 
+   download = TRUE,
+   split="train",
+   num_words = max_features
+ )
Error in sapply(c(pos, neg), function(x) readr::read_file(x)) %>% tokenizers::tokenize_words() : 
  could not find function "%>%"

library("dplyr")
不知道你这个问题是否已经解决, 如果还没有解决的话:
  • 你可以参考下这个问题的回答, 看看是否对你有帮助, 链接: https://ask.csdn.net/questions/7455225
  • 你也可以参考下这篇文章:神经网络训练输入特征处理
  • 除此之外, 这篇博客: 神经网络卷积操作总结中的 总结 部分也许能够解决你的问题, 你可以仔细阅读以下内容或者直接跳转源博客中阅读:

    以上卷积核可以这样分类:

    • 通道和空间
      • Convolution
      • 1x1 Convolution
      • Spatial and Cross-Channel Convolutions
    • 通道相关性(channel)
      • Depthwise Separable Convolutions
      • Shuffled Grouped Convolutions
      • Squeeze and Excitation Network
      • Channel Attention Module in CBAM
    • 空间相关性(HxW)
      • Spatially Separable Convolutions
      • Flattened Convolutions
      • Dilated Convolutions
      • Deformable Convolution
      • Spatial Attention Module in CBAM

    现在很多CNN模型准确率越来越高,很多研究人员的研究方向也转向如何在尽可能保证准确率的情况下,尽可能减少模型参数,做好准确率和速度的平衡。
    总结一下效果优异的人工设计的backbone可能会用到以下策略:

    • 单一尺寸卷积核用多个尺寸卷积核代替(参考Inception系列)
    • 使用可变形卷积替代固定尺寸卷积(参考DCN)
    • 大量加入1x1卷积或者pointwise grouped convolution来降低计算量(参考NIN、ShuffleNet)
    • 通道加权处理(参考SENet)
    • 用深度可分离卷积替换普通卷积(参考MobileNet)
    • 使用分组卷积(参考ResNeXt)
    • 分组卷积+channel shuffle(参考shuffleNet)
    • 使用Residual连接(参考ResNet)
  • 您还可以看一下 褚英昊老师的深度学习与计算机视觉课程中的 神经网络与神经元简介小节, 巩固相关知识点

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^