GG-CNN抓取数据集

博主可以发我三角标注法标注完的康奈尔数据集吗?或者光label标签也行,我觉得我的标注有错。如果可以,万分感谢!

直接私信作者,这里基本博主看不到

pybullet GGCNN数据集制作
可以参考下
https://blog.csdn.net/weixin_50920579/article/details/124808087

帮你找到一些关于康奈尔数据集的标注和制作方法的博文:
抓取检测数据集Cornell数据解析:https://blog.csdn.net/qq_40081208/article/details/104547339
pybullet GGCNN数据集制作:https://blog.csdn.net/weixin_50920579/article/details/124808087

三角标注法标注完的康奈尔数据集


    def __getitem__(self, idx):
        # 读取img和标签
        image = DepthImage(self.depth_files[idx])
        label = GraspMat(self.grasp_files[idx])
        # 数据增强
        if self.argument:
            # resize
            scale = np.random.uniform(0.9, 1.1)
            image.rescale(scale)
            label.rescale(scale)
            # rotate
            rota = 30
            rota = np.random.uniform(-1 * rota, rota)
            image.rotate(rota)
            label.rotate(rota)
            # crop
            dist = 30
            crop_bbox = image.crop(self.output_size, dist)
            label.crop(crop_bbox)
            # flip
            flip = True if np.random.rand() < 0.5 else False
            if flip:
                image.flip()
                label.flip()
        else:
            # crop
            crop_bbox = image.crop(self.output_size)
            label.crop(crop_bbox)
 
        # img归一化
        image.normalize()
        # 获取target
        label.encode()
 
        img = self.numpy_to_torch(image.img)
        grasp_point = self.numpy_to_torch(label.grasp_point)
        grasp_cos = self.numpy_to_torch(label.grasp_cos)
        grasp_sin = self.numpy_to_torch(label.grasp_sin)
        grasp_width = self.numpy_to_torch(label.grasp_width)
 
        return img, (grasp_point, grasp_cos, grasp_sin, grasp_width)

下面是一些公开可用的抓取数据集,可以去其官网下载

  1. Cornell Grasping Dataset: 由Cornell University发布的大规模抓取数据集,包含约10k个RGB-D图像和手工标注的抓取姿态,适用于抓取物体的平面部分。

  2. Dex-Net 2.0: 由加州大学伯克利分校发布的数据集,包含超过50k个三维物体模型,以及与每个模型对应的抓取姿态的采样。

  3. Amazon Robotics Challenge (ARC) dataset: 由亚马逊发布的数据集,主要用于机器人抓取任务的挑战赛,包含超过10k个RGB-D图像和手工标注的抓取姿态。

  4. YCB-Video dataset: 由斯坦福大学发布的数据集,包含256个物体实例,以及与每个实例对应的RGB-D图像和手工标注的抓取姿态。

  5. Cornell Grasping Dataset V4: 由Cornell University发布的最新版本的抓取数据集,包含213,347个RGB-D图像和手工标注的抓取姿态,以及物体密度和重心等信息。