博主可以发我三角标注法标注完的康奈尔数据集吗?或者光label标签也行,我觉得我的标注有错。如果可以,万分感谢!
直接私信作者,这里基本博主看不到
pybullet GGCNN数据集制作
可以参考下
https://blog.csdn.net/weixin_50920579/article/details/124808087
帮你找到一些关于康奈尔数据集的标注和制作方法的博文:
抓取检测数据集Cornell数据解析:https://blog.csdn.net/qq_40081208/article/details/104547339
pybullet GGCNN数据集制作:https://blog.csdn.net/weixin_50920579/article/details/124808087
三角标注法标注完的康奈尔数据集
def __getitem__(self, idx):
# 读取img和标签
image = DepthImage(self.depth_files[idx])
label = GraspMat(self.grasp_files[idx])
# 数据增强
if self.argument:
# resize
scale = np.random.uniform(0.9, 1.1)
image.rescale(scale)
label.rescale(scale)
# rotate
rota = 30
rota = np.random.uniform(-1 * rota, rota)
image.rotate(rota)
label.rotate(rota)
# crop
dist = 30
crop_bbox = image.crop(self.output_size, dist)
label.crop(crop_bbox)
# flip
flip = True if np.random.rand() < 0.5 else False
if flip:
image.flip()
label.flip()
else:
# crop
crop_bbox = image.crop(self.output_size)
label.crop(crop_bbox)
# img归一化
image.normalize()
# 获取target
label.encode()
img = self.numpy_to_torch(image.img)
grasp_point = self.numpy_to_torch(label.grasp_point)
grasp_cos = self.numpy_to_torch(label.grasp_cos)
grasp_sin = self.numpy_to_torch(label.grasp_sin)
grasp_width = self.numpy_to_torch(label.grasp_width)
return img, (grasp_point, grasp_cos, grasp_sin, grasp_width)
下面是一些公开可用的抓取数据集,可以去其官网下载
Cornell Grasping Dataset: 由Cornell University发布的大规模抓取数据集,包含约10k个RGB-D图像和手工标注的抓取姿态,适用于抓取物体的平面部分。
Dex-Net 2.0: 由加州大学伯克利分校发布的数据集,包含超过50k个三维物体模型,以及与每个模型对应的抓取姿态的采样。
Amazon Robotics Challenge (ARC) dataset: 由亚马逊发布的数据集,主要用于机器人抓取任务的挑战赛,包含超过10k个RGB-D图像和手工标注的抓取姿态。
YCB-Video dataset: 由斯坦福大学发布的数据集,包含256个物体实例,以及与每个实例对应的RGB-D图像和手工标注的抓取姿态。
Cornell Grasping Dataset V4: 由Cornell University发布的最新版本的抓取数据集,包含213,347个RGB-D图像和手工标注的抓取姿态,以及物体密度和重心等信息。