城市景观数据(数据集主页)包含从德国驾驶的车辆中拍摄的标记视频。此版本是作为Pix2Pix论文的一部分创建的已处理子样本。数据集包含来自原始视频的静止图像,语义分割标签与原始图像一起显示在图像中。这是语义分割任务的最佳数据集之一。
该数据集提供通过CARLA自动驾驶汽车模拟器捕获的数据图像和标记语义分割。该数据集可用于训练ML算法以识别图像中汽车、道路等的语义分割。
两个开源数据集仅用于提取非洲地区使用的交通标志。该数据集包含来自所有类别的76个类,例如,监管、警告、指南和信息标志。该数据集总共包含19,346张图像和每个类别至少200个实例。
Argoverse针对的任务:3D追踪和动作预测,两个任务对应的数据集其实是独立的,只是采集设备和采集地点一样而已。提供了360度的视频和点云信息,并根据点云重建了地图,全天候全光照。标注了视频和点云中的3Dboundingbox。3D追踪的数据集包含113段15-30秒的视频,动作预测中包含323,557段5秒的视频(总计320小时)。数据集的主要亮点还是在原始数据和地图的联动上。
该数据集为自动驾驶车辆提供了易于使用的训练数据。提供驾驶视频中每一帧对应的转向角、加速度、刹车和档位。这段视频是使用安装在汽车挡风玻璃上的摄像头录制的,该汽车沿着印度喀拉拉邦的道路行驶。
加州理工学院行人数据集由大约10小时的640x48030Hz视频组成,该视频取自在城市环境中通过常规交通行驶的车辆。注释了大约250,000帧(在137个大约分钟长的片段中),总共350,000个边界框和2300个行人。
CamSeq是一个地面数据集,可自由用于视频目标识别中的研究工作。该数据集包含101个960x720像素的图像对。每个掩码都由文件名之外的“_L”指定。所有图像(原始图像和真实图像)均为未压缩的24位彩色PNG格式。
该数据集最初是针对自动驾驶汽车的问题而设计的。此序列描绘了从一辆动感的汽车拍摄的剑桥市的动感驾驶场景。这是一个具有挑战性的数据集,因为除了汽车的自我运动之外,其他汽车,自行车和行人也有自己的运动,而且它们经常相互堵塞。
有媒体收集了大量工业界、产业界的真实场景数据集,共有高达1473GB高质量内部数据集资源。数据集均来自于真实的业务场景,由产业合作伙伴和媒体搜集和提供。
不仅如此,算法模型的分数达到标准后会给予开发者们定额的奖励,排名靠前的开发者还可以与平台签约合作,持续获得算法的订单长期分成收益!
平台已对接智慧城市、商业地产、明厨亮灶等行业真实需求,包括不限于目标检测、行为识别、图像分割、视频理解、目标跟踪、OCR等视觉算法方向。