UT-Interaction 人类动作视频数据
数据介绍:
在“高级人类交互识别挑战”中,参赛者需要通过连续视频识别正在进行的人类活动。目的是激励研究人员在现实环境中从连续视频中探索复杂人类活动的识别。每个视频包含顺序和/或同时发生的若干人 - 人交互(例如,手抖动)。参赛者必须正确地注释所有视频的播放时间和地点。一些视频中也有不相关的行人。需要准确检测和定位人类活动,而不是对视频进行强力分类。
数据集UT-Interaction数据集包含连续执行6类人 - 人交互的视频:握手,点,拥抱,推,踢和拳。提供了这些交互的地面实况标签,包括时间间隔和边界框。总共有20个视频序列,其长度约为1分钟。每个视频每次互动至少包含一次执行,平均每个视频为我们提供8次人类活动。视频中出现了超过15种不同服装条件的几个参与者。这些视频的分辨率为720 * 480,30fps,视频中人物的高度约为200像素。 本文来自织梦 我们将视频分为两组。集合1由在停车场拍摄的10个视频序列组成。设置1的视频采用略微不同的变焦率拍摄,并且它们的背景大多是静态的,几乎没有相机抖动。集合2(即其他10个序列)在刮风天在草坪上拍摄。背景稍微移动(例如树木移动),它们包含更多相机抖动。从序列1到4和从11到13,在场景中仅出现两个相互作用的人。从序列5到8和从14到17,在场景中存在相互作用的人和行人。在第9,10,18,19和20组中,几对相互作用的人同时执行活动。每组具有不同的背景,比例和照明。 内容来自dedecms
绩效评估方法
必须使用每组10次留一次交叉验证来评估比赛参与者创建的系统的性能。也就是说,对于每组,我们在10个序列中留下一个用于测试,并使用其他9个用于训练。参与者必须在迭代地更改测试集的同时测量性能10次,找到平均性能。 引文
如果您以任何形式使用UT-Interaction数据集,请引用以下参考。 dedecms.com 年份=“2009”, location =“Kyoto,Japan”, } 本文来自织梦
特别声明: ¤ 此数据集库仅供研究和教育用途,不得用于任何商业用途。¤ 如果您在任何出版物或报告中使用该数据库,则必须添加引用来源。 ¤ 版权归作者及所在组织所有。 ¤ 如用于商业用途,请联系版权所有人。 ¤ 本站数据来源于网络如有侵权请联系我们。 |
- 上一篇:UCSD 行人视频数据
- 下一篇:UCF Sport Action 运动视频数据