数据集
UT-Interaction数据集包含连续执行6类人 - 人交互的视频:握手,点,拥抱,推,踢和拳。提供了这些交互的地面实况标签,包括时间间隔和边界框。总共有20个视频序列,其长度约为1分钟。每个视频每次互动至少包含一次执行,平均每个视频为我们提供8次人类活动。视频中出现了超过15种不同服装条件的几个参与者。这些视频的分辨率为720 * 480,30fps,视频中人物的高度约为200像素。 织梦好,好织梦
我们将视频分为两组。集合1由在停车场拍摄的10个视频序列组成。设置1的视频采用略微不同的变焦率拍摄,并且它们的背景大多是静态的,几乎没有相机抖动。集合2(即其他10个序列)在刮风天在草坪上拍摄。背景稍微移动(例如树木移动),它们包含更多相机抖动。从序列1到4和从11到13,在场景中仅出现两个相互作用的人。从序列5到8和从14到17,在场景中存在相互作用的人和行人。在第9,10,18,19和20组中,几对相互作用的人同时执行活动。每组具有不同的背景,比例和照明。 本文来自织梦
-
高级人机交互示例视频
绩效评估方法
必须使用每组10次留一次交叉验证来评估比赛参与者创建的系统的性能。也就是说,对于每组,我们在10个序列中留下一个用于测试,并使用其他9个用于训练。参与者必须在迭代地更改测试集的同时测量性能10次,找到平均性能。
对于每一组,我们提供了60个活动执行,将用于培训和测试。必须使用选定的60个活动执行来衡量性能。其他执行,在我们的数据集中标记为“其他”,不得用于评估。
织梦好,好织梦
我们希望参与者使用两种不同的实验设置评估他们的系统:分类和检测。对于“分类”,参与者应根据实际情况使用120个视频片段。必须测量将测试视频片段分类为正确类别的性能。在“检测”设置中,当且仅当系统正确地注释发生的活动的时间间隔(即一对开始时间和结束时间)及其空间边界框时,才测量活动识别是正确的。如果注释在空间和时间上与地面实况重叠超过50%,则检测被视为真正的正面。否则,它被视为误报。
织梦内容管理系统
引文
如果您以任何形式使用UT-Interaction数据集,请引用以下参考。
@misc {UT-Interaction-Data,
author =“Ryoo,MS and Aggarwal,JK”,
title =“{UT} - {I} nteraction {D} ataset,{ICPR}对{S}语义{D}描述的竞赛of {H} uman {A} ctivities({SDHA})“,
year =”2010“,
howpublished =”http://cvrc.ece.utexas.edu/SDHA2010/Human\_Interaction.html“
}
此外,该数据集的先前版本(即第1组)在以下文章中介绍。如果您对结果感兴趣,可以查看本文。
@inproceedings {ryoo09,
author =“Ryoo,MS
title =“时空关系匹配:用于识别复杂人类活动的视频结构比较”,
booktitle =“IEEE国际计算机视觉会议(ICCV)”,
年份=“2009”,
location =“Kyoto,Japan”,
}
copyright dedecms