可思数据-人工智能媒体资讯平台!可思数据-人工智能媒体资讯平台!

UT-Interaction 人类动作视频数据

数据类型:图形图像 热度
★★★☆☆

文件类型: .zip     文件大小:580 MB

授权方式: 其它     发布时间:2019-08-28

数据介绍:
在“高级人类交互识别挑战”中,参赛者需要通过连续视频识别正在进行的人类活动。目的是激励研究人员在现实环境中从连续视频中探索复杂人类活动的识别。每个视频包含顺序和/或同时发生的若干人 - 人交互(例如,手抖动)。参赛者必须正确地注释所有视频的播放时间和地点。一些视频中也有不相关的行人。需要准确检测和定位人类活动,而不是对视频进行强力分类。



数据集

UT-Interaction数据集包含连续执行6类人 - 人交互的视频:握手,点,拥抱,推,踢和拳。提供了这些交互的地面实况标签,包括时间间隔和边界框。总共有20个视频序列,其长度约为1分钟。每个视频每次互动至少包含一次执行,平均每个视频为我们提供8次人类活动。视频中出现了超过15种不同服装条件的几个参与者。这些视频的分辨率为720 * 480,30fps,视频中人物的高度约为200像素。

copyright dedecms



我们将视频分为两组。集合1由在停车场拍摄的10个视频序列组成。设置1的视频采用略微不同的变焦率拍摄,并且它们的背景大多是静态的,几乎没有相机抖动。集合2(即其他10个序列)在刮风天在草坪上拍摄。背景稍微移动(例如树木移动),它们包含更多相机抖动。从序列1到4和从11到13,在场景中仅出现两个相互作用的人。从序列5到8和从14到17,在场景中存在相互作用的人和行人。在第9,10,18,19和20组中,几对相互作用的人同时执行活动。每组具有不同的背景,比例和照明。 copyright dedecms

  •     高级人机交互示例视频
     

绩效评估方法

必须使用每组10次留一次交叉验证来评估比赛参与者创建的系统的性能。也就是说,对于每组,我们在10个序列中留下一个用于测试,并使用其他9个用于训练。参与者必须在迭代地更改测试集的同时测量性能10次,找到平均性能。

对于每一组,我们提供了60个活动执行,将用于培训和测试。必须使用选定的60个活动执行来衡量性能。其他执行,在我们的数据集中标记为“其他”,不得用于评估。 织梦内容管理系统

我们希望参与者使用两种不同的实验设置评估他们的系统:分类和检测。对于“分类”,参与者应根据实际情况使用120个视频片段。必须测量将测试视频片段分类为正确类别的性能。在“检测”设置中,当且仅当系统正确地注释发生的活动的时间间隔(即一对开始时间和结束时间)及其空间边界框时,才测量活动识别是正确的。如果注释在空间和时间上与地面实况重叠超过50%,则检测被视为真正的正面。否则,它被视为误报。
  织梦内容管理系统

引文

如果您以任何形式使用UT-Interaction数据集,请引用以下参考。

@misc {UT-Interaction-Data,
      author =“Ryoo,MS and Aggarwal,JK”,
      title =“{UT} - {I} nteraction {D} ataset,{ICPR}对{S}语义{D}描述的竞赛of {H} uman {A} ctivities({SDHA})“,
      year =”2010“,
      howpublished =”http://cvrc.ece.utexas.edu/SDHA2010/Human\_Interaction.html“ 


此外,该数据集的先前版本(即第1组)在以下文章中介绍。如果您对结果感兴趣,可以查看本文。

@inproceedings {ryoo09,
      author =“Ryoo,MS
      title =“时空关系匹配:用于识别复杂人类活动的视频结构比较”,
      booktitle =“IEEE国际计算机视觉会议(ICCV)”, 织梦内容管理系统
      年份=“2009”,
      location =“Kyoto,Japan”,

织梦内容管理系统

特别声明:

¤ 此数据集库仅供研究和教育用途,不得用于任何商业用途。
¤ 如果您在任何出版物或报告中使用该数据库,则必须添加引用来源。
¤ 版权归作者及所在组织所有。
¤ 如用于商业用途,请联系版权所有人。
¤ 本站数据来源于网络如有侵权请联系我们。
人工智能交流群扫码邀请
人工智能交流群扫码邀请

    最近关注
    热点内容
    热点图文