Summary

自己的观点: 用头摄像头捕捉婴幼儿的自我中心观

Published: October 05, 2018
doi:

Summary

婴儿和幼儿以与父母截然不同的方式看待世界。头部安装摄像头提供了一个易于理解的机制, 以了解婴儿的视觉环境。该议定书为家庭或实验室的实验提供了指导原则, 以捕捉幼儿和婴儿的自我中心观点。

Abstract

婴儿和幼儿以基本的感官水平看待世界, 这与他们的父母有着根本不同的方式。这主要是由于生物的限制: 婴儿比他们的父母拥有不同的身体比例, 控制他们自己的头部运动的能力是不发达的。此类限制限制了可用的可视输入。本议定书的目的是为研究人员提供指导原则, 使用头部安装摄像头, 以了解发展中婴儿所经历的不断变化的视觉输入。成功使用此协议将使研究人员能够设计和执行在家庭或实验室中设置的开发儿童视觉环境的研究。从这个方法, 研究人员可以编译一个整体视图的所有可能的项目在儿童的视野。此方法不能直接测量孩子所看的内容。通过将这种方法与机器学习、计算机视觉算法和手工编码相结合, 研究人员可以生成高密度数据集, 以说明发展中婴儿的视觉生态学的变化。

Introduction

数十年来, 心理学家一直在寻求了解发展中婴儿的环境, 威廉?詹姆斯著名的描述为 “绽放, 嗡嗡的混乱1“。婴儿的日常体验通常是通过从第三人称视角拍摄自然主义戏剧与社会合作伙伴进行研究的。这些侧面或以上的视图通常显示杂乱的环境, 以及一个婴儿听到2的新单词的潜在引用者数量令人望而生畏。对外部观察者来说, 詹姆斯的描述是容易的, 但这种静止的, 第三人称的观点不是婴儿看待世界的方式。一个婴儿离地面更近, 可以移动他们的世界, 使物体更接近视觉探索。图 1说明了父子交互的第三人称视图。突出的是它们的观点之间的根本区别。也许, 婴儿接受的输入并不像父母和研究人员预期的那样混乱。采用头部安装摄像头的方法的目标是从第一人称的角度捕捉婴儿体验, 以便了解在整个开发过程中可获得的视觉环境。

头部安装的摄像头, 戴在帽子或头巾, 提供了一个窗口, 进入瞬间的视觉体验的发展婴儿。从这一角度出发, 对幼儿环境的结构和规律性的研究显得十分明显。头部安装的摄像头已经揭示了婴儿的视觉体验主要由手, 无论是他们自己和他们的社会合作伙伴的, 和脸看起来, 一旦被认为是必要的共同关注, 比预期要少得多3. 头部安装的摄像头还显示, 婴儿和他们的看护者创造了一些时刻, 当物体在视觉上占主导地位, 以婴儿的视野 (FOV) 为中心, 减少对象标签映射4固有的不确定性。

头部安装的摄像头根据头部运动捕捉婴儿的第一人称视图。这一观点与婴儿眼动没有完全同步, 也不能代表婴幼儿眼球运动, 只能与眼球追踪器一起捕捉。例如, 只有眼睛保持头部静止, 或头部移位, 同时保持眼睛固定在一个物体上的转变, 将导致婴儿的实际 FOV 和头部摄像头捕获的人之间的错位。然而, 在玩具游戏中, 婴儿通常把他们所关注的对象居中, 将他们的头、眼睛和玩具的位置与身体的中线5对准。失调是罕见的, 通常是由短暂的延迟之间的眼睛移位和陪同头部转3。因此, 头相机不太适合捕捉快速动态的注意力转移。头部安装摄像头的强度在于捕捉日常视觉环境, 揭示婴儿可利用的视觉内容。

下面的协议和代表性的结果将展示如何使用头部安装摄像头来研究婴幼儿的视觉环境。

Protocol

以下程序收集婴儿和幼儿在实验室和在家中的视觉体验的数据是由印第安纳大学机构审查委员会批准的。从婴儿的看护者那里得到了知情同意。 1. 选择头部摄像头 注:有许多小型、轻型和便携相机可以随时购买 (图 2)。 选择一个不显眼的头部摄像头, 不会影响被记录的场景。 使用临时粘合剂将照相机安装到…

Representative Results

一个简单而又信息丰富的分析方法是在每个时间点计算视图中对象的数量。由于磁头摄像机在大约30赫兹 (30 图像/秒) 上生成数据, 因此每5秒将数据向下采样到1个图像有助于生成一个更易于管理的数据集, 同时维护一个适合于了解儿童所看到的场景类型的解决方案。此前的研究表明, 婴儿3的视觉场景是缓慢变化的。自定义脚本用于在视图中绘制玩具周围的…

Discussion

本文概述了将头部安装摄像头应用于婴幼儿的基本情况, 以捕捉他们的自我中心视觉场景。商业上可用的头摄像头足以为绝大多数的研究。小的, 轻便的, 便携的相机应该被纳入软织物帽子或头带, 并适用于儿童的头部。一旦成功地设计和实施, 就可以在实验室和家庭环境中运行各种实验。从采集到的视频中, 可以对发展中婴儿视觉生态学的综合数据进行整理和分析。

这个方法?…

Divulgations

The authors have nothing to disclose.

Acknowledgements

作者感谢陈宇博士在创作这篇手稿时所做的指导, 以及在代表成果部分所使用的数据。我们感谢同意在《议定书》的数字和拍摄中使用的参与家庭以及丽迪雅 Hoffstaetter 对这份手稿的仔细阅读。这项研究得到了国家卫生研究所赠款 T32HD007475-22 (J.I.B.、D.H.A.)、R01 HD074601 (迪萨纳亚克)、R01 HD028675 (迪萨纳亚克、L.B.S.) 和 F32HD093280 (L.K.S.) 的支持。国家科学基金会资助 BCS-1523982 (迪萨纳亚克, l.b.) 和职业 IIS-1253549 (迪萨纳亚克, D.J.C.), 国家科学基金会研究生研究金项目 #1342962 (S.E.S.), 并由印第安纳大学通过新兴领域的研究主动学习: 大脑, 机器和儿童 (J.I.B., 迪萨纳亚克, L.B.S.)。

Materials

Head-camera Looxcie Looxcie 3
Head-camera Watec WAT-230A
Head-camera Supercircuits PC207XP
Head-camera KT&C VSN500N
Head-camera SereneLife HD Clip-On
Head-camera Conbrov Pen TD88
Head-camera Mvowizon Smiley Face Spy Button
Head-camera Narrative Clip 2
Head-camera MeCam DM06

References

  1. James, W. . The Principles of Psychology. , (1890).
  2. Quine, W., Van, O. . Word and object: An inquiry into the linguistic mechanisms of objective reference. , (1960).
  3. Yoshida, H., Smith, L. B. What’s in view for toddlers? Using a head camera to study visual experience. Infancy. 13 (3), 229-248 (2008).
  4. Yu, C., Smith, L. B. Embodied attention and word learning by toddlers. Cognition. 125 (2), 244-262 (2012).
  5. Bambach, S., Smith, L. B., Crandall, D. J., Yu, C. Objects in the center: How the infant’s body constrains infant scenes. Joint IEEE International Conference on Development and Learning and Epigenetic Robotics 2016. , 132-137 (2016).
  6. Adolph, K. E., Gilmore, R. O., Freeman, C., Sanderson, P., Millman, D. Toward open behavioral science. Psychological Inquiry. 23 (3), 244-247 (2012).
  7. Sanderson, P. M., Scott, J. J. P., Johnston, T., Mainzer, J., Wantanbe, L. M., James, J. M. MacSHAPA and the enterprise of exploratory sequential data analysis (ESDA). International Journal of Human-Computer Studies. 41 (5), 633-681 (1994).
  8. Pereira, A. F., Smith, L. B., Yu, C. A bottom-up view of toddler word learning. Psychonomic Bulletin & Review. 21 (1), 178-185 (2014).
  9. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLOS ONE. 8 (11), e79659 (2013).
  10. Jayaraman, S., Fausey, C. M., Smith, L. B. The faces in infant-perspective scenes change over the first year of life. PlOS ONE. 10 (5), e0123780 (2015).
  11. Fausey, C. M., Jayaraman, S., Smith, L. B. From faces to hands: Changing visual input in the first two years. Cognition. 152, 101-107 (2016).
  12. Jayaraman, S., Fausey, C. M., Smith, L. B. Why are faces denser in the visual experiences of younger than older infants?. Developmental Psychology. 53 (1), 38 (2017).
  13. Clerkin, E. M., Hart, E., Rehg, J. M., Yu, C., Smith, L. B. Real-world visual statistics and infants’ first-learned object names. Philosophical Transactions of the Royal Society B, Biological Sciences. 372, 20160055 (2017).
check_url/fr/58445?article_type=t

Play Video

Citer Cet Article
Borjon, J. I., Schroer, S. E., Bambach, S., Slone, L. K., Abney, D. H., Crandall, D. J., Smith, L. B. A View of Their Own: Capturing the Egocentric View of Infants and Toddlers with Head-Mounted Cameras. J. Vis. Exp. (140), e58445, doi:10.3791/58445 (2018).

View Video