两次观察:任务和物种之间返回固定值的计算模型

作者: | Mengmi Zhang | Will Xiao | Olivia Rose | Katarina Bendtz | Margaret Livingstone | Carlos Ponce | Gabriel Kreiman |

摘要:眼珠眼运动允许动物将图像的不同部分带入高分辨率.在自由观看期间,对返回的抑制鼓励勘探,阻止以前访问过的地点。尽管有这样的抑制,我们在这里展示了被试经常会有固定的返回。我们系统地研究了在217,440个不同任务中,猴子和人类,以及静态图像或以自我为中心的视频中,总共有44,328个返回固定。随处可见的回归固定在被试之间是一致的,往往发生在较短的偏移范围内,其特征是持续时间比不返回的固定时间长。返回定位的位置对应于视觉搜索任务中具有更高显着性和更高相似性的图像区域。我们提出了一种基于生物启发的计算模型,该模型利用深度卷积神经网络进行目标识别,预测固定序列。给定输入图像,该模型计算四种限制下一次扫视的位置的映射:显着性映射、目标相似性映射、扫视尺寸映射和内存映射。该模型表现出频繁的返回固定,并近似于任务和物种之间的返回固定。该模型提供了获取信息图像位置之间的折衷的初始步骤,并结合场景查看期间对新图像位置的探索。

论文地址

https://arxiv.org/abs/2101.01611v1

下载地址

https://arxiv.org/pdf/2101.01611v1.pdf

全部源码

https://github.com/kreimanlab/RefixationModel 类型: pytorch

目标识别

相关推荐

暂无评论

微信扫一扫,分享到朋友圈

两次观察:任务和物种之间返回固定值的计算模型