欢迎来到北京津发科技股份有限公司!
Products产品中心
首页 > 产品中心 > > 视觉与眼动追踪 > ErgoLAB Eyetracking眼动轨迹分析模块

ErgoLAB Eyetracking眼动轨迹分析模块

简要描述:眼动追踪通过红外光反射原理,测量眼睛的注视点位置或者眼球相对头部的运动而实现对眼球运动的追踪,进而分析视觉加工特征。ErgoLAB眼动追踪模块采用高精度的眼动追踪元件同步记录个体的眼动轨迹、视线变化、眼动状态等数据,在多种视觉刺激和环境下开展人类行为研究。同步记录如眼部或头部3D空间位置、注视时间、瞳孔大小、眨眼次数、眼跳、眼睑闭合度等数据,发现能够吸引人们注意力的因素,了解人们感知其周围事物的视

  • 产品型号:
  • 厂商性质:生产厂家
  • 更新时间:2025-04-29
  • 访  问  量:1477

详细介绍

品牌其他品牌产地国产
产品简介

ErgoLAB Eyetracking眼动追踪模块,通过红外光反射原理测量眼睛运动过程,采用高精度的眼动追踪元件同步记录个体的眼动轨迹、视线变化、眼动状态、头部姿态等数据,进而分析视觉加工特征,了解人们感知其周围事物的视觉方式以及驱使人们作出决策的因素,在多种视觉刺激和环境下开展人类行为研究。

ErgoLAB Eyetracking眼动轨迹分析模块
眼动追踪系统
屏幕式高精度眼动仪:高采样率与高精度数据质量采集,适用于快速眼动状态研究。
Glasses可穿戴眼动仪:自然的眼动追踪系统,专为现实环境的眼动研究而设计。
虚拟现实眼动:将眼动追踪与VR结合,在受控的虚拟实验环境中开展眼动行为研究。
遥测式眼动仪:超薄、便携式遥测式眼动仪,可方便地在任何场所开展眼动行为研究。
便携式手持设备台,高精度眼动数据采集,满足任何移动终端环境下的可用性测试研究。
ErgoLAB Eyetracking眼动轨迹分析模块
功能

眼动状态分析

标准化眼动处理参数:系统采用I-VT注视点提取算法,通过Velocity Calculator、Merge Adjacent Fixation、Discard fixation deration等一系列参数,精确提取注视点、眨眼、以及眼跳等状态。支持原始原始、注视数据、注意数据的自定义选择性研究。
完整的数据分析与导出:支持以Excel或CSV格式导出所有原始数据、处理数据、分析数据。眼动分析指标主要包括眼跳次数、眼跳时间、眼跳幅度、眼跳距离、眨眼次数、眨眼频率、总注视时间、平均注视时间、注视次数、瞳孔直径等。
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块

眼动可视化分析

支持基于2D刺激材料、APP长图、以及360°图片/视频或3D虚拟场景分析;
实时监测个体在任何环境刺激中的注意力和行为模式,输出实时眼动注视点数据;
热点图分析:直观分析个体的视觉重点关注区域,并形成可视化热图的形式展示结果;
轨迹图分析:直观显示个体的眼动注视顺序、每个注视点的停留时长,分析视觉加工机制;
3D图分析:显示个体的重点关注区域,以3D图等多种可视化图形方式展示。
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块

AOI统计与序列性分析

支持2D刺激材料(图片、视频等)及3D虚拟环境中的眼动AOI数据统计与分析;
支持对目标物进行自动Mapping或手动划分兴趣区,统计输出多维度的分析指标;
自动AOI序列分析,实现对不同兴趣区的注视顺序进行序列性编码与行为分析统计;
统计指标包括进入时间、进入前注视次数、第一次注视的眼动点、注视时间、总访问时间、平均访问时间、访问次数、总注视时间、平均注视时间、注视次数、平均注视次数、第二注视时间、最近邻近注视点等。
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块

原型网页眼动交互分析

支持针对网页、原型源代码内容兴趣区的眼动数据记录与分析;
支持网页、原型、图片及视频产品自定义绘制兴趣区的眼动数据记录与分析;
提供录屏、视频及交互记录等多种实验数据回放方式;
支持对虚拟现实空间中兴趣物体及兴趣区域的眼动数据分析;
采用云架构技术,支持多被试眼动数据同时采集与选择性输出。
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块
ErgoLAB Eyetracking眼动轨迹分析模块
同步方案

ErgoLAB人机环境同步平台采用多模态数据时钟同步技术,平台可完成完整的实验和测评流程,包括项目管理-试验设计-同步采集-信号处理-数据分析-人因智能评估-可视化报告,支持基于云架构技术的团体测试和大数据管理。

ErgoLAB人机环境同步平台采用主客观结合多模态数据同步采集与多维度验证的方法,数据实时同步种类包含大脑认知数据(EEG/BCI脑电仪与脑机接口边缘计算设备、fNIRS/BCI近红外脑成像仪),视觉数据(Eyetracker眼动仪与视线交互系统),生理数据(生理仪含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行为观察、肢体动作与面部表情(基本情绪、情绪效价、微表情等)数据、生物力学数据(拉力、握力、捏力、压力…),人机交互数据(包含人机界面交互行为数据以及对应的键盘操作,鼠标点击、悬浮、划入划出等;移动终端人机交互行为数据以及对应的手指轨迹操作行为如点击、缩放、滑动等;VR终端界面人机交互行为数据及对应的双手操作拾取、丢弃、控制,VR空间行走轨迹)、以及多类型时空行为轨迹数据采集(包括室内、户外、以及VR环境不同时空的行走轨迹、行车轨迹、访问状态以及视线交互、情感反应、交互操作行为等数据实时同步采集)、以及作业空间及作业环境数据(温度、湿度、噪音、光照、大气压、湿度、粉尘等)等客观量化数据;为科学研究及应用提供完整的数据指标。

ErgoLAB Eyetracking眼动轨迹分析模块

ErgoAI人因智能

将人工智能技术引入人因工程研究工具,人因工程行业更加深度,使得实验环境不会受限于某一种设备或数据指标,采集分析不同典型行业或学科专业的人-机-环境系统交互过程中自然状态下的人类行为数据,获取更接近真实人员状态的数据。平台还提供覆盖科研实验全流程的功能模块,包括项目管理、实验设计、同步采集、数据分析、综合统计和可视化报告,结合ErgoAI人因智能边缘计算平台为多模态人机环境研究提供一站式人因工程+人工智能解决方案。以ErgoLAB人机环境同步平台和ErgoAI人因智能边缘计算平台为核心的多模态同步人因智能解决方案大大提高了实验结果的信效度,同时节省了研究的人力、物力、时间,提高了研究与测评的整体效率。

ErgoLAB Eyetracking眼动轨迹分析模块

基于ErgoAI人因智能多元时序算法底座与人因工程人机环境数据库,构建人员特定状态的预训练模型,配合高灵活度的训练方案管理功能,用户能够在统一环境中高效构建和优化模型。 从而实现对人员状态的精准实时评估与预警,如负荷状态、应激状态、疲劳状态、情景意识和注意能力等。

ErgoLAB Eyetracking眼动轨迹分析模块

Kingfar公司介绍:

北京津发科技股份有限公司是专精特新重点小巨人,知识产权优势企业、高新技术企业、科技型中小企业;旗下包含北京人因智能工程技术研究院和北京人因工程设计院等科技研发机构,并联合共建了北京市企业技术中心、北京本科高校产学研深度协同育人平台、苏州市重点实验室、湖南省工程实验室、山东省工程研究中心等多个科技创新平台。

津发科技承担和参与了多项国家重点研发计划、工信部高质量发展专项、国家自然科学基金等课题基金。担任全国信标委XR扩展现实标准化组副组长单位,工信部元宇宙标准化工作组关键技术组联合组长单位;津发科技创新研发了国产化自主可控的人因工程与人因智能边缘计算系列信创产品与技术,荣获多项省部级科学技术奖励;津发科技主持和参编国际/国家、行业/团体标准20余项、荣获30余项省部级新技术新产品认证,全球申请砖利超过500项、100余项国际和国家注册商标、130余项国家软件著作权;已服务全国高等院校和装备科技工业科研院所应用示范,并已支撑国内科研学者和科技工作者发表中英文学术论文超过1000篇。


产品咨询

留言框

  • 产品:

  • 您的单位:

  • 您的姓名:

  • 联系电话:

  • 常用邮箱:

  • 省份:

  • 详细地址:

  • 补充说明:

  • 验证码:

    请输入计算结果(填写阿拉伯数字),如:三加四=7

邮件联系我们:sales@kingfar.cn

扫一扫,关注微信
版权所有©2025 北京津发科技股份有限公司   备案号:京ICP备14045309号
技术支持:机床商务网   管理登陆   sitemap.xml