ErgoAI®面部表情实训设备
产品概述:
ErgoAI面部表情实训设备是面向情感计算、人机交互、虚拟数字人等前沿领域职业教育的核心实训载体,以光学成像等多模态表情捕捉技术为核心,深度融合微表情特征识别、实时表情驱动与动态渲染算法优化,构建从面部肌肉运动精准采集、表情特征参数化到虚拟角色表情映射的全链路实践体系。
平台聚焦情感交互场景,助力学生掌握通过面部表情捕捉驱动虚拟数字人、智能交互系统实现情感表达与意图理解的核心技术,深度理解人类情感传递与机器感知的协同逻辑。同时,配套模块化教学资源与项目化实训方案,将理论知识与情感计算应用开发紧密结合,让学生在实践中提升虚拟角色表情设计、人机情感交互控制等创新能力,真正实现 “学技术、创应用” 的职业教育目标。
系统组成:
(1)ErgoLAB面部表情实训设备矩阵
包括高分辨率光学摄像头、红外成像设备及3D面部扫描仪,支持多角度、多光照条件下的面部数据采集,具备高帧率、高精度与强鲁棒性。
设备品类:
设备名称 |
设备介绍 |
便携式面部表情实训设备 |
ErgoLAB便携式面部表情分析设备是一款用于实时面部行为编码与标准化表情分析的专业工具。该系统基于科学的面部行为编码体系,通过定量化观察与结构化记录方式,实现系统、客观的表情行为数据采集与分析。系统支持对面部表情单元进行分类识别与量化编码,具备高精度和可重复的分析能力。移动终端版本适配便携手持设备,适用于现场作业环境,支持实时面部表情记录、多维度数据分析与统计功能,广泛应用与人工智能、电子信息技术等方向实训教学。 |
表情边缘计算终端 |
搭载边缘计算终端和智能算法模型,结合机器学习算法与图像识别技术,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、精确计算情感效价,系统可实时检测被试的头部位置、面部特征点、视线朝向、基本生物信息等,结合AI状态识别进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。 |
(2)数据采集、微表情计算、情绪状态识别、虚拟表情映射
l 微表情计算:借算法精准提取面部特征点,分析微表情动作参数,挖掘隐藏的情绪信息
l 情绪状态识别:搭载边缘计算终端,实时计算高兴、生气、悲伤、厌恶、蔑视等数十种情绪状态,以及疲劳、应激等情感反应
l 虚拟表情映射:将真实表情数据高精度映射至虚拟角色,适配多平台实现逼真交互
l 自动识别7种面部表情状态以及21种微表情数据,并实时计算面部表情程度值,以及整体面部肌肉的参与度状态。系统内嵌情感效价计算模型,精确识别正性、中性、负性3种情感状态。
l 自动监测操作人员的头部位置坐标,实时跟踪头部朝向并测定注视方向,自动识别眼睛注视方向,计算瞳孔间距,监测注意状态。
l 自动检测操作人员的整个面部特征点,系统包含年龄分类器,支持实时计算并智能识别多个年龄段状态,以及性别、是否佩戴眼镜等个体属性信息。
l 支持导入外部视频,作为表情数据源,进行离线的表情识别、编码与统计。支持手动编码(Manual Coding)、全自动编码(Auto Coding)、混合编码(Merge Coding),三种表情编码模式。
l 表情统计算法支持基础表情数据统计分析、实时表情编码可视化分析、事后表情编码可视化分析、多维度表情数据交互分析,并生成可视化统计图及统计表。
l 结合人工智能与机器学习算法,进一步实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。
平台应用:
具身智能:在具身认知与智能体学习课程中,学生利用设备采集人类面部表情数据,通过微表情计算与情绪状态识别,将人类情绪特征映射到智能体的行为逻辑中,使智能体能够基于情绪反馈调整动作与决策。
多模态人机交互教学场景:在多模态交互系统设计课程中,学生以设备采集的面部表情数据为核心,融合语音、手势等多模态信息,设计更加自然流畅的人机交互系统。
ErgoLAB多模态同步方案:
整体概述
ErgoLAB人机环境同步平台采用多模态数据时钟同步技术,平台可完成完整的实验和测评流程,包括项目管理-试验设计-同步采集-信号处理-数据分析-人因智能评估-可视化报告,支持基于云架构技术的团体测试和大数据管理。
ErgoLAB人机环境同步平台采用主客观结合多模态数据同步采集与多维度验证的方法,数据实时同步种类包含大脑认知数据(EEG/BCI脑电仪与脑机接口边缘计算设备、fNIRS/BCI近红外脑成像仪),视觉数据(Eyetracker眼动仪与视线交互系统),生理数据(生理仪含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行为观察、肢体动作与面部表情(基本情绪、情绪效价、微表情等)数据、生物力学数据(拉力、握力、捏力、压力…),人机交互数据(包含人机界面交互行为数据以及对应的键盘操作,鼠标点击、悬浮、划入划出等;移动终端人机交互行为数据以及对应的手指轨迹操作行为如点击、缩放、滑动等;VR终端界面人机交互行为数据及对应的双手操作拾取、丢弃、控制,VR空间行走轨迹)、以及多类型时空行为轨迹数据采集(包括室内、户外、以及VR环境不同时空的行走轨迹、行车轨迹、访问状态以及视线交互、情感反应、交互操作行为等数据实时同步采集)、以及作业空间及作业环境数据(温度、湿度、噪音、光照、大气压、湿度、粉尘等)等客观量化数据;为科学研究及应用提供完整的数据指标。
ErgoAI人因智能:
将人工智能技术引入人因工程研究工具,人因工程行业更加深度,使得实验环境不会受限于某一种设备或数据指标,采集分析不同典型行业或学科专业的人-机-环境系统交互过程中自然状态下的人类行为数据,获取更接近真实人员状态的数据。平台还提供覆盖科研实验全流程的功能模块,包括项目管理、实验设计、同步采集、数据分析、综合统计和可视化报告,结合ErgoAI人因智能边缘计算平台为多模态人机环境研究提供一站式人因工程+人工智能解决方案。以ErgoLAB人机环境同步平台和ErgoAI人因智能边缘计算平台为核心的多模态同步人因智能解决方案大大提高了实验结果的信效度,同时节省了研究的人力、物力、时间,提高了研究与测评的整体效率。
基于ErgoAI人因智能多元时序算法底座与人因工程人机环境数据库,构建人员特定状态的预训练模型,配合高灵活度的训练方案管理功能,用户能够在统一环境中高效构建和优化模型。 从而实现对人员状态的精准实时评估与预警,如负荷状态、应激状态、疲劳状态、情景意识和注意能力等。
Kingfar公司介绍:
北京津发科技股份有限公司(津发科技)是国家级专精特新“小巨人” ,新一轮第一批国家级专精特新重点“小巨人”、国家级知识产权优势企业、国家级高新技术企业、国家级科技型中小企业;旗下包含北京人因智能工程技术研究院和北京人因工程设计院有限公司等新型科技研发机构,并联合共建了北京市企业技术中心、北京本科高校产学研深度协同育人平台、苏州市重点实验室、湖南省工程实验室、山东省工程研究中心等多个科技创新平台。
津发科技承担和参与了多项国家重点研发计划、工信部高质量发展专项、国家自然科学基金等国家级课题基金项目。担任全国信标委XR扩展现实标准化工作组副组长单位,工信部元宇宙标准化工作组关键技术组联合组长单位;主持和参编国际、国家、行业和团体标准30余项。
津发科技创新研发了国产化自主可控的人因工程与人因智能边缘计算系列信创产品与技术;通过了欧洲CE、美国FCC、欧盟ROHS,以及ISO9001、ISO14001、ISO45001等多项国际认证。累计荣获30余项省部级新技术新产品认证和多项省部级科学技术奖励;全球申请发明专利超过530项,已授权120余项国际和国家发明专利、150余项国际和国家注册商标、130余项国家软件著作权;已服务全国高等院校和装备科技工业科研院所应用示范,并已支撑科研学者和科技工作者发表中英文学术论文超过1100篇。
ErgoAI®面部表情实训设备
网址: https://www.pangtui.com/sell/show-23280.html