我院承担的国家观演空间重点研发项目顺利通过中期检查

     427日,我院承担的国家科技部重点研发项目混合现实环境下的观演空间支撑技术研究在北京中国传媒大学顺利通过中期检查。院长王勋教授为该项目的总负责人,中国传媒大学为项目牵头单位,东北大学、浙江横店影视城等十余家单位参与课题研究。学院教师包翠竹、陈书界、董建锋、杨文武老师以及研究生参会。会上王勋教授汇报了项目中期已完成的技术、学术成果,人才培养,财务情况和下一步的工作计划,并演示了各课题已完成的技术系统。国家科技部专家认可项目的中期成果并就下一步计划给出指导意见。

1

   当前虚实结合的舞台演出严重依赖于创作前期时序性设计和安排,缺乏演出过程的实时性呈现的智能控制手段,限制了演员的表演自由度;大尺度舞台复杂异形立体投影面的投射与拼接难以实现,动态实时内容生成困难,导致表演动作和与之融合的舞台音视频及灯光等无法同步,虚拟立体投射质量不佳、沉浸感不强,极易出现穿帮情节等重大技术问题。严重影响舞台艺术呈现效果,极大限制了虚实融合表演形式的发展。

1

     针对上述挑战,面向混合现实环境下虚实演出的科技需求,混合现实环境下的观演空间支撑技术研究研究观演空间静态感知、动态感知、演出空间感知投影等关键技术和交互式内容生成与呈现方法,研发相关支撑系统,进行集成应用验证,提升虚实演出中演员与虚拟内容的交互性,提高虚实演出内容时序性设计安排的冗余度。我院目前主要承担观演空间动态感知技术与系统研发和虚实演出交互实验平台研建与测试验证研究。截止目前,我们提出了一种结合极线几何约束与目标跟踪的实时多人三维姿态估计技术,该技术不仅能够鲁棒地完成人体姿势的跨视角关联及其三维几何重构,并且在多相机多人场景(5台相机与6人)中可以达到40+/秒的重构帧率,充分满足实时的应用需求;同时,围绕复杂舞台表演环境下的数据采集、数据传输以及算法实时处理,提出了一套有效的解决方案并实现了高效的系统集成,研发了非接触式实时动态感知系统中的定位与跟踪模块,实现了多目标演员实时空间定位与三维姿态跟踪模块,并在横店影视城的真实舞台表演中得到了验证。4月27日,我院承担的国家科技部重点研发项目“混合现实环境下的观演空间支撑技术研究”在北京中国传媒大学顺利通过中期检查。院长王勋教授为该项目的总负责人,中国传媒大学为项目牵头单位,东北大学、浙江横店影视城等十余家单位参与课题研究。学院教师包翠竹、陈书界、董建锋、杨文武老师以及研究生参会。会上王勋教授汇报了项目中期已完成的技术、学术成果,人才培养,财务情况和下一步的工作计划,并演示了各课题已完成的技术系统。国家科技部专家认可项目的中期成果并就下一步计划给出指导意见。

1