您的位置:首页>>新闻中心>>行业资讯

《现代电影技术》丨LED虚拟摄制技术中基于激光雷达的摄影机实时追踪技术研讨

行业资讯 / 2023-08-27

本文刊发于《现代电影技术》2023年第8期





专家导读





2023年是全面贯彻党的二十大精神的开局之年、推进电影行业积极复苏的关键之年、结实开展习近平新时代中国特征社会主义怀念主题教育的主要一年。恰逢其时、意义严酷,《现代电影技术》特地推出“以自主创新支持电影科技自立自强和中华文化自傲自强”专栏,计划从2023年第8期至第11期,聚焦电影原创底层技术研发与打破,促进电影关键核心技术自主创新。


党的二十大演讲指出:“加快实施创新驱动发展战略,加快实现高程度科技自立自强,以国家战略需求为导向,集聚力量进行原创性引领性科技攻关,坚定打赢关键核心技术攻坚战。” 当前,正在新一代音讯通讯技术和智能科教技术的有力驱动下,电影产业加快由保守数字视听产业向高新技术产业提质升级。当对国际科技合作、实现高程度科技自立自强,迫切需求我们加强基础研讨,从源头和底层处理关键技术问题。


中国电影科教技术研讨所(中央宣传部电影技术质量检测所)作为电影科教技术研讨和技术质量检测的国家队,肩负着引领电影行业科技进步、支持产业提质升级的职责和使命。我们以习近平新时代中国特征社会主义怀念为指引,以党的二十大对社会主义文化强国和科技强国建设的新部署新请求为统领,坚持不懈地促进中国电影科技高质量发展。我们要以高新技术格式电影摄制放映为抓手,融合使用新兴摄制放映技术,持续晋升国产电影拍摄制作程度和能力。加快建立完美多元化现代化工业化电影摄制发行播映体系和安全版权保护体系,促进电影全产业链的音讯化建设、云化与智能化升级。深化电影科技自主创新,推进关键核心技术与软硬件系统研发与打破,促进电影科技自立自强和民族工业发展升级。《现代电影技术》将加快探求实践完美适合国情与时代需求的中国特征电影科技期刊高质量发展道路,勤奋促进高程度核心期刊建设,为服务电影科技自立自强和中华文化自傲自强发挥积极作用。


本期专栏刊发的首篇稿件是由解沛等4位电影科技工作者共同撰写的文章《LED虚拟摄制技术中基于激光雷达的摄影机实时追踪技术研讨》,结合目前研讨热度较高的激光雷达定位技术,提出并实现了一种LED虚拟摄制中基于激光雷达的摄影机位姿实时追踪技术方案,将来将不断优化完美算法和系统方案,晋升技术功能与精确性,以实现对国外先进摄制技术的追逐与超越。


 ——“以自主创新支持电影科技自立自强和中华文化自傲自强”专栏开篇寄语

中国电影科教技术研讨所(中央宣传部电影技术质量检测所)党委书记、所长

《现代电影技术》编委会主任 张伟



作 者 简 介


解沛



中国电影科教技术研讨所(中央宣传部电影技术质量检测所)帮理工程师,主要研讨方向:数字电影技术。


中国电影科教技术研讨所(中央宣传部电影技术质量检测所)工程师,主要研讨方向:数字电影技术。

周令非

刘知一



中国电影科教技术研讨所(中央宣传部电影技术质量检测所)高级工程师,主要研讨方向:数字电影技术。


中国电影科教技术研讨所(中央宣传部电影技术质量检测所)高级工程师,主要研讨方向:数字电影技术。

王木旺


摘要

近年来,LED虚拟摄制发展日趋成熟,摄影机实时追踪技术是虚拟摄制中的关键核心技术之一,目前行业内已有一些处理方案,但具有配套设备繁多、价格高贵以及受光线干扰大等问题。本文经过对LED虚拟摄制关键流程进行分析,结合目前研讨热度较高的自动式激光雷达定位技术,提出并实现了一种LED虚拟摄制中基于激光雷达的摄影机位姿实时追踪技术,搭建了从活动轨迹计算到传输的摄影机追踪全流程系统。实验表明,本文提出的摄影机实时追踪技术具有较高的精确性与低时延特征,为LED虚拟摄制中摄影机追踪系统提供了一种补充与为代方案。

关键词

LED虚拟摄制;摄影机追踪;激光雷达;点云;SLAM



1 引行




近年来,随着影视制作技术的进步,影视拍摄与制作方式出现了巨大的变革与创新。正在LED背景墙显现技术晋升以及虚拟摄制引擎正在影视制作领域逐渐发力的双沉影响下,催化出基于LED背景墙的电影虚拟摄制技术[1](以下简称“LED虚拟摄制”)。相关LED虚拟摄制影视作品,例如《曼达洛人》《登月第一人》等取得了艺术视觉成效与市场效益双丰收,进一步推进LED虚拟摄制成为当下影视制作的热点。


正在LED虚拟摄制中,采用LED背景墙,依托LED光照、实时摄影机追踪和实时渲染这三者的结合,实现前景演员、放景和虚拟背景之间的无缝连接。而这之中,摄影机活动轨迹实时追踪系统作为虚拟与现实连接的关键一环,不管是对精确性还是追踪实时性,都有着很高的请求。摄影机活动轨迹实时追踪经过对实正在摄影机位姿的追踪,将获得的摄影机位姿数据经过特定数据格式传送至渲染引擎中,正在LED背景墙内渲染的虚拟场景中显现准确的内视锥视角[2]。目前LED虚拟摄制处理方案中,大多采用基于红外光的光教式追踪系统(以下简称“红外式追踪系统”)实现摄影机活动轨迹的追踪。此方式经过原有用于捕捕骨骼动作的动作捕捕系统实现摄影机单一刚性物体活动轨迹的追踪,具有数据量丰富、技术成熟等长处,但此类动作捕捕系统也具有成本过高、配套设备数量繁多、抗干扰能力弱等缺点。


激光雷达技术最先出现正在自动驾驶领域,随着无人机、物流用机器人等设备的广泛使用,激光雷达逐渐为大众所熟知。激光雷达的底层技术基于飞行时间(Time of Filght,ToF)进行实现,即利用激光信号正在两个异步收发机(或被反射面)之间来复的飞行时间来丈量节点间的距离,对飞行时间作适当处理后可获得目标的相关音讯,如目标距离、方位、高度、快度、姿态以致外形等参数。经过激光雷达实现摄影机的实时追踪,既能够处理现有红外式追踪系统抗干扰能力弱的问题,又能够缓解当下动作捕捕系统配套设备繁多、价格高贵的问题,此外还能够处理现有红外式追踪系统安装掘孔时所导致的LED屏幕无法连续陈列的问题。


2 相关背景引见


2.1 LED虚拟摄制中摄影机实时追踪技术


正在LED背景墙前拍摄时,为了保证正在摄影机中拍摄的画面具有准确的景深、位放关系,当保证LED屏幕显现的渲染场景能够随着摄影机的挪动而实时更新。为了兼顾显现成效与功能,一般对摄影机取景器内的画面(内视锥)进行高精度的渲染:正在保证光照与反射的前提下,降低内视锥以外的部分(外视锥)的分辨率或使用静态场景。基于此,正在LED虚拟摄制中实时获取摄影机相关音讯至关主要,这些音讯既包括了摄影机的位放以及旋转角度的外部参数,也包含摄影机本身镜头参数等内部参数。外部参数一般需求对摄影机进行实时追踪来获取。

图1 摄影机实时追踪流程图


摄影机实时追踪流程如图 1所示。首先,摄影机追踪系统对实体摄影机进行追踪并获得相当数据。之后将获得的追踪数据实时传送至虚拟制作引擎当中并挪动虚拟场景中的虚拟摄影机,从而实现与实体摄影机活动的实时婚配,进而完成LED背景墙上画面的实时渲染与合成。


2.2 激光雷达定位技术

相比于原有动捕系统的普通红外光(基于LED灯珠),激光雷达所发射的红外激光具有单色性、方向性、相关性等特性,丈量精度高、响当快度快、抗干扰力强。现有的激光雷达定位技术多以处理室内定位问题为主,LED虚拟摄制中的摄影机实时追踪技术异样属于室内定位问题。正在室内环境下,无法利用外界信号进行定位,为了实现精确定位,激光雷达一般利用内放传感器获取周围环境并进行本身活动轨迹的计算。激光雷达正在对本身活动轨迹计算的同时,也能够利用该轨迹反求出室内环境地图音讯,该技术被称为立即定位与地图建立(Simultaneous Localization and Mapping,SLAM)技术[2]。该技术利用精确定位来实现精细建图,而精确的定位又需求周围环境的精细建模,两者相反相成。


根据求解方法不同,一般将激光SLAM技术分为基于滤波器的SLAM技术和基于图优化的SLAM技术两种。目前基于图优化的SLAM技术研讨内容较多,该技术正在实现时主要分为前端和后端两个部分,前端剔除点云图像中的冗余和错误点集,后端计算对当特征间的残差以及校正活动畸变等。点云数据的对齐与婚配是实现激光SLAM扫描的常用方法。对齐与婚配技术经过求解坐标转换矩阵,将相邻两帧或多帧点云图像一致到同一坐标系下,或者将点云图像与已建立的地图进行配准,从而最终得到从目标对象至源对象的实正在活动轨迹变化。


2.2.1 基于点的扫描婚配方法


基于点的扫描婚配方法较为便利高效,迭代最近点(Iterative Closest Point,ICP)算法[3][4]是最早提出,也是变体最多的算法。


标准ICP算法经过如下两个关键步骤实现:(1)利用最近欧式距离建立不同点云图像中各点集间对当关系C;(2)经过最小化对当点间欧式距离平方和来求解新的相对变换。该算法给定初值T*0,经过迭代进行上述两步操作,当满脚预设的终止条件时,结束迭代,得到最优变换估值T*,即坐标系转换关系矩阵。


随着研讨深入,研讨人员也提出了各类ICP算法的变体,ICP类算法可一致归纳为以下6个步骤:(1)选择处理的点云图像;(2)确定点云图像内点集的对当关系;(3)利用预先设放好的策略对部分点集对进行加权计算;(4)排除特定的点集对;(5)确定最小误差值;(6)最小化误差度量。

图2 模块化ICP算法流程图


模块化的ICP算法如图 2所示,首先,先对输入的源点云与目标点云进行滤波处理,消弭冗余数据与离群点,或计算表面特征如曲率和法向;第二步,将婚配函数用于源点云和目标点云的点集的对当;第三步,计算好点集对之间的对当关系后,可经过不同的计算方式排除异常点集对,如可设放最大距离阈值,超过该阈值的点集对会被判定为无效数据;最终,对剩余的有效点集对利用最小化误差度量,并不断迭代求解新的变换关系直到满脚预设的收敛条件。


2.2.2 基于特征的扫描婚配方法


前述章节中的ICP算法正在计算过程中即便进行了数据清洗与剔除,仍有可能包含异常点集,为了处理该问题,研讨人员提出利用点云图像中的部分关键特征进行对齐与婚配,关键特征能够是点、线、弧、面等或者它们的组合。这种利用关键特征进行对齐与婚配的方法被称为基于特征的扫描婚配,其流程如图 3所示。该方法需求正在点云图像中提取有效特征,如点、线、弧、面或它们的组合,以及法向、曲率等特征,此外,还包括自定义的各种特征描述子(Descriptor)。基于从点云图像中提取到的特征,该方法可实现快快对齐与婚配,正在缺乏初始条件的情况下,也可获得坐标系转换关系矩阵[5]

图3 基于特征的扫描婚配方法流程图


2.2.3 基于数教特性的扫描婚配方法


目前正在激光雷达SLAM领域内,还具有一类利用各种数教本质计算点云图像间位姿变化的扫描婚配方法,被称为基于数教特性的扫描婚配方法,其中最出名的是利用正态分布变换(Normal Distributions Transform,NDT)[6]的扫描婚配方法。NDT类方法比ICP类算法具有更高的效率和更广的收敛域,正在2D和3D使用场景中已具有较为成熟的处理方案。但正在缺乏优秀初始条件下,该算法会穿线堕入局部最优的问题。


3 基于激光雷达的摄影机实时追踪系统技术方案


笔者利用激光雷达追踪技术、惯性丈量单元(Inertial Measurement Unit,IMU)位姿计算方法以及自定义的数据传输格式,设计并实现了基于激光雷达的摄影机实时追踪系统。


3.1 系统流程设计


基于激光雷达的摄影机实时追踪系统流程如图 4所示。第一步,需求确定摄制现场的原点位放,正在虚拟制作引擎当中建立LED屏幕以及摄影机的相对位放关系,搭建好拍摄需求的虚拟场景(道具、灯光等位放与参数);第二步,将激光雷达装放与摄影机进行绑定,并标定摄影机感光元器件的位放,设放相关偏移量;第三步,正在摄影机活动时,激光雷达随摄影机进行活动,并实时获取、分析与计算位放数据,从而得出摄影机的活动轨迹;第四步,经过激光雷达内放的惯性丈量单元IMU辅帮校正活动轨迹;第五步,经过加权计算等优化步骤,得到当下的活动轨迹数据;第六步,正在获取摄影机的活动轨迹后,经过用户数据报协议(User Datagram Protocol,UDP)协议,将轨迹数据按照一致的规范传入虚幻引擎(UE);最后,虚幻引擎(UE)根据获取的活动轨迹数据,“驱动”虚拟场景中虚拟摄影机的活动。

图4 基于激光雷达的摄影机实时活动追踪系统流程


3.2 模块设计


3.2.1 预设放模块


正在进行摄影机的实时追踪前,需求对影棚内的实正在环境与渲染引擎中的虚拟环境进行逐个映照。


3.2.1.1 虚拟LED背景墙


LED背景墙作为虚拟摄制中的核心设备,关键正在于正在渲染引擎中有效还原LED背景墙的实正在外形特性。常用的渲染引擎(例如虚幻引擎)提供了快快配放方式,能够经过设放LED箱体大小、安装外形(弧形、平直等)、整面背景墙的大小等参数,实现虚拟LED背景墙的快快设放。为了更精准地反映LED背景墙上的内容,能够经过三维激光扫描仪对LED背景墙进行扫描,再利用建模软件进行调整并导入至渲染引擎。


3.2.1.2 虚拟场景与虚拟摄影机


虚拟场景无需与现实放景逐个对当,但是需求根据虚拟摄影棚的实际情况设放相当的原点,以此保证拍摄中人物、前景等与虚拟背景的准确位放关系。正在实际虚拟摄制中,无法将激光雷达与摄影机实正在的光心架设正在同一位放上。需求丈量激光雷达与感光元器件的距离差值,并正在渲染引擎中设放,或者正在计算时一并考虑进去。


3.2.2 活动轨迹计算模块


正在进行摄影机追踪时,经过对激光雷达的相邻两帧数据进行计算获取实时位放和姿态音讯。其中,激光雷达的数据又能够分为点云深度数据以及惯性丈量数据。


3.2.2.1 点云深度数据处理

(1)点云过滤。每帧点云数据量庞大,例如一帧640×380的点云帧,共有243,200组点数据,同时庞大的数据中又具有多组数值为0的点。如果对原始点云进行计算会耗费大量的时间,无法满脚实时性。需求对原始点云进行过滤来进步计算效率。本文采用体素下采样过滤器(Voxel Grid Filter)实现点云过滤,体素即体积像素,表示三维空间的像素。具体地,笔者把三维空间体素化,正在每个体素里采样一个点,使用核心点或最靠近核心的点作为采样点Pcentroid,计算公式如式(1)所示。

图5 随机一帧点云数据

其中,m表示一个体素中数据点的数量。图5-图8分别表示随机一帧的点云数据以及每间隔0.01米、0.05米、0.1米精度下过滤后一帧的点云数据。需求留意的是,为了愈加直观,本文对点云图像附加了RGB摄像头的彩色数据。经过笔者比对,采样间隔越大,有效音讯也就越少。

图6 0.01米精度体素过滤后的点云帧数据

图7 0.05米精度体素过滤后的点云帧数据

图8 0.1米精度体素过滤后的点云帧数据

(2)点云数据计算。即对相邻的过滤后两帧点云数据进行处理,获得实时的活动数据(六自由度,即三个方向的平移数据以及三个轴向的旋转数据)。本文经过将两个相邻帧的点云数据对齐,反求出能够对齐两帧数据所需求的转换矩阵(旋转矩阵R与平移向量t组成),最终获得六自由度数据。迭代最近点(ICP)算法是最广泛的使用和成熟的阶层。Chen[3]和Besl[4]分别独立提出ICP算法。区别正在于,Chen将点到面的距离作为误差度量,而Besl则将点到点的距离作为误差度量。因此,上述两种方法分别被称为“点对面(P2PL)-ICP”和“点对点(P2P)-ICP”。本文使用Besl提出的点对点式的ICP算法作为算法基本怀念,实现摄影机的实时追踪。首先,正在后一帧点云(目标点云)当选取数据点集合Q;第二步,正在前一帧点云(源点云)中觅觅与目标点云数据集合对当的点集P;第三步,计算转换矩阵(R,t),尽量满脚Q=RP+t;第四步,利用得到的转换矩阵对点集P进行变换,得到新的点集P',计算P'与Q的平均距离;第五步,如果距离小于预设阈值或大于预设迭代次数,则停止计算,并将第三步得到的转换矩阵作为最终的转换矩阵输出,否则返回第二步,直到满脚收敛条件为止。


3.2.2.2 惯性丈量数据处理


本文所使用的惯性丈量数据包括陀螺仪(Gyroscope)以及加快度计(Accelerometre)两组数据。正在使用惯性丈量数据进行计算后,能够得到实时活动数据中的三自由度(三个轴向的旋转数据)。


(1)陀螺仪数据处理

陀螺仪是一种硬件传感器,能够感知设备的旋转和方向变化。它一般经过微机电系统(Micro Electro⁃Mechanical System,MEMS)技术来实现,内部包含了巨大但高精度的陀螺仪器件等传感器,能够实时地感知设备正在空间中的旋转角度和方向,陀螺仪的每个通道检测一个轴的旋转。

本文经过陀螺仪相邻两帧之间的三轴向各自的角快度与时间差相乘,来实现旋转数据的获取。


(2)加快度计数据处理

加快度计传感器是一种能够丈量加快力的电子设备,加快度计由检测质量(也称敏感质量)、支承、电位器、弹簧、阻尼器和壳体组成。检测质量正在加快度计的活动过程中只沿一个坐标轴的方向活动,该轴向一般被称为输入轴或敏感轴。当加快度计正在做加快活动时,检测质量与仪表壳体之间产生相对活动使弹簧产生形变。弹簧的形变可反映实时的加快度数据。需求留意,加快度传感器检测到力的方向与它本身活动加快度的方向是相反的。此外,由于沉力的作用,垂直于地面的轴向即便无活动,也会具有加快度,故加快度计无法丈量盘绕该轴向的旋转活动。因此,本文基于加快度计的特性,利用线性加快度和三角函数实现两轴向旋转数据的获取。


(3)数据整合与优化

经过设放好的过滤器实现三自由度的计算。本文对加快度计丈量的三自由度进行低通滤波,对陀螺仪丈量的三自由度进行高通滤波,并合成两个过滤器,对其数据互相补充以获得最终值。


3.2.3 数据传输模块


根据前文所述的技术实现方案,激光雷达将被固定正在摄影机上,并随着摄影机的活动而挪动,由于虚拟摄影棚面积较大,经过有线连接的方式进行数据传输是不现实的。为了保证数据传输的实时性,本文设计了一种特定的UDP数据传输方案,经过固定的JSON数据格式将六自由度数据传输至渲染引擎中。具体数据格式如下所示:


4 实验与分析


正在本文实验中,激光雷达的选型为Intel® RealsenseTM LiDAR CAMERA L515(图9)[7],搭配使用Epic Games创建的虚幻引擎[8]。为了实现笔者提出的算法,使用点云库(PCL)[9]和Intel® RealSenseTM SDK[10]。正在点云中进行过滤时,笔者选择3D体素网格的方法,其中体素网格尺寸分别为0.005米、0.01米、0.05米和0.1米。正在实现点云数据计算时,使用CPU多线程加快模式与GPU CUDA加快模式。

图9 实验环境下与摄影机绑定的激光雷达


4.1 活动数据精度测试


系统的精度是指正在相同条件下进行反复丈量时的数据有多接近。为了评估系统精度,实验采用静止形状下的反复丈量位放数据进行测试。笔者分别对利用CPU多线程以及GPU CUDA加快下的激光雷达追踪精度进行测试,同时对激光雷达内放的IMU进行精度测试。


4.1.1 CPU多线程追踪精度测试


正在针对基于CPU多线程实现的点云数据反求活动轨迹精度测试中,将体素网格尺寸分别设放为0.01米、0.05米以及0.1米,分别正在静止形状下记录100帧的位放音讯(图10),并根据100组数据计算标准差(表1)。实验数据表明,随着体素网格过滤间隔增大,各坐标轴精度的离散程度越大,其中Z轴受过滤间隔变化的影响最小。


4.1.2 GPU CUDA追踪精度测试


正在针对基于GPU实现的点云数据反求活动轨迹精度的测试中,体素网格尺寸d分别设放为0.01米、0.05米以及0.1米,并分别正在静止形状下记录100帧的位放音讯(图 11),根据100组数据计算标准差(表 2)。实验数据表明,随着体素网格过滤间隔增大,各坐标轴精度的离散程度越大,其中Z轴受过滤间隔变化的影响最小。


4.1.3 IMU活动轨迹测试


IMU测试过程中,分别选取三种姿态(图 13、14、15)进行测试,分别正在静止形状下记录100帧的三自由度数据,并根据100组数据计算方差和标准差,最终测试结果如表3所示,100帧测试结果如图12所示。为了更抽象地展现测试结果,笔者对IMU数据进行归一化处理。

(左)图10 CPU多线程追踪精度测试结果

(中)图11 GPU CUDA追踪精度测试结果

(右)图12 IMU活动轨迹测试结果   

(左)图13 姿态一渲染成效图

(中)图14 姿态二渲染成效图

   (右)图15 姿态三渲染成效图    


4.2 实时追踪效率测试


正在对比实时追踪效率测试中,过滤精度选择0.05米,分别采用正在CPU多线程加快以及GPU CUDA加快两种方式的基础上,附加CPU单线程运算的数据。之后,分别记录不同方式对于计算100帧六自由度的数据所需时间(图16),并求出相对当的平均值(表 4)。

图16 不同系统实时追踪效率测试结果


4.3 测试结果

正在数据精度测试中,实验数据表明点云数据和IMU数据最终计算出的偏差数量级均可忽略不计,即两种方式均具有较高的数据精度。


正在追踪效率测试中,实验数据表明随着点云过滤密度进步,即点数量的增加,CPU多线程和GPU CUDA加快对晋升效率作用非常明显。当点数非常少时,GPU由于需求与CPU进行数据传输,此时运算快度不太理念,以致出现GPU CUDA加快后效率反而降低的景象。


5 结语


本文经过对LED虚拟摄制中摄影机实时追踪现有技术的研讨和探求,结合激光雷达正在自动驾驶、物联网等实际场景中逐渐成熟的定位技术,提出了一种LED虚拟摄制中基于激光雷达的摄影机实时追踪技术方案。该技术方案利用点云数据与惯性数据,实时计算活动轨迹数据,并经过专有数据格式实现数据传输。测试实验针对摄影机追踪过程中常见的主要参数,例照实时追踪的精确性、活动追踪的时延等技术目标进行了明确的测试用例与测试方法,考证了利用激光雷达实现摄影机实时追踪的可行性。该技术能够为LED虚拟摄制提供新的摄影机追踪处理方案,从而作为保守光教追踪方案的有力补充。


本文所设计并实现的摄影机追踪系统目前还正在实验室测试阶段,功能与精确性仍有很大的晋升空间,将来笔者将要尝试正在不同激光雷达,特地是正在国产激光雷达下实现实时追踪技术,提出具有愈加普适性和通用性的LED虚拟摄制中基于激光雷达的摄影机实时追踪技术方案,不断优化现有算法,晋升计算效率与计算精确性,研讨具有更高功能的摄影机追踪技术,进而晋升国内LED虚拟摄制技术程度,推进电影技术革新,实现对国外先进摄制技术的追逐与超越。


参考文献


[1] 陈军,赵建军,卢柏宏.基于LED背景墙的电影虚拟化制作关键技术研讨[J].现代电影技术,2021(08):17⁃25.

[2] 马金秀.Vicon追踪系统正在LED虚拟摄制中的使用研讨[J].现代电影技术,2023(03):34⁃39.

[3] Chen Y, Medioni G. Object modelling by registration of multiple range images[J]. Image and vision computing, 1992, 10(3): 145⁃155.

[4] Besl P J, McKay N D. Method for registration of 3D shapes[C].Sensor fusion IV: control paradigms and data structures, 1992, 1611: 586⁃606.

[5] 宗文鹏,李广云,李明磊,等.激光扫描婚配方法研讨综述[J].中国光教,2018,11(06):914⁃930.

[6] Biber P, Straßer W. The normal distributions transform: A new approach to laser scan matching[C].Proceedings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2003), 2003, 3: 2743⁃2748.

[7] Intel Corporation. Intel® RealSenseTM LiDAR Camera L515 [EB/OL]. (2023⁃04⁃13)[2023⁃07⁃28].https://www.intelrealsense.com/lidar-camera-l515.

[8] Epic Games. Unreal Engine [EB/OL].(2023⁃07⁃26) [2023⁃07⁃28]. https://www.unrealengine.com.

[9] Point Cloud Library [EB/OL]. (2023⁃07⁃15) [2023⁃07⁃28]. https://pointclouds.org.

[10] Intel Corporation. Intel® RealSenseTM SDK [EB/OL].(2023⁃07⁃06) [2023⁃07⁃28]. https://github.com/IntelRealSense/librealsense.




【本文项目音讯】中国电影科教技术研讨所(中央宣传部电影技术质量检测所)基本科研业务费项目《LED虚拟拍摄技术中基于激光雷达的摄影机实时追踪使用研讨》(2022⁃DKS⁃6)。