本文刊发于《现代电影技术》2023年第8期
专家点评
将来,人工智能正在影像建复和内容生成领域将发挥主要作用,具有明显的使用价值。正在影像建复领域,人工智能能够经过进建图像的特征和上下文音讯,挖补缺失像素和恢复受损细节,实现对受损图像的自动建复,进而完成智能建复和沉建我们的视觉影像回忆。正在内容生成领域,人工智能的能力以致更为惊人,它能够生成逼真的图像内容,包括超分辨率沉建、图像合成和风格化等。这种能力不只正在电影、逛戏和设计等领域创造出色的视觉成效,同时正在艺术创作中发挥了聪慧帮手角色,为创作者提供灵感和创作的起点。人工智能使用于影像领域将晋升图像质量、丰富创意,为我们带来史无前例的机逢和打破,这不只推进了电影技术的发展和进步,也为我们的视觉影像艺术开辟了新的可能性。《基于深度进建的电影数字建复系统研讨》一文首先引见了电影建复的必要性和当前面临的应战,其次精细阐述了基于深度进建的电影数字建复系统研讨,包括基于留意力循环时间聚合网络的污损去除算法和基于Transformer的大面积缺失补全算法。该研讨对于相关研讨和技术人员具有必定的参考价值。
——沈浩
教授、博士生导师
中国传媒大教媒体融合与传播国家沉点实验室大数据研讨核心首席科教家
作 者 简 介
于冰
山西大教山西电影教院讲师,硕士生导师,主要研讨方向:图形图像处理、数字影视技术等。
山西大教山西电影教院硕士研讨生正在读,主要研讨方向:电影建复技术。
陈佳辉
范正辉
山西大教山西电影教院硕士研讨生正在读,主要研讨方向:电影建复技术、深度进建。
山西大教山西电影教院硕士研讨生正在读,主要研讨方向:电影建复技术、深度进建。
相雪
黄东晋
山西大教山西电影教院副教授,博士生导师,主要研讨方向:人工智能、影视技术、计算机图形教等
山西大教山西电影教院教授,博士生导师,主要研讨方向:数字影视技术、计算机图形教等。
丁友东
摘要
电影智能化升级是电影产业发展的必然趋势,为探求人工智能技术正在影像保护领域中的使用,本文基于生成式对抗网络(GAN)、Transformer等深度进建模型,研讨去污损、缺失补全等电影建复算法,经过搭建智能化建复平台,实现电影序列去闪烁、去抖动、去噪、去污损、缺失补全、超分辨率加强、帧率晋升、黑白上色等功能。实验表明,本文研发的系统能够有效实现电影的智能建复。
关键词
人工智能;深度进建;电影建复;电影加强
图1 基于留意力循环时间聚合网络的电影污损建复框架
参考文献
(向下滑动阅读)
[1] 中影股份. 中影基地电影核心科技新打破——“中影·神念”人工智能图像处理系统[EB/OL]. (2018⁃12⁃17)[2023⁃06⁃30]. https://www.chinafilm.com/zydt/7077.jhtml.
[2] 爱奇艺. 高分典范老片还能焕发沉生?爱奇艺ZoomAI建复让用户“看清”上百部典范[EB/OL]. (2021⁃07⁃01)[2023⁃06⁃30]. https://www.iqiyi.com/kszt_phone/news20210701.html.
[3] Kim D, Woo S, Lee J Y, et al. Recurrent temporal aggregation framework for deep video inpainting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(5): 1038⁃1052.
[4] Iizuka S , Simo-Serra E . DeepRemaster: temporal source-reference attention networks for comprehensive video enhancement[J]. ACM Transactions on Graphics, 2019, 38(6): Article No 196.
[5] Zeng Y, Fu J, Chao H. Learning joint spatial⁃temporal transformations for video inpainting[C]//European Conference on Computer Vision. Springer, Cham, 2020: 528⁃543.
[6] Liu R, Deng H, Huang Y, et al. Decoupled spatial⁃temporal transformer for video inpainting[EB/OL].(2021⁃04⁃14)[2023⁃06⁃30]. https://arxiv.org/abs/2104.06637v1
[7] Liu R, Deng H, Huang Y, et al. Fuseformer: Fusing fine⁃grained information in transformers for video inpainting[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 14040⁃14049.
[8] Lai W, Huang J, Wang O, et al. Learning blind video temporal consistency[C]//European Conference on Computer Vision, 2018: 179⁃195.
[9] Iizuka S, Simo⁃Serra E. DeepRemaster: temporal source⁃reference attention networks for comprehensive video enhancement[J]. ACM Transactions on Graphics, 2019, 38(6).
[10] Wang T C, Liu M Y, Zhu J Y, et al. High⁃resolution image synthesis and semantic manipulation with conditional GANs[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018: 8798⁃8807.
[11] Kingma D P, Ba J. Adam: a method for stochastic optimization[EB/OL].(2017⁃01⁃30) [2023⁃06⁃30].https://arxiv.org/abs/1412.6980.
[12] Chen J, Tan X, Shan C, et al. VESR⁃Net: the winning solution to youku video enhancement and super⁃resolution challenge[EB/OL]. (2020⁃03⁃04) [2023⁃06⁃30].https://arxiv.org/abs/2003.02115.
[13] Liu G L, Reda F A, Shih K J, et al. Image inpainting for irregular holes using partial convolutions[C]//Proceedings of European Conference on Computer Vision,2018: 89⁃105.
[14] Chen D D, Liao J, Yuan L, et al. Coherent online video style transfer[C]//Proceedings of the IEEE International Conference on Computer Vision. 2017: 1114⁃112.
[15] Liu R, Deng H, Huang Y, et al. Decoupled spatial⁃temporal transformer for video inpainting[EB/OL].(2021⁃04⁃14)[2023⁃06⁃30]. https://arxiv.org/abs/2104.06637.
[16] Chang Y L, Liu Z Y, Lee K Y, et al. Free⁃form video inpainting with 3d gated convolution and temporal patchgan[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2019: 9066⁃9075.
[17] Xu N, Yang L, Fan Y, et al. Youtube⁃vos: A large⁃scale video object segmentation benchmark[EB/OL]. (2018⁃09⁃06)[2023⁃06⁃30]. https://arxiv.org/abs/1809.03327.
[18] Perazzi F, Pont⁃Tuset J, McWilliams B, et al. A benchmark dataset and evaluation methodology for video object segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016: 724⁃732.
[19] 陈钰,丁友东,于冰,等.基于像素流的视频彩色化[J].山西大教教报(自然科教版),2021,27(01):18⁃27.
[20] Lei C, Ren X, Zhang Z, et al. Blind Video Deflickering by Neural Filtering with a Flawed Atlas[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2023: 10439⁃10448.
[21] Xu Y, Zhang J, Maybank S J, et al. Dut: Learning video stabilization by simply watching unstable videos[J]. IEEE Transactions on Image Processing, 2022, 31: 4306⁃4320.
[22] Claus M, Van Gemert J. Videnn: Deep blind video denoising[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops,2019: 1⁃10.
[23] Huang Z W, Zhang T Y, Heng W, et al. Real⁃Time Intermediate Flow Estimation for Video Frame Interpolation[EB/OL]. (2021⁃11⁃17)[2023⁃06⁃30]. https://arxiv.org/pdf/2011.06294.pdf.
[24] Chan K C K, Wang X, Yu K, et al. Basicvsr: The search for essential components in video super⁃resolution and beyond[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition,2021: 4947⁃4956.
【本文项目音讯】山西市人才发展资金项目(2021016)。