这些带颜色的视频,彻底把我看哭了
厉害了...
近几年,AI 技术的应用可以说是越来越广泛。
前段时间疫情持续,国内就有科研人员鼓捣着,用 AI 建立机器学习模型,对疫情可能扩散的范围和趋势进行预警。
甚至,还有科研人员通过训练 AI 深度学习,检测冠状病毒感染情况。
更进一步的应用,还有预测严重新冠肺炎病例患者的生存机率、抗病毒药物和疫苗研发等。然而这几天,AI 因为它的另一个应用场景,再次被推上了热搜。
辣就是——视频修复技术。
在 B 站上,有一位名为“大谷的游戏创作小屋”的用户,上传了一段用 AI 技术修复过的视频。
原视频由加拿大摄影师拍摄,内容是时值 1920 年的北京。
由于当时的拍摄技术限制,虽然为大家呈现了 100 年前的生活场景,但是在色彩和画面细节上,没有办法做到最真实地还原。
黑白的画面,看起来是不是缺了点什么?颜色光影没办法完整表达细节,这就让这些视频片段缺少一些温度。
同样的,也就很难让我们通过这些画面产生共鸣。
而通过 AI 技术的修复,这段视频就变得非常生动。
即便修复的成片,没有达到现代摄影技术的输出效果。
不过通过 AI 上色,这些片段不再冷冰冰,而是增加了点“人气”。除此之外,画面也明显比修复之前更加稳定。
噪点方面,也比之前的原片更少。通过这个 AI 修复过后的视频,民国时期人们的真实生活,被清楚地呈现在大家面前。
看看这一百年前的车水马龙,说是上世纪七八十年代拍摄的电影画面,相信很多机友也并不会太意外。
就连那个时候的吃瓜群众,也和现在路边看到新奇玩意的大叔大妈一样。
还有路边热闹的集市,生活气息简直扑面而来。还有一些大家没见过的传统礼节,通过这个修复视频,更加清楚地呈现在大家面前。
这甚至让机哥产生了,一种穿越时空的微妙感觉。
不得不说,这个 AI 修复过的视频,的确是让次元壁破裂了。
由于全世界第一部彩色电影,诞生于 1935 年。
So,更早之前的彩色影片,可能对大家来说,有一种说不上来的违和感。
但是嚯,同样是修复过的视频,接下来的这一个片段,可能看起来就合理得多。
瞧瞧这马车,各位机友们可以猜猜看,这是那个年代拍摄的视频。
还有这些现在看起来,略显复古的行人装束和建筑风格。
虽然看起来也是有点年头,但比起前面咱们国内 100 年前的视频,好像又晚了不少。
但是,机哥又要说但是喽。
大家看到的这个 AI 修复视频,来自 1906 年的洛杉矶。
比起拍摄于 1920 年的北京片段,足足还要早上十几年。
这就难怪有不少网友表示,看完感慨良多啊。这个视频由外国作者 Denis Shiryaev 上传,他修复过最早的视频片段,来自 1888 年的英国。
那个时候,清朝还未灭亡,光绪帝还在重修圆明园。
而英国…已经开始殖民扩张,在生活形式上已经和趋于近现代化。这个视频由当代电影之父,路易斯·普林斯所拍摄。
虽然这个视频在修复之后,并没有完全达到彩色的效果。
但是因为原本拍摄的效果非常模糊,所以 AI 能修复到这个程度,已经非常成功。除此之外,Denis Shiryaev 还修复过一段 1890 年的巴黎街头视频。
大桥旁人头涌动。
一百多年前的方尖碑。
还有当时类似地铁的交通工具,都生动地呈现在我们面前。机哥觉着,看到这些当时的彩色视频,感觉还是非常奇妙。
AI 修复技术大火,其实从去年“修复旧照片”的各种应用就已经开始。
不少网友尝试,帮上世纪八九十年代的明星,修复低像素的照片。更有意义的事,能让自己家的老照片焕然一新。
将各种早已泛黄的老照片,重新恢复它最初的样子,就像时间仿佛没有流逝过一样。
这样的技术,还是相当有意义的。看了这么多,大家肯定也很好奇,到底 AI 是怎么实现修复旧视频和旧照片的呢?
这还是要得益于 GitHub 修复技术的开源。
对于低像素的片段,图像修复一般使用“扩散”或“示例”的方法,重构缺失部分的一个像素点,就像大家熟悉的“脑补”。
通过 AI 的不断学习,神经网络可以实现精准的分类,完成准确的像素补充。
目前,以 ESRGAN 为代表的增强型超分辨率方法,甚至能够生成真实的纹理感。
同时在上色方面,以 DeOldify 为例的项目,AI 通过长期的学习和纠正,能够区分画面当中的物体。
并且通过原本黑白片段进行分析,对场景当中的不同物体进行色彩填补。当然,通过这些超分辨率和视频上色的方法,能够让画面效果更加接近现在的水平。
但是嚯,这只是 AI 大量学习之后,尽可能复原出来的效果,可能和当时的真实情况有一丢丢区别。
不过,这也不影响我们窥探当时人们的生活方式。
要是摄影摄像技术再早一点被发明,说不定我们就能看到,清朝早期甚至更早的前人影像。
不知道这神奇的 AI 技术,以后还能给我们带来什么样的惊喜。
拭目以待吧。
(文中图片来源自网络)
次元壁破裂啊
↘↘↘
关注 好机友
微信扫一扫关注公众号