众所周知,现在数码家电领域有很大一部分都是影像领域,就是用来满足人们眼睛的需求的,比如说相机,手机摄像头,或者液晶电视。

而传统上,很多科技巨头会通过物理端的方法来提升画质,比如说相机领域,为了获得更大的进光量,更小的边缘畸变,厂商开发了更巨大的镜头。比如尼康这款Z 58mm f/0.95 S Noct,售价几万元,同时也十分庞大。

而在电视领域,人们则想出了很多方法,比如说OLED屏幕,让每个像素自发光,但成本太高。于是又在屏幕背面将几十个甚至上百个LED背光源独立分区,获得更好的光控。

而比如说雷鸟的Mini LED电视有3840个LED灯珠,16个一区,就是240个分区,这样可以达到更细腻的背光光控。当然,获得更好画质的同时,代价也是有的,比如电视的耗电量激增,成本更高等。

那么,有没有别的方法来提升画质呢?答案是有的,因为画质,说白了就是照片的色彩、影调、清晰度,就是视频显示的清晰度、动态范围、帧率、对比度,于是,现在更流行的做法,是从芯片入手,在画面呈现给人们之前做处理优化,最终呈现给人们更好的照片。

所以,就像上图一样,CMOS根据室内、手持等客观条件,只能拍摄出较为暗淡的照片,但最终呈现在用户面前的,却是细节更丰富的,更明亮的照片,而荣耀V40则是通过RAW域优化,得出这样的结果。

打个比方,一个孩子考了60分,错了很多题,然后其在毫秒时间内重新答了一次,将题都答对了,最后给你一张90分的卷子,就是如此。

不止荣耀,苹果也是如此,在照片呈现给用户前,赶紧优化,要知道A14处理器可是具有118亿晶体管的超级强大CPU,处理一张照片不在话下。

可以看到,借助处理器的强大,苹果可以多次包围曝光,把阴影部分变亮,高光部分变暗,并合成一张图像。其还会对每个像素进行分析,调整锐度、色彩,亮部,暗部,丰富细节。同时这些都在电光石火之间做完,丝毫不留痕迹。

其智能HDR3更夸张,会通过机器学习,判断拍摄的物体,比如增加地面龟裂的深度,但保持天空的纯净度,提升艺术效果。所以有时候会觉得iPhone的照片好像包含元素更多,可见确实有刀工斧凿的过程。

而华为也有类似的技术,XD Fusion图像引擎,比如拍摄一张人像,会通过不同摄像头的信息,识别出人的轮廓,人的肤色,人脸,然后进行分层优化,最后得出一张靓丽的人像照片。

这样的结果,就是几颗小手机镜头,不高的成本,加上强大的7nm甚至5nm处理器,打造出动人的照片,让相机厂商没有脾气。为什么全球相机销售连年下滑,跟手机拍照的越来越强大有很大关系,而手机的拍照不单单靠镜头,CMOS,更靠后期的优化。

电视领域也是如此,比如鸿鹄818,虽然芯片制程不高,但却能通过更精准的算法来提升电视影响的质量,从而提升画质。

索尼的XR认知芯片则更强,分析每一幅画面,然后进行针对性的优化,让视频仿佛被重新制作了一次,提升到一个新的画质。

相比于华为鸿鹄818可以将地震率加强到120帧,低画质增强到4K,XR认知芯片更强,比如Z9J的XR认知芯片就可以将2K、4K甚至更低分辨率的内容进行XR 8K倍线。当然,这是因为人家是8K电视,现在能增益到4K画质,其实就很不错了。

可以预见,估计鸿鹄818的下一代,就可以AI识别视频中的人像,并进行区域优化了。那么既然芯片都搞定了,或者能提供较好的解决方案,不是超精细独立背光也就没什么了,电视变得化繁为简起来。

可以预见,随着芯片技术的发展,这一用芯片后期加工图像,从而提升画质的凑合方法将会越来越流行,毕竟人们只要所见的效果好就行了,并不关心原始素材的质量如何,而由此影像产业也将迎来一个场新的提升。

从这个角度看,华为、苹果、索尼可以说是殊途同归,不管你看到的是多少MB,多少GB的影音文件,AI芯片都给你优化一次,化普通为神奇,就是这样。

推荐内容