用人眼和相机或者显示器来对比,多少是有些不合适的。像素是构成影像的最小单位,在相机上指的是底片上单独的感光颗粒或者感光器件上的单个感光单元,在显示器上则指能够显示的最小的染色点。对于相机或者显示器来说,像素是固定大小的,而且平铺在一个平面上,每一个角落里的任何一个像素都没有太大区别。
而人眼并非如此。人眼内的感光细胞分布在球面上,视野中心区域对细节的辨认能力和视野边缘相差很大,再加上在千百万年的进化过程中,人眼和大脑的协同工作让大脑早就适应了对视觉做出修正和补偿,更让人眼有多少像素这一问题变得扑朔迷离。我们只能估算一下,看看如果人眼是一部相机,能够产生多少像素的图片。这就涉及到人眼能够分辨的最小单位的问题。
对于这一问题,早在1894年,德国医生阿瑟?康尼锡在一本著作里就提出了比较精确的答案。人的视觉有几个有趣的特点:人眼对于不同强度光照下分辨率会变低,当目标运动时,分辨率也会变低,甚至当视觉目标颜色不同时,分辨率也会有所不同。因此康尼锡医生采用了一种标准化的实验方式:测试在光强大于每平方厘米1/10π烛光的情况下——换言之,在一个标准化的照明状况下,人能够分辨的、距离最小的平行线段中,两根线段与瞳孔正中所形成的夹角。测量结果是0.59角分。这也就是说,人眼的视网膜能够识别的最小像素应该是0.3角分,因为两根线段如果要被人分辨出来,最少需要两个像素。
这样一来,根据科学作家、研究者和摄影师罗杰?克拉克博士的推断,人的视野中心(假设是90度×90度的区域)所拥有的像素数就达到了3.24亿;如果认为人的中心视野是120度的话,像素数将会是5.76亿。如果按照他的算法推广一下,正常人的视野大约是180度左右,这就意味着人眼拥有超过12.96亿的像素数。
然而基于180度视野来进行计算是有问题的。就像我们刚才提到的,视野中心和视野边缘的分辨率有很大不同。根据迈克尔?F?迪林在一本专著中的描述,人眼分辨率越往外围越低,最外围似乎只有12度。这样来看,人眼的像素数应该远小于10亿。但是我们没有办法获得更精确的数值,因为大脑根本不给我们机会让我们看到真正的世界——在我们反应过来之前,大脑就已经把我们看到的东西抹去细节、拼接画面,把我们在视野中心看到的东西加以累加——所以我们只能说,人眼的像素数应该是在5亿到10亿之间。
(答案整理自蝌蚪五线谱)
0 篇文章
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!