这样这两张的处理都是用人工智能降噪软件,和人工智能放大软件进行了处理,同样的放大倍数。唯一的不同是一张是原片未裁剪,一张是裁剪后的小片。我们现在把它们放大到400%比较一下:
0018.jpg

比较红框里的细节可以明显地看出,即使我们只保留同样的构图部分,右边全片放大后图像与左边裁剪后放大的图像相比,其细节纹理清晰度要高。

   这个道理其实很容易理解:数码图像不无论用哪个软件放大,在放大以后像素数量会以几何级数增加。比如一个像素的数量是1,放大成4倍就是4x4=16像素。这多出来的15个像素就是通过插值计算后由放大软件“制造”出的新像素,新的像素应该放在哪里,明亮程度,什么颜色组合都是由软件决定的。人工智能的插值算法是对原图数据进行侦测、采样,通过与数以亿记图像数据库的纹理细节规律进行比较、识别而推算出来的,来计算推定放大时需要生成的新像素的亮度、颜色与位置。由此可见,如果原图的画幅越大(尤其是在同片、同样清晰度的情况下),人工智能软件的采样数据越多,其侦测、识别的准确度就越高。

     “杰夫大画幅原则3”
——多次、小倍数放大好过“一步到位”

      这张片子的原片里我们需要保存的画面宽度只有1941像素,只能打印6.5英寸。我们要放大到25英寸以上就需要放大4倍。我们现在比较一下用两倍两次放大,和用四倍一次放大的画质哪一个更好。
我们把已经放大两倍的“Topaz降噪放大”这张片子在Topaz Gigapexl AI 软件里打开再做一次两倍放大。再把没放大之前的“Topaz 降噪”这张片子在Topaz Gigapexl AI 软件里打开做一次四倍放大,然后我们在100%比例下做一个比较:
0019.jpg

  比较黄框里的细节我们可看得很明显:两倍放大两次的细节清晰度要明显优于四倍放大一次到位。
这也是比较容易理解的:原片我们需要保留的像素量是1941X1092=2115690即二百十一万像素。放大两倍像素量达到了3882X2184=8478288即八百四十七万像素,而放大4倍像素量是7764X4368=33913152即三千三百九十万像素。人工智能的算法的准确性很大一部分取决于采样量。一步到位的方法,原片二百十一万像素与放大四倍后的图像(三千三百九十万像素)的像素差是三千一百万像素,这些多余的像素都是软件推算生成的。这有些像做饭,俗话说“巧妇难为无米之炊”,人工智能放大的插值补偿修补的算法,其基础是采样侦测,所以材料越多,采样数据越丰富,插值形成的像素越准确,放大倍数越低,图像前后像素差值越小,就越精细,画质越好。
   我们最后比较一下不同的软件插值放大的效果:

0020.jpg

为公平起见,我用了“Topaz 裁剪”的小图,直接用Topaz Gigapixel AI一次放大到25英寸。与其他两个放大软件并排到100%审视:左边Photoshop模糊程度最大,是因为它的放大需要生成的的插值像素是采用“近似模拟”的方法形成的,本来有边缘不清晰的像素会越来越模糊。中间的On1 Resize则在“近似模拟”的基础上增加了像素边缘的对比度与锐度,但是这样会产生额外噪点,为控制噪点就必须牺牲细微纹理进行“抹平”,所以像素纹理脆硬,但是细节不够。我们看一下图片顶端的羽毛细节,右边的Topaz 放大处理之后的硬羽之间的细毛仍然很清晰,而On1 Resize则从硬羽就开始“面”,细毛根本谈不上。这是因为人工智能插值像素生成的算法逻辑,是建立在对网络上数以亿记,甚至百亿记的图片纹理细节规律分析基础上的,是智慧型的像素模拟生成,其准确度是近似模拟无法相比的。从这一点来说,未来的后期处理软件中人工智能技术的深入应用,会使得像素生成越来越精确,放大时的插值像素生成的画质越来越优化。这样放大四倍处理的画面在打印预览(软打)的1:1图样上显示的细节是惊人的,这个效果打印的最终尺寸是25.88英寸,即65 厘米宽。
0021.jpg