fengniao.com. All rights reserved . 北京蜂鸟映像电子商务有限公司(蜂鸟网 FENGNIAO.COM)版权所有
京ICP证 150110号 京ICP备 15000193号-2
违法和未成年人不良信息举报电话: 13001052615
举报邮箱: fengniao@fengniao.com
序
首先声明,写这篇文章的用意不是要鼓吹全幅或APS系统,也不代表,针对任何品牌,目的是帮助摄影初级用户明白一些基本知识,不对的地方欢迎老鸟批评指正。文字和图片都是本人原创编辑发布于蜂鸟论坛,未经许可不得转载。
1.什么是全画幅?
最被认可得回答是:
传统相机的感光材料是胶片,数码相机的感光材料是感光元件(CCD或COMS),感光器面积的大小与35mm胶片面积相比,如果接近或相等,就是全幅规格,采用该规格尺寸的单反相机就是全幅单反相机。 举个例子:传统135相机底片尺寸为36×24mm,佳能EOS-5D数码单反机采用的CMOS尺寸为35.8×23.9mm,接近36×24mm的尺寸。所以,佳能EOS-5D就属于全幅数码单反机。全幅单反机的感光器面积由于与35mm胶片相等或相近,因此所配置的各种镜头的焦距也和传统相机一样。
基于现有的制造技术和工艺水平,大尺寸全幅感光元件制造困难,价格昂贵,因此目前大多数数码相机采用的感光元件都不是全幅的,其尺寸介于135相机底片和家用数码感光元件之间,最常见的就是“APS-C”规格。
2.什么是APS-C?
1996年由FujiFilm、Kodak、Canon、Minolta、Nikon五大公司联合开发的APS系统开始面世。APS是“Advance Photo System”的缩写,在国内译为:“APS先进摄影系统”。 APS开发商在原135规格的基础上进行了彻底改进,包括相机、感光材料、冲印设备以及相关的配套产品上都全面创新,大幅度缩小了胶片尺寸,使用了新的智能暗盒设计,融入了当代的数字技术,成为了能记录光学信息、数码信息的智能型胶卷。 APS定位于业余消费市场。和135系统的画幅格式完全不同,共设计了三种底片画幅(H、C、P):
H型是满画幅(30.3×16.6mm),长宽比为16:9;
C型是在满画幅的左右两头各挡去一端,长宽比为3:2(24.9×16.6mm),于135底片同比例;
P型是满幅的上下两边各挡去一条,使画面长宽比例为3:1(30.3×10.1mm),被称为全景模式。
APS问世以来前后有50多家生产厂商加盟。各品牌的APS相机在性能上大同小异。 外型上看可分为两大类:一类是胶片生产商生产的相机,都为袖珍型。这类APS机体积小巧、功能齐全、操作简单、便于携带。例如 Nikon D40。
另一类为相机生产商生产的相机,Minolta(VECTISS)、Canon、Nikon都有开发。最大的特点是除特别为APS设计的Lens外,可以使用原135系统的所有镜头。如Canon的EOS1X,Nikon的PRONEA 600I等等。
在数码单反相机中,大多是采用了小于135规格的CCD或CMOS感光器件,除了奥林帕斯的4/3系统和佳能全画幅以外,几乎全部都是和APS-C型胶片近似一样的大小,所以人们就把这种大小的感光器件称之为“APS-C规格”。
(未完,待续,大约还要5个版面,请不要插队)
从上面的对比图,大家都应该对全画幅和APS的尺寸全有了直观的映象,那么,老鸟们说的 1.3, 1.5, 1.6 等等的转换系数到底是什么意思,怎么得来得呢?
举个最简单的例子:你有一个CANON 40D APS 的相机和一个 EF 28-135MM 的镜头,为什么等同于 44.8mm-216mm? 那APS的用户不是能“照的更远?”,“少花钱多办事?”
可以肯定的告诉你,不是那么回事,厂家和媒体的误导!
说到焦距,不得不提一下成像原理,老鸟飘过就算了:
凹面镜成像规律是:物距小于1倍焦距时,成正立放大的虚像,像物位于镜异侧;物距小于2倍焦距而大于一倍焦距时,成倒立放大实像,像物位于镜同侧;物距大于2倍焦距时,成倒立缩小的实像,像物位于镜同侧。
⑴把点燃的蜡烛放在凹面镜前2倍焦距以外,拿一块毛玻璃做光屏,在凹面镜前移动,直到得到清晰的像。然后再向上(或下)移动光屏,让像的一部分成在光屏上另一部分不在光屏上。用眼睛观察结果发现两部分像吻合的很好。
⑵分别把点燃的蜡烛和不发光物(例如钢笔)放在凹面镜前2倍焦距以外同一位置,面对凹面镜直接观察两种情况下所成的像,这时两个物体的成像性质应该完全相同。再用光屏可找到点燃的蜡烛所成实像,从而说明钢笔所成的也是实像。
⑶借用凸透镜的两个面作为凸面镜和凹面镜同时做反射成像实验,进而比较虚、实像位置上的差异。具体做法是:在凸透镜(选口径大些的较好)前点燃一支蜡烛,控制物距,在蜡烛的同一侧对镜观察可看到两个像,一个正立缩小,一个倒立缩小。视线稍偏离主光轴,即可清楚地分辨出倒立缩小的像在物同侧,就是说在镜前方,而不是在镜后方,由凸透镜后侧的凹面反射会聚而成,是实像;正立缩小的像在镜后方,是由凸透镜前侧的凸面反射而成的,是虚像。
凸透镜成像也有类似的问题。当面对凸透镜直接观察实像时,也会产生折射会聚所成的实像似与物在透镜同侧的感觉,误以为是虚像。仿效前面的方法,以发光物为观察对象,对镜直接观察时使视线稍偏离主光轴方向,可以较正确地看出像的大概位置。
物体上的光线透过透镜会聚成像后不是停下不传了(没有光屏的情况下),而是继续向前传,射入眼中,我们就觉得光是从(实)像的位置发出的,这样就和看实际物体一样了(有光从物体射入眼睛就能看到物体)。
总结
实像是实际光线的会聚点,当有光屏时,会聚在像点的光线改变方向,发生反射进入我们的眼睛,我们逆着进入眼睛的光线看过去,就看到了像。我们把光屏拿去之后,光线会继续向前传播,如果我们的眼睛正好在光线传播范围之内,并且正对光线,那么我们逆着进入眼睛的光线就能看到像。像就是人们用眼睛看上去是一个物体,但是实际上又不是一个真实的物体,而是由于光线会聚使眼睛产生这种感觉的东西,就是说光线是从我们眼睛看到的那个“物体”的位置发出来的。有没有实像跟“有没有光屏接收”没有关系。有光屏,光线汇聚在光屏上;没光屏,光线汇聚在空气中(然后继续向前传播)。放个光屏在那里,只是利用光屏的漫反射来帮助旁边的人也能看得见;如果不放光屏,你就只能站在像的后面才看得见.
虚像,就是说光线不是从我们眼睛看到的那个“物体”的位置发出来的,而是从“半路”上发出来的,因为人的眼睛总是逆着进入眼睛的光线去感知物体的存在,所以才感觉到那个地方有一个物体(实际上是虚像)。
镜头是由几组凹,凸,非球面透镜所组成,但最后成的一定是实像,被CCD/CMOS感光器件捕捉后转化为电信号。
下面我们在来看张图:
为保证排序,方便观看,各位看官请不要插队!
我正在制作图片中。。还需要3个版面。
请不要插队!
谢谢!
继续上面的话题,h1是APS-C CMOS 感应器的高度为14.8mm , h2是全画幅感应器的高度为24mm, 那么根据相似三角形的原理:
可以得出:h2/h1 = f2/f1
-->f2 = h2/h1 * f1 = 24mm/14.8mm * 28mm = 1.6216 * 28mm = 45mm.
上面得出的1.6216 就是 1.6X 的来源。如果拿着全画幅机去打鸟,只要裁下周边的,也可以变成APS画幅那样的“等效焦距”,这里说“等效焦距”不是说图片质量就完全一样,因为还涉及到单位像素密度的问题,APS-C的超过全画幅也不是不可能。有的老鸟又说了“高像素才是王道”。。嘿嘿,各位看官自己分析吧,本人APS-C和全画幅机都有, 也不是高像素论者。
大家可以自己算算 NIKON 的 1.5X 和佳能 1D 的 1.3X 实际比例是多少。
未完,待续。
为什么APS-C上暗角现象比较弱?
其中我们考虑在同一个镜头下,譬如之前说的28-135mm镜头,它投影的像场,也就是这个镜头所有成像范围,就是最外面这个黄圈,全幅机身的取景范围是中央的黑色范围,可以看做是从这个像场中“挖”出来的一部分。而APS机身的取景范围更小,只有中间这个粉红色的部分,可以看做是从黑色的中央“挖”出来的。这就是倍率转换的真相,所谓的转换,其实就是转换到一个更小的取景范围,来使得画面“看起来变大了”。这和上面所说的数码变焦的原理其实是一样的,都是在大的画面上抠下一块小的,只不过实现的手段不同——数码变焦是通过数字处理来扩大,而APS是本来就只有那么大, 暗角部分都没有被CMOS转化成电信号。
黑色部分也就是APS-C 损失的部分。
看起来变大是人眼睛和脑系统的一种习惯性错觉:俗话说的“近大远小” 相同的两个大小的物体人眼是有误差的,大脑也会进行经验行补偿。
未完,待续。
请不要插队!
谢谢!
为保证排序,方便观看,各位看官请不要插队!
我正在制作图片中。。还需要3个版面。
请不要插队!
谢谢!
继续上面的话题,h1是APS-C CMOS 感应器的高度为14.8mm , h2是全画幅感应器的高度为24mm, 那么根据相似三角形的原理:
可以得出:h2/h1 = f2/f1
-->f2 = h2/h1 * f1 = 24mm/14.8mm * 28mm = 1.6216 * 28mm = 45mm.
上面得出的1.6216 就是 1.6X 的来源。如果拿着全画幅机去打鸟,只要裁下周边的,也可以变成APS画幅那样的“等效焦距”,这里说“等效焦距”不是说图片质量就完全一样,因为还涉及到单位像素密度的问题,APS-C的超过全画幅也不是不可能。有的老鸟又说了“高像素才是王道”。。嘿嘿,各位看官自己分析吧,本人APS-C和全画幅机都有, 也不是高像素论者。
大家可以自己算算 NIKON 的 1.5X 和佳能 1D 的 1.3X 实际比例是多少。
未完,待续。
画质比较:
本人的观点是:全画幅和APS-C 是两个不同的平台,画质没有可比性,就算比较也是不科学不严谨的。两者的市场定位不同。
但是我们要知道的几个重要的理论限制是:
·光线波长限制,约380~780n像素,像素尺寸至少是波长的2倍以上
·制造和材料限制,像素越小,工艺误差和半导体材料的缺陷/不均匀性对像素影响造成的像素差异越大,像素质量会降低
·光线的衍射效应,像素越小,衍射效应影响越大,所以最佳光圈倾向于较大光圈,而同时高密度要求的镜头的高分辨率又在大光圈时下降,这是难以解决的矛盾!
因为决定画质的因素实在太多:光线,镜头,合适的光圈,感光器件(全画幅和APS-C),处理器(DIGI3,4, NIKON EXPEED 等等),后期软件,图片格式等等。 老鸟们列出来的可能更多。
虽然有1.5, 1.6 的转换系数, 但是记住, 面积的比例是长度的平方, 也就是说, 全画幅的面积是APS-C 的 2.626 倍 = 864mm sqr / 329mm sqr.
基于现有的制造技术和工艺水平,大尺寸全幅感光元件制造困难,价格昂贵,因此目前大多数数码相机采用的感光元件都不是全幅的, 而APS-C的成品率要高的多,所以价格相对全幅机也便宜。
先告一段落吧, 有空再来聊聊光圈。
喜欢的帮顶, 老鸟欢迎砸砖, 看不懂的也欢迎提问, 分多的欢迎赠分!
引用他老人家的一句话:
“真理不辩不明”!
你的大贴已经拜读过,你多从实用角度出发,给读者一个非常直观的影像对比。
我这次是从理论出发,做为您的理论支持吧。
本来想跟的, 后来想想还是新开个帮助新人理解下好。
其实看到这里, 聪明的读者一定会自己分析出来为什么 EF-S的广角可以到 10MM 而 EF 的只能到 16MM。
老鸟飘过,欢迎拍砖, 新手继续:
下面以全画幅为例子为大家分析一下本人的看法:
ob 为 全画幅 CMOS 的高 = 24mm。
oa 为反光板放下的位置,倾角为45度,oc 为反光板升起的位置。
oc =oa , 勾股定理 。。。。oa * oa = h2 * h2 , oa = 24 * 1.414 = 34mm.
扇形 coa 的地方就是反光板的活动范围, 镜头后组要是到这里。。。呵呵 这就是为什么 EF-S 的镜头不能在全画幅和 APS-H上用而只能在 APS-C 上用的原理。
读者一定会问, 按照你的理论, 16MM 的距离已经小于CA弧到CMOS的垂线距离了, 那么为什么 EF 16-35MM 没有打到全画幅的反光板呢?
那是因为此时, 焦点的位置已经不再镜头的镜腔里面, 而介与镜头后组与反光板之间的空间。
理论上来说, 全画幅最广可以做到 h2/2 = 12MM, APS-C 可以做到 14.8mm/2 = 7.4mm, 但是实际上就行不通。 那是因为反光板本身有厚度(这点影响非常大,如果反光板有2MM厚度,那么它在水平方向上的投影就有 2MM * 1.414 = 2.818MM),还有就是反光板会比 CMOS/CCD 的尺寸大一点,再者就是各部件的配合公差问题, 看来 佳能的 EF 16-35mm F2.8 L 还是比较牛的 (Nikon, Sony, Pentax, 还有副厂的支持者请不要拍砖,本人不熟他们的广角镜头)。
支持蜂鸟网!
这个问题本来要新开个主题的,先给大家补补课。看到大家都积极参与, 我也很高兴能和大家一起分享。
由于光是一种很特殊的物质,最著名的当数“波粒二像性”。如果你不知道什么是波粒二像性。。回家翻翻你的物理书,不在本贴的讨论范围。
光的传播可以归结为三个实验定律:直线传播定律、反射定律和折射定律。
【光的直线传播定律】:光在均匀介质中沿直线传播。
在非均匀介质种光线将因折射而弯曲,这种现象经常发生在大气中,比如海市蜃楼现象,就是由于光线在密度不均匀的大气中折射而引起的。
【费马定律】:当一束光线在真空或空气中传播时,由介质1投射到与介质2的分界面上时,在一般情况下将分解成两束光线:反射(reflection)光线和折射(refraction)光线。
光线的反射
光线的反射取决于物体的表面性质。
如果物体表面(反射面)是均匀的,类似镜面一样(称为理想的反射面),那么就是全反射,将遵循下列的反射定律,也称“镜面反射”。
入射光线、反射光线和折射光线与界面法线在同一平面里,所形成的夹角分别称为入射角、反射角和折射角。
【反射定律】:反射角等于入射角。i = i'
对于理想的反射面而言,镜面表面亮度取决于视点,观察角度不同,表面亮度也不同。
当反射面不均匀时,将发生漫反射。其特点是入射光线与反射光线不满足反射定律。
一个理想的漫射面将入射光线在各个方向做均匀反射,其亮度与视点无关,是个常量。
光线的折射
一些透明/半透明物体允许光线全部/部分地穿透它们,这种光线称为透射光线。
当光线从一种介质(比如空气)以某个角度(垂直情形除外)入射到另外一种具有不同光学性质的介质(比如玻璃镜片)中时,其界面方向会改变,就是会产生光线的折射现象。
光的折射是由于光在不同介质的传播速度不同而引起的。
光线折射满足下列折射定律:入射角的正弦与折射角的正弦之比与两个角度无关,仅取决于两种不同介质的性质和光的波长,
【折射定律】:n1 sin i = n2 sin r
任何介质相对于真空的折射率,称为该介质的绝对折射率,简称折射率(Index of refraction)。对于一般光学玻璃,可以近似地认为以空气的折射率来代替绝对折射率。公式中n1和n2分别表示两种介质的折射率。
当n1 = -n2时,折射定律就是变成反射定律了,所以反射定律可以看成是折射定律的特例。
折射率:光在两种介质种的传播速度之比,即
n2/n1 = v1/v2
一种介质的绝对折射率为
n = c/v
式中c是真空中光的速度,v为该介质中光的速度。
可以看出:在折射率较大的介质中,光的速度比较低;在折射率较小的介质中,光的速度比较高。
作为实验规律,上述几何光学三定律只是在波长λ很小的条件下才近似成立的。在摄影中,用几何光学来描述已经足够精确了。
光线的衍射
在光的传播过程中,当光线遇到障碍物时,它将偏离直线传播,这就是所谓光的衍射。由于光的波长很短,在日常生活中很难察觉出衍射现象,但是“光线的衍射”对数码相机成像至关重要, 比在传统相机上要明显的多!
衍射不仅使物体的几何阴影失去清晰的轮廓,在边缘还会出现一系列明暗相间的亮纹。我所提到的矛盾其实很简单: 对成像质量影响最大的两次衍射过程:
光圈和CMOS。 光圈就不解释了, 为什么CMOS 也有? 又回到像素密度问题上, CMOS/CCD上分成无数的小透镜接受光信号, 聪明的看家已经看出点道道了吧。
光谱图:前文所提到的 380-780 NM 是因为还有人眼不可见的红外部分(740-780nm), 也就是为什么相机前面要装“低通滤镜”的原因, 过滤掉频率低的红外光。
先休息, 有空再来顶。
喜欢的朋友或者觉得有帮助的朋友也帮忙顶呀!
光线的衍射效应,像素越小,衍射效应影响越大,所以最佳光圈倾向于较大光圈,而同时高密度要求的镜头的高分辨率又在大光圈时下降,这是难以解决的矛盾!???
这句话不太明白,是不是一支镜头的最佳光圈在全副上如果是F8的话,在aps机上就是应该大于F8比如F5.6呢?
正解,最佳成像光圈和像素密度密切相关!这也吻合我前面所所说的无法比较APS-C 和全画幅画质的原因之一。
还有我觉得要补充说明的是:一个给定镜头最大光圈是不变的,没有任何1.3x, 1.5x, 1.6x 的系数。
光圈的F值=焦距/物理光圈尺寸。以你的佳能百微来说,光圈的F值 2.8, 它的物理光圈为 100MM/2.8 = 35.714mm.
实践出真理,既然5.6 是你这个镜头在这个相机上你认为的最佳光圈,为什么还要去相信别人说的 F8 呢?
再说流水线生产的一定会有偏差, 就算 L, MARCO 也不例外。
但是对于传统胶片相机来说,光线的衍射只有一次,所以最佳光圈应该在APS-C 和 全画幅上是一致的。
看了上楼帖子,似懂非懂!我的问题就是是否最佳成像光圈和像素密度有关?比如经常有人说佳能百微的最佳光圈是f8,但是在我的450D上F8光圈画质已经开始下降!不如F5.6光圈,f16的光圈成像更是下降很多!在我的450D上感觉最佳光圈是F5.6.
请输入正确的手机号码
请输入正确的验证码
发送验证码