摄影是通过成像设备获取物体影像的技术。传统的摄影依靠光学镜头及放置在焦平面的感光胶片来记录物体影像。数字摄影则通过放置在焦平面的光敏元件,经过光/电转换,以数字信号来记录物体的影像。
摄影原理是根据小孔成像原理,用摄影物镜代替小孔,在像面处放置感光材料,物体的投影光线经过摄影机物镜后聚焦于感光材料上,得到地面的影像。
根据用途的不同,摄影成像可选用不同的方式和感光材料,从而得到功能不同的航空像片。
1.按像片倾斜角分类
通过物镜中心并与主平面垂直的直线称为主光轴。每一台摄影机的物镜都有一个主光轴。摄影机的感光片是放在与主光轴垂直且与物镜距离很接近的焦距的平面上。主光轴与感光片的交点称为像主点,主光轴与铅垂线的夹角称为像片倾角。由于主光轴垂直于像平面,铅垂线垂直于水平面,因而像平面与水平面之间的夹角等于航摄倾角,根据相片倾斜角可分为垂直摄影和倾斜摄影。
垂直摄影:倾斜角等于0°的,是垂直摄影,这时主光轴垂直于地面(与主垂线重合),感光胶片与地面平行。但由于飞行中的各种原因,倾斜角不可能绝对等于0°,一般将倾斜角小于3°的称为垂直摄影。由垂直摄影获得的像片称为水平像片。水平像片上地物的影像,一般与地面物体顶部的形状基本相似,像片各部分的比例尺大致相同。水平像片能够用来判断各目标的位置关系和量测距离。
倾斜摄影:倾斜角大于3°的,称为倾斜摄影,所获得的像片称为倾斜像片。这种像片可单独使用,也可以与水平像片配合使用。
2.按摄影的实施方式分类
按摄影的实施方式分类,可分为单片摄影、航线摄影和面积摄影。
单片摄影:为拍摄单独固定目标而进行的摄影称为单片摄影,一般只摄取一张(或一对)像片,针对的是比较小的区域。
航线摄影:沿一条航线,对地面狭长地区或沿线状地物(铁路、公路等)进行的连续摄影,称为航线摄影。为了使相邻像片的地物能互相衔接以及满足立体观察的需要,相邻像片间需要有一定的重叠,称为航向重叠。航向重叠一般应达到60%,至少不小于53%。
面积摄影:沿数条航线对较大区域进行连续摄影,称为面积摄影(或区域摄影)。面积摄影要求各航线互相平行。在同一条航线上相邻像片间的航向重叠为53%~60%。相邻航线间的像片也要有一定的重叠,这种重叠称为旁向重叠,一般应为15%~30%。实施面积摄影时,通常要求航线与纬线平行,即按东西方向飞行。但有时也按照设计航线飞行。由于在飞行中难免出现一定的偏差,故需要限制航线长度,一般为60~120 km,以保证不因偏航而产生漏摄。
3.按感光材料分类
按感光材料不同可分为全色黑白摄影、黑白红外摄影、彩色摄影、彩色红外摄影和多光谱摄影等。
全色黑白摄影指采用全色黑白感光材料进行的摄影。全色黑白感光材料对可见光波段(0.4~0.76μm)内的各种色光都能感光,是目前应用广、又易收集到的航空遥感材料之一。如我国为测制国家基本地形图摄制的航空像片即属此类。
黑白红外摄影是采用黑白红外感光材料进行的摄影。它能对可见光、近红外光(0.4~1.3μm)波段感光,尤其对水体植被反应灵敏,所摄像片具有较高的反差和分辨率。
彩色摄影则是采用彩色像片的摄影,虽然也是感受可见光波段内的各种色光,但由于它能将物体的自然色彩、明暗度以及深浅表现出来,因此与全色黑白像片相比,影像更为清晰,分辨能力高。
彩色红外摄影同样是感受可见光和近红外波段(0.4~1.3μm),但却使绿光感光之后变为蓝色,红光感光之后变为绿色,近红外感光后成为红色,这种彩色红外片与彩色片相比,在色别、明暗度和饱和度上都有很大的不同。例如,在彩色片上绿色植物呈绿色,在彩色红外片上却呈红色。由于红外线的波长与可见光的波长相比,受大气分子的散射影响小,穿透力强,因此,其彩色红外片色彩要鲜艳得多。
多光谱摄影是利用摄影镜头与滤光片的组合,同时对一地区进行不同波段的摄影,取得不同的分波段像片。例如,通常采用的四波段摄影,可同时得到蓝、绿、红及近红外波段四张不同的黑白像片,或合成为彩色像片,或将绿、红、近红外三个波段的黑白像片合成假彩色像片。
1.中心投影
常见的大比例尺地形图属于垂直投影,而摄影像片属于中心投影,这是因为摄影成像时地面上的每一物点所反射的光线,经过镜头中心后,都会聚到焦平面上产生该物点的像,而航摄机则是把感光胶片固定在焦平面上;同时,每一物点所反射的许多光线中,有一条通过镜头中心而不改变其方向,这条光线称为中心光线,所以每一物点在镜面上的像,可以视为中心光线和底片的交点,这样在底片上就构成负像,经过接触晒印所获得的航空像片为正像。
2.中心投影特征
在中心投影上,点的像还是点,直线一般情况还是直线,若是直线的延长线通过投影中心时,该直线的像则是一个点。空间曲线的像一般仍为曲线,但若空间曲线在一个平面上,而该平面通过投影中心时,它的像则成为直线。中心投影的这些特征,有利于识别地物。
3.像片比例尺
像片上某一线段长度与地面相应长度之比,称为像片比例尺,用1 / M 表示,1 / M = f/ H ,其中 f 是摄影机的焦距, H 是飞行器的相对航高,由此可知,像片的比例尺与物镜焦距成正比,与相对航高成反比。若焦距固定不变,相对航高越高,比例尺越小,此外,地形起伏也会影响比例尺,地面总是起伏不平,而每次拍摄像片时,地面与摄影机物镜的距离不相同,即使在同一张像片上,因地形起伏使整个地面至投影中心的距离也不尽相等。因此,像片的比例尺是不唯一的。
扫描成像是依靠探测元件和扫描镜头对目标地物以瞬时视场为单位进行的逐点、逐行取样,以得到目标地物电磁辐射特性信息,形成一定谱段的图像。其探测波段可包括紫外、红外、可见光和微波波段。扫描成像方式有光/机扫描成像、固体自扫描成像、高光谱成像光谱扫描。
1.光/机扫描成像
光/机扫描成像系统,一般在扫描仪的前方安装光学镜头,依靠机械传动装置使镜头摆动,形成对目标地物的扫描,扫描仪是由一个四方棱镜、若干反射镜和探测元件所组成的。四方棱镜旋转一次,完成4次光学扫描,入射的平行波束经四方棱镜反射后,分成两束,每束光经平面反射后,又汇成一束平行光投射到聚焦反射镜,使能量汇聚到探测器的探测元件上,探测元件把接收到的电磁波能量转换成电信号,在磁介质上记录或转成光能量,在设置于焦平面的胶片上形成影像。
2.固体自扫描成像
固体扫描仪又称推帚式扫描仪,是通过遥感平台的运动对目标地物进行扫描的一种成像方式。目前常用的探测元件是电子耦合器件CCD,它是一种用电荷量表示信号大小,用CCD构成的扫描成像传感器,可将许多探测元件按线性排列成与飞行器前进方向垂直的阵列,每排的探测元件数与扫描线的像元数相等,工作时探测元件输出的数据值,与其像元的亮度相对应,这样按线性阵列一个个顺序推帚式取样,完成横向扫描。飞行器向前不断地移动,即可完成纵向移动,从而得到连续的扫描图像。固体扫描仪去除了复杂的机械扫描结构,每个探测器的几何位置都是精确确定的,提高了探测的精度和仪器的灵敏度及信噪比。例如,法国1986年发射的SPOT卫星上安装了两台由CCD线阵列构成的高分辨率固体扫描仪(HRV),它采用四排阵列,由每列1500个,总计6000个固体探测元件组成。地面分辨率较高,可达10 m(全色波段)。探测元件用耦合方式传输信号,具有感受波谱范围宽、畸变小、体积小、质量轻、系统噪声低、灵敏度高、功耗小、寿命长、可靠性高等一系列优点。
3.高光谱成像光谱扫描
常用的多波段扫描仪将可见光和红外波段分割成几个到十几个波段,对于遥感而言,在一定波长范围内,被分割的波段越多,即波谱取样点越多,结果越接近于连续光谱曲线,因此可以使得扫描仪在取得目标地物图像的同时也能获取该地物的光谱组成。这种既能成像又能获取目标光谱曲线的“谱像合一”的技术,称为成像光谱技术。按该原理制成的扫描仪称为成像光谱仪。
高光谱成像光谱仪是遥感发展中的新技术,其图像是由多达数百个波段的非常窄的连续光谱波段组成,光谱波段覆盖了可见光、近红外、中红外和热红外区域全部光谱带。光谱仪成像时多采用扫帚式或推帚式,可以收集200或200个以上的波段的数据,使得图像中的每一个像元均得到了连续反射率的曲线,而不像传统的成像光谱仪扫描出的结果在波段之间存在间隔。
有时把电磁波谱上波长在1 mm到100 km很宽的幅度区间称为无线电波区间,在这一区间按照波长由短到长又可以划分为亚毫米波、毫米波、厘米波、分米波、超短波、短波、中波和长波。其中的毫米波、厘米波和分米波三个区间称为微波波段,因此有时又更明确地把这一区间分为微波波段和无线电波段。微波在接收和发射时常常仅用很窄的波段,所以把微波波段又加以细分并给予详细的命名,见表2-5。
表2-5 微波波段
微波遥感也称作雷达遥感,利用微波探测得到的图像也叫作雷达图像。雷达(RADAR),原意是发射无线电波,然后接收探测目标的反射信号来分析目标的性质。在雷达的基础上,发展了成像微波遥感的真实孔径雷达和合成孔径雷达,这种雷达影像就是微波遥感影像。在第二次世界大战期间微波已用来作为夜间侦察的工具。而微波遥感为各国真正重视是从20世纪60年代开始,从航空飞机到航天飞机到人造卫星,到90年代形成发展高潮,微波遥感已和可见光遥感、红外遥感并驾齐驱,成为人类认识世界的重要手段。微波遥感之所以发展得如此之快,是因为微波有很多可见光和红外波段所没有的优点。
①微波的穿云透雾能力,使遥感探测可以全天候进行。
瑞利散射的散射强度与波长的四次方成反比,波长越长,散射越弱。大气中的云雾水珠及其他悬浮微粒比起微波波长小很多,在可见光波段,瑞利散射影响很明显。对于微波,由于微波波长比可见光长很多,散射强度就弱到可以忽略不计。也就是说,微波在传播过程中不受云雾影响,具有穿云透雾的能力。
②微波可以全天时工作。
可见光由太阳辐射而来。太阳照射时可以观测,夜晚则不能。而微波无论是被动遥感(接收目标物发射的微波信号)或主动遥感(传感器发出微波信号再接收地面目标物反射回来的信号)都不受地球自转影响而全天候工作。而且相对于红外遥感而言,其大气衰减也很小。
③微波对地物几何形状、地球表面粗糙度、土壤湿度敏感。
微波的穿透能力与土壤湿度、微波频率及土壤类型有关系。例如,沙土、沃土、黏土比较,沙土穿透性最强,因为土壤中的水分对穿透性影响很大,湿度越大,穿透性越小。对于不同的物质,微波的穿透本领也有很大不同,同样的频率对干沙可以穿透几十米,对冰层则能穿透百米。
④微波有某些独特探测能力。
微波是海洋探测的重要波段。其对土壤和植物冠体具有一定的穿透力,可以提供部分地物表面以下的信息。正因为微波得到的信息与可见光、近红外波段得到的信息有所不同,如果用不同手段对同一目标进行探测,可以互相补充,实现对目标特性在微波波段、可见光波段和红外波段的全面描述。目前,随着微波遥感传感器的迅速发展,微波图像的空间分辨率已达到或接近可见光与红外图像的分辨率。它的应用范围也将越来越广泛。
微波属于电磁波,因此微波具有电磁波的基本特性,包括叠加、相干性、衍射、极化等。
1.叠加
当两个或两个以上的波在空间传播时,如果在某点相遇,则该点的振动是各个波独立引起该点振动时的叠加。
2.相干性
当两个或两个以上的波在空间传播,它们的频率相同,振动方向相同,振动位相的差是一个常数时,叠加后合成波的振幅是各个波振幅的矢量和,这种现象称为干涉。两波相干时,在交叠的位置,相位相同的地方振动加强,相位相反的地方振动抵消,其他位置均有不同程度的减弱。当两束微波相干时,在微波雷达图像上会出现颗粒状或斑点状特征。当两束波不符合相干条件时为非相干波,这时叠加后合成波振幅是各个波振幅的代数和,上述特征在雷达图像上不会出现。
3.衍射
电磁波传播过程中如果遇到不能透过的有限直径物体,会出现传播的绕行现象,即一部分辐射没有遵循直线传播的规律到达障碍物后面,这种改变传播方向的现象称为衍射,微波传播时会发生衍射现象。
4.极化
电磁波传播是电场和磁场交替变化的过程,它们的方向相互垂直。电场常用矢量表示,矢量必定在与传播方向垂直的平面内。矢量所指的方向可能随时间变化,也可能不随时间变化。当电场矢量的方向不随时间变化时,称为线极化。线极化分为水平极化和垂直极化。水平极化指电场矢量与雷达波束入射面垂直,记作H;垂直极化是电场矢量与入射面平行,记作V。雷达波发射后遇目标平面而反射,其极化状况在反射时会发生改变,根据传感器反射和接收的反射波极化状况可以得到不同类型的极化图像。若发射和接收的电磁波同为水平极化方式,则得到同极化图像HH;若同为垂直极化,得到同极化图像VV。若发射为水平极化H,而接收为垂直极化V,则得到交叉极化图像HV;相反地,若发射为垂直极化V,而接收为水平极化H,得到的则是交叉极化图像VH。除了线极化波以外,电场矢量在与传播方面垂直的平面上运动,也可能画出圆形或椭圆形的轨迹,称为圆极化波或椭圆极化波。平常应用较多的是四种线极化图像。同一种地物在不同极化图像里常常表现出不同的亮度,不同的地物也会表现出不同的对比度,因此利用不同的极化特征图像有可能在微波遥感图像上解译出更多的信息。
无论是航空遥感平台还是航天遥感平台,微波传感器分为两类:非成像传感器和成像传感器。
1.非成像传感器
非成像传感器一般都属于主动式遥感系统。通过发射装置发射雷达信号,再通过接收回波信号测定参数。这种设备不以成像为目的。微波遥感应用的非成像传感器有微波散射计和雷达高度计。
1)微波散射计
这种微波散射计主要用来测量地物的散射或反射特性。通过变换发射雷达波束的入射角,或变换极化特征以及变换波长,研究不同条件对目标物散射特性的影响。
2)雷达高度计
雷达高度计测量目标物与遥感平台的距离,从而可以准确得知地表高度的变化、海浪的高度等参数,在飞机、航天器、海洋卫星中广泛应用。其原理是在波的传播速度为已知的条件下,根据发射波和接收波之间的时间差,求出距离。
2.成像传感器
成像传感器的共同特征是获取在地面上扫描所得到的带有地物信息的电磁波信号,并形成图像。这些传感器可以是主动遥感系统,如侧视雷达、合成孔径雷达等,也可以是被动遥感系统,如微波辐射计等。
1)微波辐射计
微波辐射计主要用于探测地面各点的亮度温度,并生成亮度温度图像。因为地面物体都有发射微波信号的能力,其发射的强度与自身的亮度温度有关,通过扫描接收这些信号并转换成对应的亮度温度图,对地面物体状况的探测很有意义。
2)侧视雷达
侧视雷达是在飞机或卫星平台上由传感器向与飞行方向垂直的侧面,发射一个窄的波束,覆盖地面上这一侧面的一个条带,然后接收在这一条带上的地物的反射波,从而形成一个图像带。随着飞机或卫星向前飞行,不断地发射这种脉冲波束,又不断地接收一个一个回波。从而形成一幅一幅的雷达图像。
3)合成孔径雷达
合成孔径雷达与侧视雷达类似,也是在飞机或卫星平台上由传感器向与飞行方向垂直的侧面发射信号。所不同的是把发射和接收天线分成许多小单元,每一单元发射和接收信号的时刻不同。由于天线位置不同,记录的回波相位和强度都不同。这样做的最大好处是提高了雷达的方位向分辨率。天线的孔径越小,分辨率越高。