首页 计算机科学与技术毕业论文--人脸识别技术综述

计算机科学与技术毕业论文--人脸识别技术综述

举报
开通vip

计算机科学与技术毕业论文--人脸识别技术综述计算机科学与技术毕业论文--人脸识别技术综述 摘 要 随着社会信息化网络化得不断发展个人身份趋于数字化隐性化如何准确的 鉴定确保信息安全得到越来越多的重视人脸识别一种应用比较广泛的生物识别 方法在基于人脸固有的生物特征信息利用模式识别和图行图像处理技术来对个 人身份进行鉴定在国家安全计算机交互家庭娱乐等其他很多领域发挥着举足轻 重的作用能提高办事效率防止社会犯罪等有着重大的经济和社会意义 本文主要研究了人脸识别在图像检测识别方面的一些常用的方法由于 图像处理的好坏直接影响着定位和识别的准确率因此本文对图像的一...

计算机科学与技术毕业论文--人脸识别技术综述
计算机科学与技术毕业 论文 政研论文下载论文大学下载论文大学下载关于长拳的论文浙大论文封面下载 --人脸识别技术综述 摘 要 随着社会信息化网络化得不断发展个人身份趋于数字化隐性化如何准确的 鉴定确保信息安全得到越来越多的重视人脸识别一种应用比较广泛的生物识别 方法在基于人脸固有的生物特征信息利用模式识别和图行图像处理技术来对个 人身份进行鉴定在国家安全计算机交互家庭娱乐等其他很多领域发挥着举足轻 重的作用能提高办事效率防止社会犯罪等有着重大的经济和社会意义 本文主要研究了人脸识别在图像检测识别方面的一些常用的方法由于 图像处理的好坏直接影响着定位和识别的准确率因此本文对图像的一些识别算 法做了着重的介绍例如基于二维Gabor小波矩阵表征人脸的识别算法基于模型 匹配人脸识别算法等此外本文还提及了一般人脸识别系统的设计并着重介绍了 图像预处理环节的光线补偿图像灰度化等技术使图像预处理模块在图像处理过 程中能取到良好的作用提高图像识别和定位的准确率 [关键词]人脸识别 特征提取 图像预处理 光线补偿 Face Recognition Overview Abstract With the information society network was growing personal identity tends to digital hidden how to accurately identify to ensure that information security is more and more attention Face recognition an application of biometric identification methods more widely based on biometric facial information inherent in the use of pattern recognition and image processing techniques to map line of personal identity play a great role in the national security computer interaction family entertainment and many other areas Face recognition can improve efficiency prevent social crime of course it has significant economic and social significance This paper studies aspects of face recognition in image detection and some common methods of identification As the image processing directly impact on the accuracy of location and identification so some of image recognition algorithm will be focused presentation such as Gabor wavelet-based two-dimensional matrix representation of face recognition algorithms model-based matching face recognition algorithm In addition the article also mentioned a general recognition system design and highlights the image preprocessing part of the light compensation gray image techniques the image preprocessing module in the image processing to get to the good and improve image recognition and positioning accuracy [Key Words] Face recognition feature extraction image preprocessing light compensation 目 录 1 前言 6 11 课 快递公司问题件快递公司问题件货款处理关于圆的周长面积重点题型关于解方程组的题及答案关于南海问题 背景 6 com 人脸识别技术研究的背景[1] 6 12人脸识别技术研究的意义 6 13国内外现状与趋势 7 com 人脸识别的发展阶段[1] 7 com 国内的发展概况 8 2人脸识别技术 9 21 人脸识别概述 9 com 人脸识别的研究范围 9 22 人脸检测算法 10 com 基于肤色特征的检测方法 10 com 基于启发式模型的方法 10 com 基于特征空间的方法 10 com 基于统计模型的方法 10 23 人脸识别算法 11 com 基于二维Gabor小波矩阵表征人脸的识别方法 11 com 基于多特征融合和Boosting RBF神经网络的人脸识别方法 12 com 基于模型匹配人脸识别方法 15 com 基于分块小波变换与奇异值阈值压缩的人脸特征提取与识别算法 17 3 人脸图像预处理实验 21 31 需求分析 21 32 预处理技术 21 com 光线补偿 21 com 灰度变化 21 com 高斯平滑处理 21 com 对比度增强 22 com 直方图均衡 22 33 概要设计 22 34 程序设计与实验 22 com 光线补偿 22 com 图像灰度化 23 com 高斯平滑处理 24 com 直方图均衡 26 4 总结 29 参考文献 30 声 明 31 致谢 32 附录 原文及译文 33 1 前言 11 课题背景 com 人脸识别技术研究的背景[1] 现在地球上居住着亿人每个人的都由眉毛眼睛鼻子嘴巴组成大体位置固定的并且每张脸的然而这个世界上找不出两张完全相同的人脸即使是面容极其相似的双胞胎能够容易地根据他们细微差异将他们区分区多的不同人脸的特征是什么设计出具有人类一样的人脸识别能力的自动机器这自动机器的人脸识别能力能够超越人类身分析和解答这些问题具有重要的理论和应用价值正是从事人 脸识别研究人员所面临的挑战 这些问题并那么容易计算机视觉模式识别神经计算生理学等领域的科学问题困惑着我们每天都区分着亲人同事朋友等大多数人却很难出如何区分他们的描述不出自己熟悉的人具体特征意味着仿生学人脸识别研究路线找基本科学问题[1] 第一阶段1964年1990年 人脸识别只是作为一个一般性的模式识别问题来研究基于人脸几何结构特征Geometric feature based的方法剪影Profile人们面部剪影曲线的结构特征提取分析布莱索Bledsoe戈登斯泰因Goldstein哈蒙Harmon以及金出武雄 Kanade Takeo 等较早从事AFR研究的研究人员总阶段是人脸识别研究的初级阶段重要的成果也基本没有获得实际应用 第二阶段1991年1997年 阶段尽管时间短暂但却是人脸识别研究的高期诞生了代表性的人脸识别算法并出现了商业化运作的人脸识别系统比如著名的Visionics的FaceIt系统 麻省理工学院MIT媒体实验室潘特兰德Pentland特克Turk提出的特征脸方法是最负盛名的人脸识别方法的很多人脸识别技术或多或少与特征脸有关系特征脸已经归一化的协相关量 Normalized Correlation 方法一成为人脸识别的性能测试基准算法 人脸识别中的另一种重要方法弹性图匹配技术 Elastic Graph MatchingEGM 基本思想是用一个属性图来描述人脸属性图顶点代表面部关键特征点相应特征点处的多分辨率多方向局部特征称为Jet对任输入人脸图像弹性图匹配通过优化搜索策略来定位预先定义的若干面部关键特征点同时提取它们的Jet特征得 到输入图像的属性图最后通过计算与已知人脸属性图的相似来完成识别过程方法的优点是既对人脸的关键局部特征进行了建模保留了面部的全局结构特征总体而言阶段的人脸识别技术发展迅速提出的算法在图像采集对象配合正面人脸数据库上了非常好的性能也出现了人脸识别商业公司 第三阶段1998年 FERET96人脸识别算法评估主流的人脸识别技术对或者对象不配合造成的变化鲁棒性比较差问题逐渐成为研究人脸识别的商业系统进一步发展 基奥盖蒂斯Georghiades布兰兹Blanz和维特Vetter巴斯里Basri和雅各布Jacobs总体而言非理想成像条件下光照和姿态对象不配合大规模人脸数据库上的人脸识别问题逐渐成为统计学习理论非线性建模方法基于3D模型的人脸建模与识别方法等逐渐成为备受重视的技术发展趋势国家863项目面像检测与识别核心技术通过成果鉴定并初步应用标志着我国在人脸识别领域掌握了一定的核心技术2002年北京科瑞奇技术股份有限公司一种人脸鉴别系统对人脸图像进行处理对图像进行特征识别人脸别使用正面照别的人脸图像不同拍摄的使用的照相机不一样2005年1月国家"十五"攻关项目《人脸识别系统》清华大学电子系人脸识别课题组负责人苏光大教授主持通过了公安部专家鉴定鉴定委员会项技术处于国内领先水平国际先进水平《人脸识别系统》人脸识别[2] 人脸识别特指利用分析比较人脸视觉特征信息进行身份鉴别的计算机技术 广义的人脸识别实际包括构建人脸识别系统的一系列相关技术包括人脸图像采集人脸定位人脸识别预处理身份确认以及身份查找等而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统 人脸识别是一项热门的计算机技术研究领域它属于生物特征识别技术是对 生物体一般特指人本身的生物特征来区分生物体个体生物特征识别技术所研究的生物特征包括脸指纹手掌纹虹膜视网膜声音语音体形个人习惯例如敲击键盘的力度和频率签字等相应的识别技术就有人脸识别指纹识别掌纹识别虹膜识别视网膜识别语音识别用语音识别可以进行身份识别也可以进行语音内容的识别只有前者属于生物特征识别技术体形识别键盘敲击识别签字识别等 1 人脸的检测 Face Detection 在不同背景条件下检测出人脸存在并且确定其位置影响这一任务的因素主要有光照噪声面部倾斜度以及各种各样遮挡等 2 人脸的表征 Face Representation 采取某种表示方式表示检测出来的人脸一般的表示法包含代数特征几何特征固定特征模板特征脸云纹图等 3 人脸的识别 Face Identification 主要是将需要识别的人脸和所存在的数据库中人脸比较这一过程的关键是选择恰当的人脸表征方式以及匹配策略 4 表情姿态分析 ExpressionGesture Analysis 主要是对需要识别的人脸表情或者姿态信息进行分析归类 5 生理分类 Physical Classification 主要是指对需要识别的人脸的生理特征进行分析得出相关信息比如性别年龄等 22 人脸检测算法 com 基于肤色特征的检测方法 人脸的一些面部细节特征比如眼睛鼻子嘴等受旋转表情等变化影响很大但肤色则不同它不仅是人脸的重要信息而且又具有相对的稳定性能和大多数背景物体的颜色区别一般常用肤色模型来描述肤色特征比如直方图模型高斯模型混 合高斯模型等 其实肤色模型和其他的数学建模也是一样的即用一种代数的或查找表等形式来说明哪些像素的色彩属于肤色或者表征出的某个像素的色彩和肤色的相似程度在用肤色模型对肤色进行检测的过程中主要有两个阶段模型的建立和模型的运用 模型的建立主要是指通过对大量的肤色像素集进行统计分析然后确定模型中的一些参数而模型的运用主要是指通过已经建立好的肤色模型来判别所输入的像素或区域是否是肤色或者给出它和肤色的相似程度 com 基于启发式模型的方法 这种方法的过程一般是先抽取图像的几何形状灰度纹理等然后再检验他们是否符合人脸的一些基本条件由于人脸的各个器官比如眼睛鼻子嘴等具有较为恒定的模式所以一些方法首先检测出这些器官或者其他局部特征然后根据这些器官的相对位置关系判别是否该区域是人脸 com 基于特征空间的方法 这种方法是将人脸区域的图像变换到其他某一特征空间并且根据其分布规律划分为人脸和非人脸两种模式常用的分析方法有主分量分析 PCA 等PCA方法是根据人脸图像的统计特征进行正交变换K-L变换来消除原有向量各个分量之间的相关性通过这样的变换能够得到特征值依次递减的特征向量即特征脸 com 基于统计模型的方法 这种方法是解决复杂的人脸识别检测问题的有效途径是目前比较流行的方法它主要针对正面人脸的检测并且优点很明显1它不依赖于人脸的参数模型和先验知识能够有效地避免不完整的或者不精确的知识造成的错误2它采用实例 学习方法获取模型的参数在统计意义上可靠性更好3学习实例的学习可以很好的扩充检测模式的范围提高检测系统的鲁棒性 23 人脸识别算法 com 基于二维Gabor小波矩阵表征人脸的识别方法[3] Gabor滤波器小波由于其良好的空间局部性和方向选择性在人脸识别系统中得到了很好的应用但是由于Gaboerface是由几十个Gabor滤波器和人脸图像进行卷积运算得到的所以它的特征空间维数是非常巨大的因此我们可以采样或压缩来减少特征空间的维数 在基于线性相关准则的优化Gabor滤波器集合的方法中我们通过分析Gabor滤波器的相关矩阵得出当选取的尺度集合V V-2 V 5 时相关矩阵达到最小值因此可以得到一组优化的滤波器集合这样就可以尽可能的减少特征集合的冗余 com1 Gabor滤波器 Gabor核函数的定义 其中 μ和v分别代表滤波器的方向和尺度因子 滤波器的参数分别是 com2 基于相关准则选取Gabor滤波器集合 以8个方向和8个尺度的图像为例这样就有64个Gabor滤波器采用线性相关准则来度量滤波器之间的冗余时可以先固定方向集合U μ0 μ 7 然后调整尺度集合从V1 v-4 v 3 到V5 v0 v 7 如图 由于虚部得到相同的结果所以与滤波器的实部为例来分析先将滤波器的实部按行或列连接成一个矢量这样2个滤波器和的线性相关定义为 全部64个滤波器的相关系数就组成了一个6464的对称矩阵对角线上的元素 为1由于相关系数的范围为[-11]取其绝对值并且将其绝对值区间即[01]映射到灰度尺度区间[0255]这样矩阵的特性就可以用图示的方式来表示了下图为不同尺度集合下得到的相关矩阵情况 由滤波器方向和尺度的相关特性将滤波器进行2种排列组合在图1-5中滤波器的排列规则是先方向后尺度而6-10是先尺度后方向的规则排列的 从上图可以看出高的相关系数主要集中于低的尺度因子区域v -4-3 1中和v -32中以及高的尺度因子区域v 64中和v 67 5中相似的相关系数较高的主要集中在低尺度因子区域中子块的左上角以及高尺度因子区域中子块的右下角这和图中1-5得到的观察结果是完全一致的此外由图3和8可知当选取v3尺度集合时全部相关系数达到最小值因此选取v3 v-2 v 5 作为Gabor滤波器的尺度集合可以提取尽可能的不相关的特征数据来减少冗余 com 基于多特征融合和Boosting RBF神经网络的人脸识别方法[4] com1人脸特征的提取 com11人脸的Zernike矩特征 在统计学中我们常用矩来表征随机量的分布因此我们可以把二值图或者灰度图看成是二维密度分布函数那么矩技术就可以应用于描述一幅图像的特征Zernike矩方法源于正交矩阵思想因此能构造出任意的高阶矩并且具有旋转不变性有非常强的图像表示能力 用fxy表示二维离散图像函数nm阶Zernike不变矩阵表示为 实质上这是一种将图像函数变换到一组正交基函数上的映射 图像fxy的Zernike矩是其在一组正交多项式上的投影所谓的正交就是指在单位圆内满足以下条件 其中中n是正整数或零m是正或负整数并且满足n-m 偶数是径向多项式即 假设是图像的极坐标函数表示那么相应的傅里叶级数形式为 其中 由上可以得出Zernike矩为 离散形式为 其中是的共轭由于完全正交的基函数集的引入理论上Zernike矩比原来矩具有更好的数学性质 com2 NMF提取人脸子空间特征 NMF非负矩阵分解法Non-negative Matrix Factorization和K-L变换等其他矩阵分解方法有所不同主要在于它在分解过程中所受的约束不同因此它能克服其他分解方法的一些弊端比如在特征脸空间上投影时得到的投影系数可能出现的正负相互抵消的情况 对于任一由Num幅图像可以分解成两个矩阵BH的乘积 其中B是n x m维矩阵H是m x Num矩阵代表权重或者系数若m n则分解达到降维的目的 com3 RBF神经网络 径向基函数RBF神经网络相比传统的BP神经网络有很多优点RBF网络收敛速度快对于每一对输入输出数据只有少量权值需要进行调整下图为RBF神经网络结构 com4 基于Boosting RBF神经网络的人脸识别 由Zernike矩特征及NMF提取的人脸子空间特征串行组合可以得到一个 31维向量用此表示的人脸样本来作为神经网络分类器的输入数据并且用Boosting方法进行分类如下图 其中S 是训练成本Di是第i轮学习样本的权向量at是第t个网络的权值X是测试样本的特征向量Y是该向量的类别 com5基于Boosting RBF神经网络的人脸识别方法 初始化化每个样本---相等的权重D1 i 1n For t 12---T Do 在Dt下用梯度下降法和K均值聚类方法 进行学习得到对应的神经网络Ct 计算该神经网络的错误率Et 选择 根据错误率更新样本的权重 4 计算网络的权重为 com6 人脸识别 由Zernike矩和NMF提取的人脸识别子空间特征得到的31维向量X将其作为各个RBF神经网络的输入得到对应的输出Yt 集成其输出为 其中的如果那么该脸就属于第i类 com 基于模型匹配人脸识别方法[5] com1 特征定位 人脸内部特征主要有3个部位----眼睛鼻子嘴利用这三者之间的相互位置以及其他一些灰度变化明显的特征点比如嘴角眼角鼻子根部等进行识别由于这三个部位是关于人脸的中心线左右对称的因此可以建立一个包括这三个部位的模型由于不同的人脸在模型的特征点上大部分都不同所以可以利用脸部的特征 点与脸部图像的特征点进行匹配 以脸部作为背景眼鼻口为特征识别的部位将一幅脸部图像经过 规范 编程规范下载gsp规范下载钢格栅规范下载警徽规范下载建设厅规范下载 化和灰度处理之后变为X x Y大小的函数Ix y对该图像进行垂直灰度投影计算函数为 PV是垂直灰度投影曲线在公式中当x确定某值时y为变量从1 到 Y的扫描灰度图像把扫描出来的灰度值累加起来就可以绘成垂直灰度投影曲线纵坐标表示不同水平位置的人脸图像的像素灰度值总和通过观察单个人的图像垂直灰度投影曲线我们可以得到人脸所在的区域将使该曲线形成一个具有一定宽度的凸峰该凸峰的左右边界基本表示了人脸的左右边界 当确定人脸的左右边界之后可以取左右之间的人脸区域作为研究对象取区域大小为X x Y X Y的图像则该图像的水平灰度投影函数为 人眼的水平坐标位于函数的最大值点和次最大值点之间所以可以分析该函数平滑曲线图的极大值和极小值得到人眼大概的水平位置 com2 模型匹配识别 在定位了眼部位置后建立特征模型框架将特征部位分成4个部件一一讨论一个眼睛模型由一个圆和两条抛物线组成用能量函数表示为 上式中j取12 分别代表上下眼帘另一只眼睛可以用同样的能量函数表示 嘴部模型可以用三条抛物线表示分别对应上下嘴唇和中缝而能量函数则同眼帘的鼻子的模型由于由于受角度变化影响较大所以可以用鼻尖和两侧鼻翼三个点作为模型特征点至于脸部模型由脸部形状定位出脸部位置特征部位的结构特点在脸部定位出特征部位为了与特征部位匹配需要调节模型的大小匹配的 过程为 选取两眼连线经过嘴部最下端的垂线作为中线和结构模型中的中线相互重合脸部水平偏转角度θ定义为两眼部分连线与水平x方向的夹角将中心线作为对称轴使用立体坐标xyz特征部位左半部的坐标为x1y1z右半部与此对应的对称点的坐标为x2y2z由Z轴的转动规律 调整模型的参数使其识别角度能和观察角度相一致最后调整模型的系数ab使模型与特征部位基本重合接着通过对特征部位的能量函数与模型的能量函数做差建立函数方程求其极小值得出ab 那么这个差值的大小就可以作为识别的一个类依据 com 基于分块小波变换与奇异值阈值压缩的人脸特征提取与识别算法[6] com1 二维离散小波变换 选定适当的正交小波基再对图像进行二维小波变换----这是基于小波图像变换的基本思路假设I 为原始图像fxy对应的离散信号D表示图像的高频分量而A表示图像的低频分量层数用下表表示用Mallat金字塔分解算法对该离散图像实行小波变换就可以得到以下变换系数 式中LLs表示第s层变换的低频系数HLsLHsHHs分别表示第s层变换的水平垂直和对角三个方向的高频系数下图为OPL人脸库中一幅人脸图像在不同层次的小波分解后图像频率分别和过程分解过程图 com2 分块人脸识别变换和特征提取 从上面的分解过程图可以看出经过一次小波变换后一幅人脸图像被分解成4幅不同分辨率和不同空间方向的子图其中反映原始图像平均亮度的低频变换系数LL可以表示原始图像的能量分布而且可以对这一部分进行多次小波分解 下图描述了人脸的分割以及分块人脸小波变换的示意图 算法具体描述为 根据人脸的形状纹理和边缘轮廓将图像分成m x n 块 选择合适的小波基对分割后的块状图像进行二维离散小波变换并且提取各块的高频和低频分量 对于包含图像边缘轮廓的图像块用作为提取人脸边缘的局部特征 对位于中间区域的图像块可以直接用其低频分量作为局部特征 其中s为小波变换的层数p为包含图像边缘图像块的个数q为包含图像细节特征图像块的个数 算法中人脸鉴别特征的抽取能力和效果很大程度上取决于小波变换层数和正交小波基的选取而小波基的不同对特征向量的最优化提取效果及冗余信息的压缩也有较大影响 com3 小波特征的奇异值阈值压缩与特征融合 com31奇异值分解与阈值压缩 奇异值分解SVD 是一种很好的代数特征提取方法矩阵的奇异值分解可以将任意一个M x N 的矩阵分解成只包含几个非零值的奇异值矩阵而这种方法在人脸分解中不仅可以提取人脸图像的奇异值而且可以有效的压缩或降维图像特征 引理1 SVD 设矩阵A ?Rm ×n 则存在两个正交矩阵U [ u1 u2 um ] ?Rm ×n V [ v1 v2 vn ] ?Rm ×n 使得A U ?AVT式中?A diag[σ1 σ2 σp ] p min m n 其中σ1 ?σ2 ??σp ?0σi i 1 2 p 为矩阵A 的全部非零奇异值是AAH 或AHA的特征值λi 的平方根即σi λi 引理2 设矩阵A ?Rm ×n A 的SVD分解由引理1给出且奇异值满足σ1 ??σr σr 1 σr 2 σp 0 则σk minE?Rm ×nE F ?rank A E ?k - 1 并且存在一满足E F σk 的误差矩阵E使得rank A Ek k - 1 k 1 2 p 在图像描述中奇异值具有旋转不变性转置不变性镜像不变性以及平移不变性等优点因此在复杂图像特征等领域有着广泛的应用 在引理1中一个m x n维的图像矩阵的所有非零奇异值个数为p min mn 而现在的许多基于奇异值分解的人脸识别方法都是以p个奇异值或者p个奇异值和n-p个0元素组合构成的n维向量作为人脸识别特征的 在引理2中一个矩阵的奇异值与使得该矩阵秩减1的误差矩阵Ek的Frobenius范数相等因而在对奇异值进行适当压缩时不会影响图像的原有特性 基于阈值的人脸奇异值压缩降维方法 TCSVD 是对传统的奇异值压缩方法的一种改进 设σi i 1 2 r 是人脸矩阵A的所有非零奇异值T为已知阈值对此矩阵的奇异值σi处理 if σi ?T σi ?X else σi 0 可以看出该方法对奇异值进行了有效的降维因为较小的奇异值直接作为零值被忽略掉了X是由剩下的所有大于阈值T的非零奇异值构成的有效秩集合 p为图像的奇异值非零奇异值个数σi i 1 2 r 为人脸矩阵A的全部 非零奇异值因此阈值T的选取比较适中既考虑到算法的时间复杂度的减小又能有效的对人脸特征进行鉴别 com32小波特征奇异值阈值压缩与特征融合 小波特征奇异值阈值压缩与特征融合的具体实现步骤如下 1 对所获得的不同图像块的小波特征矩阵进行奇异值分解与阈值压缩表示边缘轮廓特征的局部特征向量而表示奇异值压缩后的特征向量对于表示人脸细节特征的低频分量是其奇异值压缩后的特征向量 2 分别对高低频分量奇异值阈值压缩特征与进行融合 是利用串行组合形式构造最终的鉴别特征其中β1 β2 为融合系数且满足β1 β2 1一般为了消除光照姿态和表情变化对边缘轮廓的影响并且突出人脸的形状和纹理细节局部特征取β1 β2 com4算法实现步骤 1 对原始输入图像进行分块并对每一块状人脸图像进行三层正交小波变换提取每个图像块的组合小波特征 2 对所得的组合小波特征进行奇异值分解与阈值压缩获得每个图像块的压缩奇异值特征 3 对每个图像块的压缩奇异值特征进行串行特征融合得到最终人脸鉴别特征 4 利用最近邻分类器对所得融合特征进行分类识别 3 人脸图像预处理实验 31 需求分析 顾名思义人脸识别系统的主要功能就是识别人脸系统可以通过摄像头获 取所需要的人脸并且通过对所获得图片的预处理对人脸进行定位和特征的提取因此人脸识别系统应该主要包含以下模块 1图像的获取 主要是通过摄像头捕获图像或者从已有图片库中获取图像 2图像的预处理 主要是对图像进行一些必要的处理比如光线补偿高斯平滑均衡直方图二值化变化等 3人脸检测与定位 主要是将预处理后的图片定位标记出眼睛鼻子嘴巴等 4人脸特征的提取 主要是将眼睛鼻子嘴巴等提取出来 5人脸的识别 将图片中提取得到的特征值和已有后台数据库中的值进行比较 32 预处理技术 该部分的作用主要是对所输入图像进行适当的处理使之具有的特征能够明显的显现出来通常该部分包括以下几个子模块 com 光线补偿 该模块主要解决系统所获得的图片存在的光线不平衡等情况消除对特征提取可能造成的影响 com 灰度变化 该模块的作用主要是把彩色图像转换为黑白图像使图像的信息更加具体简单的变现出来但这样会使图像的一些信息丢失因此要尽可能的在转化中用简 单的方式表现图像复杂的信息 com 高斯平滑处理 采集的图像会存在或多或少的影响比如一些不规则的噪声像图像传输存储时产生的数据丢失等故该模块主要用来处理这些噪声而我们也将这个过程称之为平滑平滑可以降低图像的视觉噪声除去图像中的一些高频部分使剩下的低频更容易识别 com 对比度增强 该模块主要是对图像的进一步处理通过对原始图像的每个像素直接进行灰度处理使图像的对比度进一步拉开其处理过程主要是通过增强函数对像素的灰度级进行运算结果作为图像新的灰度 com 直方图均衡 该模块的目的是使输入图像转换为每一灰度级上的相同点的数目把原始图像灰度直方图从比较集中的区域均匀分布到全部灰度范围内直方图变换式一般为 33 概要设计 系统流程图 34 程序设计与实验 com 光线补偿 com1算法思路 在对整个图像中所有像素亮度从高到低进行排列后取其前5的像素若这些像素的数量很多那么我们就将它们的亮度假定为参考白Reference White换句话说就是将它们的色彩的RGB分量值都调整为255同理这样处理整幅图像的其他像 素点的色彩值 com2 光线补偿的函数LightCompensate的伪代码[7] 下面的循环对图像进行光线补偿 for i 0i heighti for int j 0j widthj 获取像素偏移 lOffset this- PixelOffset ijwBytesPerLine 得到蓝色分量 lpDatalOffset colorb 绿色分量 colorb lpDatalOffset1 colorb co if colorb 255 colorb 255 lpDatalOffset1 colorb 红色分量 colorb lpDatalOffset2 colorb co if colorb 255 colorb 255 lpDatalOffset2 colorb com 图像灰度化 com1 算法思路 ? 彩色转换成灰度 彩色图像转化为灰阶图像一般采用如下公式使用RGB表示图像 gray,039×R,050×G,011×B 其中gray为灰度值RGB分别为红色绿色和蓝色分量值 ? 灰度比例变换 灰度比例变换是把原像素的灰度控制在[0255]空间主要通过乘以一个缩放因子实现 ? 灰度线性变换 有时成像时会因曝光不足或曝光过度而使得对比度不足从而使图像中的一些细节分辨不清因此要将图像的灰度进行线性扩展常用的计算式为 其中f是原像素的灰度g为变换后的灰度这个变换主要是把属于[ab]的灰度级变换至灰度区间[cd]而不属于[ab]区间的像素灰度将保持不变可见a被映射为cb被映射为d abcdfg均为[0255]之间的整数值 com2 灰度化的伪代码 获取分量蓝色绿色红色分别为 ColorB lpData lOffset ColorG lpData lOffset1 ColorR lpData lOffset2 计算灰度值 gray ColorG50ColorR39ColorB11 100 显示灰度图像 lpData lOffset gray lpData lOffset1 gray lpData lOffset2 gray 其中lpData是图片数据区lOffset是图片像素的偏移gray 是图像的灰度 值 com 高斯平滑处理 com1 图像的高斯平滑[] 图像的高斯平滑邻域平均的思想简单平滑图像的高斯平滑中图像邻域不同 位置的像素的权值模板靠近邻域中心的位置权值高更多地保留图像总体的灰度 分布特征把线性存储的像素转化为二维数组形式BYTE CreatImage BYTE image unsigned int width unsigned int height int bt 4 其中image表示线性存储的像素widthheight图像的长宽获得图像灰度RGB 求平均值的方法BYTE GetAsh BYTE imageBuf0 int x int y 其中imageBuf为目标图像xy为要取得像素的坐标设定指定位置的像素灰度 void SetPixelXY BYTE imageBuf1 int x int y int a 其中imageBuf为目标图像xy为要设定像素的坐标使用模板对灰度图邻 域进行运算int TempltExcuteAsh BYTE imageBuf0 int w int h int templt int tw int x int y 其中imageBuf为目标图像wh为图像templt为模板tw为邻域大小 xy 为要取得像素的坐标 [9] com3 预测效果 以墨西哥女郎的照片为例下图就是高斯平滑的对比图 com 直方图均衡 com1 直方图均衡的思想 直方图均衡化处理的是把原始图像的灰度直方图从比较集中的灰度区间全部灰度范围内的均匀分布直方图均衡化就是图像非线性拉伸重新分配图像像素值使一定灰度范围内的像素数量相同设原始图像在 xy 处的灰度改变后的可表述为将在 xy 处的灰度f映射为g在灰度直方图均衡化中图像的映射函数g EQ f 映射函数EQ f 必须满足两个条件 1 EQ f 在0?f?L-1 其中L为图像的灰度级数 范围内是一个函数保证处理打乱原始图像的灰度排列次序 2 对于0?f?L-1必有0?g?L-1保证了变换前后灰度值动态范围的一致性累计分布函数[] 累计分布函数 CDF cumulative distribution function 就能满足上述两个条件并且通过该函数可以完成将原图像f的分布转换成g的均匀分布此时的直方图均衡化映射函数为 gk EQ fk nin pf fi k 012L-1 求和区间为0到k根据该方程可以由源图像的各像素灰度值直接得到直方图均衡化后各像素的灰度值在实际处理变换时一般先对原始图像的灰度情况进行统计分析并计算出原始直方图分布然后根据计算出的累计直方图分布求出fk到gk的灰度映射关系在重复上述步骤得到源图像所有灰度级到目标图像灰度级的映射关系后按照这个映射关系对源图像各点像素进行灰度转换即可完成对 源图的直方图均衡化对于一个直方图 设 Pr r 是原始图像直方图Ps s 是均衡化的直方图由于其是一个概率分布函数 所以有 Ps s ds Pr r dr dsdr是积分变量 令 Ps s 1 ds Pr r dr1 两边积分得 s Pr r dr 由于数字图像是离散的因此离散化上式得 sk E j 0k njN 其中左式kj是离散量下标编辑关系E 0k 表示下标0到k的连加符号N是象素总数 由此得出每一象素的sk为均衡化后的正规化灰度即灰度正规化到[01] 统计sk即可得出均衡化后的直方图在均衡化过程中可以对每一象素映射到新的实际灰度值sk255就实现了图像的变换保存原始直方图double h new double[255] for i 0i 255i h[i] 00 保存变换后的直方图double nh new double[255] for i 0i 255i nh[i] 00 统计每一灰度级的象素数量long count new long[255] for i 0i 255i count[i] 0 for i 0i Ni count[image[i]] 统计正规化灰度概率 for i 0i 255i h[i] count[i] double N 正规化新灰度图 double hc for i 0i Ni hc 0 for j 0j image[i]j hc h[j] nh[image[i]] hc 保存新正规化灰度图 newimage[i] hc255 保存新图像灰度索引 随着毕业日子的毕业设计也接近尾声经过奋战我的毕业设计完成在没有做毕业设计前觉得毕业设计只是对这几年来所学知识的总结但是通过这次做毕业设计发现自己的看法有点毕业设计不仅是对前面所学知识的一种检验是对自己能力的一种提高人脸识别很具有研究和应用价值并且得到了越来越多的研究机构和公司的亲来在国家安全计算机交互家庭娱乐等其他很多领域有着举足轻重的作用对提高办事效率防止社会犯罪等有着重大的经济和社会意义因此我很幸运能够接触这一比较前言的技术了解其一些原理算法和系统的设计实现等在此 我得感谢在该方向做研究的我的指导老师----周欣老师 通过这次毕业设计使我学习是一个长期积累的过程在以后的工作生活中都应该不断的学习努力提高自己知识和综合素质此外还得出一个结论知识必须通过应用才能实现其价值有些东西以为学会了但真正到用的时候才发现是两回事所以我认为只有到真正会用的时候才是真的学会了在这次毕业设计中同学之间互相帮助有什么不懂的大家在一起商量听听不同的看法对我们更好的理解知识所以在这里非常感谢帮助我的同学 Gabor 小波矩阵表征人脸的识别算法》 计算机 工程第34期[9]蒋遂平人脸识别技术及应用简介中国计算机世界出版Boosting RBF 神经网络的人脸识别》 计算机科学2008年第135期 [5]杨洋曹向峰平衡《基于模型匹配人脸识别的研究》辽宁大学学报自然科学版 第35卷 [6]谢永华陈伏兵张生亮杨静宇 《基于分块小波变换与奇异值阈值压缩的人脸特征提取与识别算法》 计算机应用与软件 第25卷 [7]张薇广西工学院2005届毕业论文 [8]王耀贵图像高斯平滑滤波分析山东省潍坊卫生学校卢春雨张长水李衍达《人脸自动识别方法综述》 电子学报2000年4月 [10]百度百科 [11]李武军王崇骏张炜陈世福 《人脸识别研究综述》模式识别与人工智能 2006年2月 [12]陈北京王蔚宋加涛任小波 《一种融合二值边缘特征和灰度特征的人脸识别方法》 致 谢 感谢 附录 原文及译文 翻译原文来自 Thomas David Heseltine BSc Hons The University of York Department of Computer Science For the Qualification of PhD -- September 2005 - 《Face Recognition Two-Dimensional and Three-Dimensional Techniques》 4 Two-dimensional Face Recognition 41 Feature Localization Before discussing the methods of comparing two facial images we now take a brief look at some at the preliminary processes of facial feature alignment This process typically consists of two stages face detection and eye localisation Depending on the application if the position of the face within the image is known beforehand for a cooperative subject in a door access system for example then the face detection stage can often be skipped as the region of interest is already known Therefore we discuss eye localisation here with a brief discussion of face detection in the literature review section com The eye localisation method is used to align the 2D face images of the various test sets used throughout this section However to ensure that all results presented are representative of the face recognition accuracy and not a product of the performance of the eye localisation routine all image alignments are manually checked and any errors corrected prior to testing and evaluation We detect the position of the eyes within an image using a simple template based method A training set of manually pre-aligned images of faces is taken and each image cropped to an area around both eyes The average image is calculated and used as a template Figure 4-1 - The average eyes Used as a template for eye detection Both eyes are included in a single template rather than individually searching for each eye in turn as the characteristic symmetry of the eyes either side of the nose provides a useful feature that helps distinguish between the eyes and other false positives that may be picked up in the background Although this method is highly susceptible to scale ie subject distance from the camera and also introduces the assumption that eyes in the image appear near horizontal Some preliminary experimentation also reveals that it is advantageous to include the area of skin just beneath the eyes The reason being that in some cases the eyebrows can closely match the template particularly if there are shadows in the eye-sockets but the area of skin below the eyes helps to distinguish the eyes from eyebrows the area just below the eyebrows contain eyes whereas the area below the eyes contains only plain skin A window is passed over the test images and the absolute difference taken to that of the average eye image shown above The area of the image with the lowest difference is taken as the region of interest containing the eyes Applying the same procedure using a smaller template of the individual left and right eyes then refines each eye position This basic template-based method of eye localisation although providing fairly preciselocalisations often fails to locate the eyes completely However we are able to improve performance by including a weighting scheme Eye localisation is performed on the set of training images which is then separated into two sets those in which eye detection was successful and those in which eye detection failed Taking the set of successful localisations we compute the average distance from the eye template Figure 4-2 top Note that the image is quite dark indicating that the detected eyes correlate closely to the eye template as we would expect However bright points do occur near the whites of the eye suggesting that this area is often inconsistent varying greatly from the average eye template Figure 4-2 – Distance to the eye template for successful detections top indicating variance due to noise and failed detections bottom showing credible variance due to miss-detected features In the lower image Figure 4-2 bottom we have taken the set of failed localisations images of the forehead nose cheeks background etc falsely detected by the localisation routine and once again computed the average distance from the eye template The bright pupils surrounded by darker areas indicate that a failed match is often due to the high correlation of the nose and cheekbone regions overwhelming the poorly correlated pupils Wanting to emphasise the difference of the pupil regions for these failed matches and minimise the variance of the whites of the eyes for successful matches we divide the lower image values by the upper image to produce a weights vector as shown in Figure 4-3 When applied to the difference image before summing a total error this weighting scheme provides a much improved detection rate Figure 4-3 - Eye template weights used to give higher priority to those pixels that best represent the eyes 42 The Direct Correlation Approach We begin our investigation into face recognition with perhaps the simplest approachknown as the direct correlation method also referred to as template matching by Brunelli and Poggio [ 29 ] involving the direct comparison of pixel intensity values taken from facial images We use the term Direct Correlation to encompass all techniques in which face images are compared directly without any form of image space analysis weighting schemes or feature extraction regardless of the distance metric used Therefore we do not infer that Pearsons correlation is applied as the similarity function although such an approach would obviously come under our definition of direct correlation We typically use the Euclidean distance as our metric in these investigations inversely related to Pearsons correlation and can be considered as a scale and translation sensitive form of image correlation as this persists with the contrast made between image space and subspace approaches in later sections Firstly all facial images must be aligned such that the eye centres are located at two specified pixel coordinates and the image cropped to remove any background information These images are stored as greyscale bitmaps of 65 by 82 pixels and prior to recognition converted into a vector of 5330 elements each element containing the corresponding pixel intensity value Each corresponding vector can be thought of as describing a point within a 5330 dimensional image space This simple principle can easily be extended to much larger images a 256 by 256 pixel image occupies a single point in 65536-dimensional image space and again similar images occupy close points within that space Likewise similar faces are located close together within the image space while dissimilar faces are spaced far apart Calculating the Euclidean distance d between two facial image vectors often referred to as the query image q and gallery image g we get an indication of similarity A threshold is then applied to make the final verification decision d q g d threshold accept d threshold reject Equ 4-1 com Verification Tests The primary concern in any face recognition system is its ability to correctly verify a claimed identity or determine a persons most likely identity from a set of potential matches in a database In order to assess a given systems ability to perform these tasks a variety of evaluation methodologies have arisen Some of these analysis methods simulate a specific mode of operation ie secure site access or surveillance while others provide a more mathematical description of data distribution in some classification space In addition the results generated from each analysis method may be presented in a variety of formats Throughout the experimentations in this thesis we primarily use the verification test as our method of analysis and comparison although we also use Fishers Linear Discriminant to analyse individual subspace components in section 7 and the identification test for the final evaluations described in section 8 The verification test measures a systems ability to correctly accept or reject the proposed identity of an individual At a functional level this reduces to two images being presented for comparison for which the system must return either an acceptance the two images are of the same person or rejection the two images are of different people The test is designed to simulate the application area of secure site access In this scenario a subject will present some form of identification at a point of entry perhaps as a swipe card proximity chip or PIN number This number is then used to retrieve a stored image from a database of known subjects often referred to as the target or gallery image and compared with a live image captured at the point of entry the query image Access is then granted depending on the acceptancerejection decision The results of the test are calculated according to how many times the acceptreject decision is made correctly In order to execute this test we must first define our test set of face images Although the number of images in the test set does not affect the results produced as the error rates are specified as percentages of image comparisons it is important to ensure that the test set is sufficiently large such that statistical anomalies become insignificant for example a couple of badly aligned images matching well Also the type of images high variation in lighting partial occlusions etc will significantly alter the results of the test Therefore in order to compare multiple face recognition systems they must be applied to the same test set However it should also be noted that if the results are to be representative of system performance in a real world situation then the test data should be captured under precisely the same circumstances as in the application environmentOn the other hand if the purpose of the experimentation is to evaluate and improve a method of face recognition which may be applied to a range of application environments then the test data should present the range of difficulties that are to be overcome This may mean including a greater percentage of difficult images than would be expected in the perceived operating conditions and hence higher error rates in the results produced Below we provide the algorithm for executing the verification test The algorithm is applied to a single test set of face images using a single function call to the face recognition algorithm CompareFaces FaceA FaceB This call is used to compare two facial images returning a distance score indicating how dissimilar the two face images are the lower the score the more similar the two face images Ideally images of the same face should produce low scores while images of different faces should produce high scores Every image is compared with every other image no image is compared with itself and no pair is compared more than once we assume that the relationship is symmetrical Once two images have been compared producing a similarity score the ground-truth is used to determine if the images are of the same person or different people In practical tests this information is often encapsulated as part of the image filename by means of a unique person identifier Scores are then stored in one of two lists a list containing scores produced by comparing images of different people and a list containing scores produced by comparing images of the same person The final acceptancerejection decision is made by application of a threshold Any incorrect decision is recorded as either a false acceptance or false rejection The false rejection rate FRR is calculated as the percentage of scores from the same people that were classified as rejections The false acceptance rate FAR is calculated as the percentage of scores from different people that were classified as acceptances For IndexA 0 to length TestSet For IndexB IndexA1 to length TestSet Score CompareFaces TestSet[IndexA] TestSet[IndexB] If IndexA and IndexB are the same person Append Score to AcceptScoresList Else Append Score to RejectScoresList For Threshold Minimum Score to imum Score FalseAcceptCount FalseRejectCount 0 For each Score in RejectScoresList If Score Threshold Increase FalseAcceptCount For each Score in AcceptScoresList If Score Threshold Increase FalseRejectCount FalseAcceptRate FalseAcceptCount Length AcceptScoresList FalseRejectRate FalseRejectCount length RejectScoresList Add plot to error curve at FalseRejectRate FalseAcceptRate These two error rates express the inadequacies of the system when operating at a specific threshold value Ideally both these figures should be zero but in reality reducing either the FAR or FRR by altering the threshold value will inevitably result in increasing the other Therefore in order to describe the full operating range of a particular system we vary the threshold value through the entire range of scores produced The application of each threshold value produces an additional FAR FRR pair which when plotted on a graph produces the error rate curve shown below Figure 4-5 - Example Error Rate Curve produced by the verification test The equal error rate EER can be seen as the point at which FAR is equal to FRR This EER value is often used as a single figure representing the general recognition performance of a biometric system and allows for easy visual comparison of multiple methods However it is important to note that the EER does not indicate the level of error that would be expected in a real world application It is unlikely that any real system would use a threshold value such that the percentage of false acceptances were equal to the percentage of false rejections Secure site access systems would typically set the threshold such that false acceptances were significantly lower than false rejections unwilling to tolerate intruders at the cost of inconvenient access denials Surveillance systems on the other hand would require low false rejection rates to successfully identify people in a less controlled environment Therefore we should bear in mind that a system with a lower EER might not necessarily be the better performer towards the extremes of its operating capability There is a strong connection between the above graph and the receiver operating characteristic ROC curves also used in such experiments Both graphs are simply two visualisations of the same results in that the ROC format uses the True Acceptance Rate TAR where TAR 10 – FRR in place of the FRR effectively flipping the graph vertically Another visualisation of the verification test results is to display both the FRR and FAR as functions of the threshold value This presentation format provides a reference to determine the threshold value necessary to achieve a specific FRR and FAR The EER can be seen as the point where the two curves intersect Figure 4-6 - Example error rate curve as a function of the score threshold The fluctuation of these error curves due to noise and other errors is dependant on the number of face image comparisons made to generate the data A small dataset that only allows for a small number of comparisons will results in a jagged curve in which large steps correspond to the influence of a single image on a high proportion of the comparisons made A typical dataset of 720 images as used in section com provides 258840 verification operations hence a drop of 1 EER represents an additional 2588 correct decisions whereas the quality of a single image could cause the EER to fluctuate by up to 028 com Results As a simple experiment to test the direct correlation method we apply the technique described above to a test set of 720 images of 60 different people taken from the AR Face Database [ 39 ] Every image is compared with every other image in the test set to produce a likeness score providing 258840 verification operations from which to calculate false acceptance rates and false rejection rates The error curve produced is shown in Figure 4-7 Figure 4-7 - Error rate curve produced by the direct correlation method using no image preprocessing We see that an EER of 251 is produced meaning that at the EER threshold approximately one quarter of all verification operations carried out resulted in an incorrect classification There are a number of well-known reasons for this poor level of accuracy Tiny changes in lighting expression or head orientation cause the location in image space to change dramatically Images in face space are moved far apart due to these image capture conditions despite being of the same persons face The distance between images of different people becomes smaller than the area of face space covered by images of the same person and hence false acceptances and false rejections occur frequently Other disadvantages include the large amount of storage necessary for holding many face images and the intensive processing required for each comparison making this method unsuitable for applications applied to a large database In section 43 we explore the eigenface method which attempts to address some of these issues 4 二维人脸识别 41 功能定位 在讨论比较两个人脸图像我们现在就简要介绍的方法一些在人脸特征的初 步调整过程这一过程通常两个阶段组成人脸检测和眼睛定位根据不同的申请时 如果在面部图像的立场是众所周知事先对于合作的主题例如在门禁系统那么人 脸检测阶段通常可以跳过作为地区的利益是已知的因此我们讨论眼睛定位在这 里有一个人脸检测的文献简短讨论com眼睛定位方法用于对齐的各种测试二维 人脸图像集通篇使用这一节但是为了确保所有的结果都呈现代表面部识别准确 率而不是对产品的性能例行的眼睛定位所有图像路线是手动检查若有错误更正 前的测试和 评价 LEC评价法下载LEC评价法下载评价量规免费下载学院评价表文档下载学院评价表文档下载 我们发现在一个使用图像的眼睛一个简单的基于模板的位置方 法训练集的前脸手动对齐图像是采取和各图片进行裁剪以两只眼睛周围的地区 平均计算用形象作为一个模板图4-1 - 平均眼睛用作模板的眼睛检测两个眼睛 都包括在一个模板而不是单独为每个搜索因为眼睛任一鼻子两边对称的特点提 供了一个有用的功能可以帮助区分眼睛和其他可能误报被拾起的背景虽然这种 方法介绍了假设眼近水平的形象出现很容易受到规模即主体距离相机一些初步 试验还显示有利于包括眼睛下方的皮肤区域在某些情况下眉毛可以密切配合模 板特别是如果有在眼插座的阴影眼睛以下的皮肤面积有助于区分从眉毛眉毛下方的面积眼中包含的眼睛而该地区眼睛下面的皮肤只含有纯窗口是通过对测试图像和绝对差采取的这一平均眼睛上面显示的图像图像的最低差额面积作为含有眼中感兴趣的区域运用同样的程序使用小模板个人左右眼然后提炼每只眼睛的位置 这个基本模板的眼睛定位方法尽管提供相当精确的本地化往往不能找到完全的眼睛但是我们能够改善 计划 项目进度计划表范例计划下载计划下载计划下载课程教学计划下载 包括加权性能 眼睛定位是在执行训练图像然后被分成集两套在哪些眼检测成功那些在其中眼检测失败以成功的本地化设置我们计算平均距离眼睛模板图4-2顶部请注意该图像是非常黑暗的这表明发现眼睛密切相关的眼睛模板我们期望的那样然而亮点确实发生靠近眼睛的白人这表明这方面是不一致的不同模板图4-2 - 距离对眼睛模板成功检测上指出由于方差噪音和失败的检测下显示由于错过可信的差异检测功能在较低的图像图4-2下我们已经采取了失败的本地化设置在前额鼻子图像脸颊背景等虚假的检测本地化例程并再次从眼睛计算的平均距离模板明亮的学生由暗区包围表明一个失败的匹配往往由于鼻子和颧骨地区绝大多数的高相关性差相关的学生想强调地区差异的学生为这些失败的比赛尽量减少对眼睛的白人成功的变异比赛中我们除以上的形象价值较低的图像产生重矢量如图4-3所示当应用到差分图像在总结前一总误差这个比重计划提供了一个很大的提高检出率42直接相关方法 我们最简单的方法人脸识别调查称为直接相关方法也称为模板匹配的布鲁内利和波焦[29]涉及的像素亮度值直接比较取自面部图像我们使用的术语直接关系以涵盖所有在图像技术所面临的直接比较没有任何形式的形象空间分析加权计划或特征提取无论距离 度量使用因此我们并不推断皮尔逊的相关性作为应用相似的功能尽管这种做法 显然会受到我们的直接相关的定义我们通常使用欧氏距离度量作为我们的在这些调查负相关Pearson相关可以考虑作为一个规模和翻译的图像相关敏感的形式因为这与坚持对比了空间和子空间与图像的方法在后面的章节首先所有的面部图像必须保持一致这样的眼睛在两个中心位于指定的像素坐标和裁剪以消除任何背景的图像信息这些图像存储为65和82像素灰度位图前进入了5330元素每个元素包含向量转换确认相应的像素强度值每一个对应的向量可以被认为是说明在5330点的三维图像空间这个简单的原则很容易被推广到更大的照片由256像素的图像256占用一个 在65536维图像空间并再次指出类似的图像占据接近点在该空间同样类似的面孔靠近一起在图像空间而不同的面间距相距甚远计算欧几里得距离d两个人脸图像向量通常称为查询图像Q和画廊图像克我们得到一个相似的迹象然后用一个阈值使 最后核查的决定d q g d threshold accept d threshold reject Equ 4-1 com试 任何一个人脸识别系统的主要关注的是它能够正确地验证声称的身份或确定一个人的最可能的身份从一个潜在的集数据库中为了评估一个给定的系统的能力来执行这些任务不同的评价方法其中的一些分析方法模拟一个具体的运作模式即安全网站的访问或监视而 其他人提供更多的数据分布的数学描述中的一些分类空间此外每个分析结果产生的方法可能 提交的各种格式 在本论文的整个实验我们主要使用验证考验我们的方法分析和比较虽然我们也使用费舍尔的线性判别分析在第7个个人组件和子空间鉴定试 验中的第8条所述的最终评价核查措施的测试系统的能力正确地接受或拒绝一个人的身份提出在一个功能级别这样可以减少到两个图像正在为比较介绍该系统必须对任何一个接受返回两个图像是同一人或拒绝两个不同的图像人该测试旨在模拟安全网站访问的应用领域在这种情况下一个主题将在一入境点一些形式的身份证件或许是刷卡接近芯片或PIN号码这个数字然后用于检索数据库中的已知对象通常被称为目标1存储的图像画廊或图像并在入境点捕获的现场图像比较查询图像访问是根据当时获得的接受拒绝的决定 测试结果计算出多少倍的接受拒绝决定是正确的为了执行这项测试中我们必须首先确定我们的测试人脸图像集虽然图像的测试集的数量不会影响结果产生的误差利率作为形象比较百分比指定重要的是要确保测试集是足够大这样的统计异常变得不重要例如一个非常一致的匹配以及图像的情侣另外影像的类型照明高度变化部分遮挡等将显着改变的结果测试因此为了比较多个面部识别系统他们必须适用于相同的测试集但是还应该指出如果结果将系统性能的代表在现实世界中的情况然后测试数据应根据被捕获正是在同样情况下的应用环境另一方面如果该实验的目的是评估和完善人脸识别方法可应用到产品的应用范围环境那么测试数据应目前的困难要范围克服这可能意味着包括一个难的图片比这个大的百分比可以预期的操作条件因此被认为较高的错误率产生的结果 以下我们提供了执行验证测试算法该算法适用于单个测试人脸图像集使用一个函数调用在脸上识别算法CompareFacesFaceAFaceB这一呼吁是用来比较两个面部图像返回距离评分说明如何在两个不同的人脸图像为得分越低越相似的两个人脸图像理想情况下图像的同样面对的是要生产低分数而应产生不同的面孔图像高分每一个形象与所有其他形象相比没有图像进行比较并与自身没有一双比较不止一次我们假设关系 是对称的当两个图像进行比较产生相似性评分地面真相用于确定是否对图像的同一人或不同的人在实际这些信息往往是测试封装为图片文件名通过一个手段部分独特的人标识符比分然后存储在两个列表之一一份列出通过比较不同人的形象和产品清单其中分数通过比较产生的同一人图像最终的接受拒绝决定是由一个门槛的申请任何不正确的决定记为无论是虚假或错误拒绝接受该错误拒绝率FRR的计算方法作为得分从被认为是在拒绝归类相同的百分比该错误接受率FAR是按不同的分数比例被认为是在接受归类的人 For IndexA 0 to length TestSet For IndexB IndexA1 to length TestSet Score CompareFaces TestSet[IndexA] TestSet[IndexB] If IndexA and IndexB are the same person Append Score to AcceptScoresList Else Append Score to RejectScoresList For Threshold Minimum Score to imum Score FalseAcceptCount FalseRejectCount 0 For each Score in RejectScoresList If Score Threshold Increase FalseAcceptCount For each Score in AcceptScoresList If Score Threshold Increase FalseRejectCount FalseAcceptRate FalseAcceptCount Length AcceptScoresList FalseRejectRate FalseRejectCount length RejectScoresList Add plot to error curve at FalseRejectRate FalseAcceptRate 这两个错误率反映了系统的不足之处时在一经营特定的阈值理想情况下这两个数字应该是零但在现实中无论是远或减少财政资源规则通过改变阈值将不可避免地导致在增加其他因此为了描述一个完整的工作范围尤其是系统的我们通过不同的分数范围的阈值每个阈值应用程序产生一个额外的容积率财政资源规则对它绘制在图表上时产生的错误率曲线所示图4-5 - 范例错误率曲线的验证测试生成等错误率能效比可以被看作是点远远等于财政资源规则这能效比值通常被用来作为一个单一的代表普遍承认的数字生物识别系统的性能和视觉比较容易允许多个方法不过重要的是要注意能效比未注明级别错误这将是在一个真实世界中的应用预期这是不太可能有真正的 系统将使用一个阈值这样的虚假承兑百分比等于拒绝虚假的百分比安全网站接入系统通常会设置的门槛例如虚假承兑汇票均显着高于假拒绝不愿意容忍入侵者在访问不便否认成本另一方面监控系统将要求低错误拒绝率成功地确定一个受控环境中的人少因此我们应该承担记住一个具有较低的能效比制度不一定是最好的表演实现其经营能力的极端有一图形和接收器强大的连接操作特征ROC曲线亦在此类实验中使用这两个图是完全相同的结果在这视觉效果中格式使用真验收率西藏自治区其中西藏自治区 10 - 在地方财政资源规则的有关规则有效地翻转图垂直另一个验证试验结果的可视化同时显示 FRR和职能的阈值此演示文稿格式提供一参照确定阈值要达到一个特定的FRR该能效比可以被看作是点的两条曲线相交图4-6 - 范例错误作为得分率阈值函数 曲线这些错误的波动曲线由于噪音和其他错误是依赖于人脸图像进行比较的数目便可生成的数据只有一个小的数据集允许一个比较小的数目一锯齿状曲线将结果在其中大步骤对应于一个单一的形象影响了高比例比较的作为第一个使用720 com典型数据提供258840核查行动从而为1,能效比下降代表了额外的2588正确的决策而一个单一的图像质量可能会导致对能效比波动达028 com为一个简单的实验测试方法直接相关我们应用技术上文所述的60 720图像不同的人从机场铁路在内集测试人脸库[39]每一个形象比喻的每一套测试其他图像产生相似评分提供258840从中核查行动计算错误接受率和错误拒绝率该错误产生的曲线如图4-7所示 图4-7 我们看到了251,能效比产生这意味着在能效比门槛大约有四分之一的所有核查活动的结果进行了一不正确的分类有一对这个水平众所周知的原因微小的变化照明或头部位置方向导致在图像空间发生很大变化在面对空间图像被移到相遥远这些图片拍摄条件尽管是同一个人的脸距离不同的人之间的形象变得比面对覆盖面积较小的空间由同一人的图像因而拒绝虚假承兑汇票及虚假发生频繁其他缺点包括大量的存储需要许多持有人脸图像和深加工为每个需要比较为使这一方法适用于大型数据库应用程序不合适在第43我们探索的特征脸方法试图解决其中一些问题 45
本文档为【计算机科学与技术毕业论文--人脸识别技术综述】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
is_153723
暂无简介~
格式:doc
大小:97KB
软件:Word
页数:42
分类:工学
上传时间:2017-09-01
浏览量:71