有人知道在PHP中进行检测的好方法吗? 我遇到了这里有一些代码声称这样做的代码,但我似乎无法使其正常工作.我想做这项工作(即使它会很慢),您可以给我的任何帮助都将不胜感激. 这是链接的代码:
以下是关于 face-detection 的编程技术问答
我有一个非常大的照相馆,有成千上万的人,对象,位置,事物.照片中的大多数人都有自己的用户帐户和阿凡达照片可以匹配的.根据每张照片可用的其他数据,也有可能在照片中的逻辑简短列表.我允许用户与他们的朋友和认识的人一起标记照片,但是自动化过程会更好. 我已经使用了face.com的照片标记器/查找器与Facebook照片集成,而Google Picasa Photo for Personal Albums也做了同样的事情,这正是我要做的. 是否有用于Google Picasa,face.com或其他识别服务的PHP脚本,或其他提供服务器端面部面部识别和/或按相似性分组照片的开源项目? 示例:,如您所见,各种照片共享网站提供了该功能,但是是否有为存储在我自己的服务器上存储的图像的API,或者有足够的广泛链接到我自己的画廊中和标记系统? php-纯php中的面部检测 /li> opencv face.com - 用于在Facebook中查找和标记照片的应用> Googl
对于大学,我已经开发了有关面部检测的Android的应用程序. 为此,我在画廊上保存了各种照片. 问题在于,保存照片后,画廊不会更新. 更确切地说,如果我删除要保存图像的目录,我打开应用程序并拍摄照片,然后进入画廊,然后在"更新"之后看到照片. 但是,一旦我拥有该目录,如果我拍了一张新照片,这不会覆盖旧图片. 在线我发现了这个: sendBroadcast(new Intent(Intent.ACTION_MEDIA_MOUNTED,Uri.parse("file://" + Environment.getExternalStorageDirectory()))); ...但是它不起作用! 这是我的代码: . . . ImageButton buttonPicture = (ImageButton) findViewById(R.id.camera_surface_button);
我正在研究OSX Mavericks上的一些面部检测代码,我正在尝试利用Cidetector提供的多个静止功能的Newish(10.8)面部跟踪. 我的基本面部检测正常工作,就像: - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection { CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); CIImage *image = [CIImage imageWithCVImageBuffer:imageBuffer]; CIDetector *faceDetector = [CIDete
我正在尝试实现内置的iOS 5脸检测API.我正在使用UIImagePickerController的实例来允许用户拍照,然后我尝试使用CIDetector来检测面部功能.不幸的是,featuresInImage总是返回一个大小为0的数组. 这是代码: - (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary *)info { UIImage* picture = [info objectForKey:UIImagePickerControllerOriginalImage]; NSNumber *orientation = [NSNumber numberWithInt: [picture imageOrientation]]; NSDictionary *image
我想通过缩放图像来优化我的面部检测算法.什么是最好的方法?我是否应该使用CVPYRDOWN(如我在一个例子中看到的,到目前为止取得不良的结果),CVResize或其他功能? 解决方案 如果您只想扩展图像,请按照Adrian Popovici的建议使用cvResize. cvPyrDown将应用高斯模糊以使图像平滑,然后默认情况下它将通过拒绝均匀的列和行,将图像换成两个因子.这种平滑可能会降低您的性能(我不确定它如何影响检测算法).表现不佳的另一种可能性可能是仅掉下行和列而造成的不连续性.而cvResize则可以使面部检测更好地工作. 此处是cvPyrDown上的文档,有关所使用的确切内核的更多信息. 其他解决方案 用于缩放图像我将使用: void cvResize(const CvArr* src, CvArr* dst, int interpolation=CV_INTER_LINEAR ) 要缩小图像,通常使用CV_INTER_AREA插值看起来最好
我已经成功地使用OpenCV-2.1.0(CVHAardEtectObjects)中的HAAR算法来检测iOS 4.2的Objective-C项目中的图片和视频帧中的面孔.但是,在大多数情况下,在iPhone 4上,视频框架的处理时间仍需要大约1-2秒.我正在使用的代码的示例如下: NSString *path = [[NSBundle mainBundle] pathForResource:@"haarcascade_frontalface_alt" ofType:@"xml"]; CvHaarClassifierCascade* cascade = (CvHaarClassifierCascade*)cvLoad([path cStringUsingEncoding:NSASCIIStringEncoding], NULL, NULL, NUL
IM试图使用GPUIMAGE框架的GpuimagePoissonBlendFilter将我的脸部混合使用混合使用.这是我的代码. - (void)applyPoissonBlendToImage:(UIImage *) rearFace withImage:(UIImage *) frontFace { GPUImagePicture* picture1 = [[GPUImagePicture alloc] initWithImage:rearFace]; GPUImagePicture* picture2 = [[GPUImagePicture alloc] initWithImage:frontFace]; GPUImagePoissonBlendFilter * poissonFilter = [[GPUImagePoissonBlendFilter alloc] init]; poissonFilter.mix
我使用opencv2在 python 中具有脚本来检测面部.我在网络摄像头上拍摄视频,并使用Haar Cascade进行检测.我想摆脱一帧中检测到的面孔的数量.我知道这可以通过在发现脸时计数矩形来完成.怎么做?如何在一个帧中计数矩形? import cv2 import sys faceCascade = cv2.CascadeClassifier("haarcascade_frontalface_default.xml") video_capture = cv2.VideoCapture(0) while True: # Capture frame-by-frame ret, frame = video_capture.read() gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) faces = faceCascade.detectMultiScale( gray,
我知道这是最重复的问题之一,但是,在付出了很多努力之后,在任何地方都找不到工作解决方案. 这确实是一个杀人问题,尽管对于专家而言,这可能是一个简单的问题. 我正在研究 opencv haar cascade 分类器.(例如:面部检测,眼对检测) 我刚刚从" openCV-2.4.9-android-sdk"中获取面对检索样本代码.样品. 此示例代码设置为景观模式,一切正常 fine . 但是,我想让分类器在肖像模式下工作.我知道haar 分类器 不是与肖像模式一起工作. 当OpenCV使用" camerabridgeviewbase "时,我d n n a d 没有所有控件可以播放相机的分辨率并显示 屏幕上的图像.(预览) 现在,当我将屏幕方向设置为" android:screenorientation =" portrait" 时,图像是旋转 90DEG时钟 Wise. > 我尝试了什么: 在不旋转的情况下预览肖像映像:我通过添加
我正在寻找已经受过训练的面部基准点的哈卡斯德(左眼的左角,左眼的左角,右眼的左角,右眼的左角,右眼的右角,嘴的左角,嘴的左角,嘴的右角,鼻子的中心和右侧). 有人知道在哪里可以下载已经训练有素的Haarcascades来与OpenCV的VJ功能一起使用? 解决方案 如果我没有那么错误,则Haarcascade可以与没有特定点的对象一起使用. OPENCV数据文件夹中的鼻子,眼睛和口腔已经有分类器.您可以通过使用特殊和明智的探测算法(使用您的想象力和思想)来发现它们的眼睛,鼻子和嘴巴. 在这里示例; CascadeClassifier cascade; cascade.load("haarcascade_eye.xml"); Mat im = imread("photo.jpg",0); //0 flag for grayscale vector eyes; cascade.detectMultiScale(im, eyes, 1.2, 3);
我尝试使用VS2010来运行面对的OPENCV样品. 调试结果" facedetect.exe中的0x53fa42bf的未经手法异常:0xc0000005:访问违规写作位置0x00000000." 这是代码 txt文件: http://ebooks-libs.com/backup/backup/facdeetect-opencv2. 1.TXT CPP文件: http://ebooks-libs.com/backup/backup/facdetect.cpp br/> #include "stdafx.h" #include #include #define CV_NO_BACKWARD_COMPATIBILITY #include "cv.h" #include "highgui.h" #ifdef _EiC #define WIN32 #endif using namespace std; using namespace cv;
我只是试图通过CV2视频捕获来检测并识别框架中的面孔.为了检测,使用张量流的实现面部检测/对齐算法 https://github.com/kpzhang93/mtcnn_face_detection_alignection_alignment . MTCNN面部检测过程没有内置网络摄像头和与USB连接的外部摄像头的滞后.但是,当它来自IP摄像机时,检测算法有相当大的滞后.该算法比内置摄像头要花费更多的时间来处理IP摄像机的单帧.图像分辨率,图像细节之类的参数可能会产生影响.要进一步理解它,除了分辨率和图像细节外,要了解所有参数有什么影响. 注意的框架矩阵值在内置网络摄像头和IP摄像头方面有所不同.它与Linux vs Windows不同.框架矩阵值如何计算?哪些参数定义了框架矩阵值?想知道带有Windows OS的内置网络摄像头的帧矩阵值始终为0. 内置网络摄像头(Windows)分辨率480.0 640.0. python印刷的框架矩阵 video_capture = cv
我是Python的新手,我正在尝试根据MPEG7进行归一幅图像,以获取面部检测算法,但是我在将眼睛坐标更改为指定的问题时遇到了问题,所以我的问题是如何在矩阵上移动眼睛坐标,例如右眼[50,70]和左眼[65,72],我想将其坐在右眼[15,24]左眼[32,24]. 正确地,我已经通过Haar Cascade完成了脸和眼睛的检测, 我已经执行了面部旋转,并且已经进行了缩放. 但是,MPEG7指出,应将图像归一化46乘56个单色,并分别在第24行和第16和32列的水平对齐. 对于代码,我遵循了此链接 https://datahacker.rs/010-how -to-align-faces-with-opencv-in-python/ 解决方案 因此,我的方法假设您在眼睛和应在哪里的坐标(指数)以及坐标(指数)旁边赋予了任何(彩色)图像.然后 移动图像使眼中的中点位于图像的中点(之后中点位于所需位置), 通过通过眼坐标的线的斜率描述的角度旋转移动的图像,并通过图像中心围绕
我一直在尝试OpenCV中的对象进行. 遵循几个步骤.. 将其调整为64x64分辨率 将其更改为灰度 获取XML以进行对象检测 绘制矩形条纹 但是,我无法实现. 这是我的代码: #include #include "cv.h" #include "highgui.h" #include using namespace cv; using namespace std; int main() { IplImage* img; img = cvLoadImage( "hindi3.jpg" ); vector objects; // ***Resize image to 64x64 resolution*** IplImage *resizeImage = cvCreateImage(cvSize(64,64),8,3); cvResize(i
我正在使用OpenCV 2.4.9,Java语言和Eclipse.我的面部检测代码在下面给出.问题是如何将检测到的脸部裁剪并将其存储在文件夹中? 我为此努力,但无法获得所需的输出. package code03; import java.awt.Graphics; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.image.BufferedImage; import javax.swing.JButton; import javax.swing.JFrame; import javax.swing.JPanel; import javax.swing.JTextField; import org.opencv.core.Core; import org.opencv.core.Mat; import org.opencv.core.MatOfR
I've followed 本教程,并设法进行了面部检测,年龄+性别,例如现在我面临的问题是应用程序的窗口大小很小,我不知道,也找不到调整大小的方法( 右下角您可以看到窗口). 应用程序代码可以是 P> 解决方案 解决方案无论您设置了尺寸, import cv2 def main(): windowName = "Main" cv2.namedWindow(windowName) cap = cv2.VideoCapture(0) print('Width :' + str(cap.get(3))) print('Height :' + str(cap.get(4))) cap.set(3, 620) cap.set(4, 720) if cap.isOpened(): ret, frame = cap.read() else: ret = False
当我使用iPhone摄像头拍照时,我如何才能实现实时的面部检测? 就像示例一样: http://www.morethantechnical.com/2009/08/09/near-realtime-face-face-detection-on-the-porhone-the-iphone-w--port-port-port-port-wcodevideo/ (此示例不提供.xcodeproj,所以我无法编译.cpp文件) 另一个示例:/104154581/face-tetection-iphone-source (无法编译) 您有任何解决方案吗?请伸出手! 解决方案 等待 ios 5 : 在相机中创造出惊人的效果 和带有核心的图像编辑应用程序 图像.核心图像是 硬件加速框架 提供了增强照片的简便方法 和视频.核心图像提供 几个内置过滤器,例如 颜色效果,扭曲和 过渡.它还包括高级 诸如自动增强,红眼等功能 减少和面部识别.
我通过以下链接 解决方案 我不知道是否有任何库,但是使用Aleksandra Królak and Paweł Strumiłło文章> Aleksandra Królak and Paweł Strumiłło中的技术(您可以下载此处 和这里,这里有一些简化版本)是一个不错的选择.通常,此技术非常简单: 找到眼睛(或两只眼睛).记住图像的这一部分作为模板. 在下一个帧中,使用某种类型(作者使用了归一化的跨相关方法,但是您可以尝试其他类型-OpenCV 几乎没有实现的相关方法,以找到与模板相似的区域.具有最高相关值(很可能)的位置将是眼睛. 如果相关值>与眼睛相比,某些_threshold_value是打开的,否则将其关闭. 作者使用的阈值值是文章中的,但是当我使用此技术时,我使用了其他值,因此您很可能需要自行找到案例的值.