您的位置:首页 > 移动开发 > Objective-C

objective-c中如何从UIImage中获取像素信息

2015-08-18 10:03 543 查看
翻译自Obtaining pixel data from a UIImage

UIImage是我们在ios中非常熟悉的数据结构了,用它来存储图片非常方便。在OpenCV类库中,使用是另外的数据结构来存储图片,这时,我们就面临一个问题:如何才能把UIImage装换为其他类库也能识别的数据结构呢?

尽管不同的图片处理类库有不同的数据结构来处理图片,但是有一种结构是被所有的图片处理类库所识别的,那就是raw格式,也称之为原生格式。在raw格式中,每个像素通过一个unsigned byte的数组来表示,这个数组中存储了这个像素的RGBA值或者灰度值。如果你处理的是视频格式,你可能需要使用YUV,否则,你需要使用的就是RGBA值或者灰度值,这些信息会被存储在一个数组中。你可能会想,我如何才能从UIImage中方便的获取相应的像素信息呢?啊哈,你有福了。我实现了一个Category来解决这个问题,如下:

UIImage+Pixels.h

UIImage+Pixels.m

#import <UIKit/UIKit.h>

@interface AlphaPixels : NSObject
{
unsigned char* pixelData;
int width;
}

-(id) initWithImage: (UIImage*) image;
-(float) alphaAtX:(int) x y:(int) y;

@end


#import "AlphaPixels.h"
@implementation AlphaPixels
-(id) initWithImage: (UIImage*) image
{
width = image.size.width;
int height = image.size.height;
pixelData = malloc( width * height );
if( !pixelData )
{
NSException *exception = [NSException exceptionWithName:@"AlphaPixelsException"
reason:@"Unable to allocate memory for pixel data"
userInfo:nil];
@throw exception;
}
CGContextRef context = CGBitmapContextCreate ( pixelData,
width,
height,
8,
width,
NULL,
kCGImageAlphaOnly );

if( !context )
{
NSException *exception = [NSException exceptionWithName:@"AlphaPixelsException"
reason:@"Unable to create bitmap context"
userInfo:nil];
@throw exception;
}
CGContextDrawImage( context, CGRectMake(0, 0, width, height), image.CGImage );
CGContextRelease( context );
return self;
}
-(void) dealloc
{
free( pixelData );
[super dealloc];
}
-(float) alphaAtX:(int) x y:(int) y
{
return pixelData[y * width + x]/255;
}

@end


你可以使用如下代码来获取每个像素的灰度值:

for(int i=0;i<self.size.height;i++)
{
for(int y=0;y<self.size.width;y++)
{
NSLog(@"0x%X",pixelData[(i*((int)self.size.width))+y]);
}
}


由于0x00代表没有亮度,而0xFF代表最大的亮度,所以,对于黑色的图片,返回的是一系列的0x00,对于白色的照片,返回的是一系列的0xFF。

你可以使用如下代码获取每个像素的RGBA值:

for(int i=0;i<self.size.height;i++)
{
for(int y=0;y<self.size.width;y++)
{
unsigned char r = pixelData[(i*((int)self.size.width)*4)+(y*4)];
unsigned char g = pixelData[(i*((int)self.size.width)*4)+(y*4)+1];
unsigned char b = pixelData[(i*((int)self.size.width)*4)+(y*4)+2];
unsigned char a = pixelData[(i*((int)self.size.width)*4)+(y*4)+3];
NSLog(@"r = 0x%X g = 0x%X b = 0x%X a = 0x%X",r,g,b,a);
}
}


对于红色的图片,你会得到如下结果:r = 0xFF g = 0×0 b = 0×0 a = 0xFF

对于蓝色的图片,你会得到如下结果:r = 0×0 g = 0×0 b = 0xFF a = 0xFF

对于每个像素,需要通过red, green, blue, alpha四个值来代表,即RGBA值。对于alpha值,你可能会感到疑惑,这个值是标志图片的不透明度的,0x00代表100%透明,0xFF代表100%不透明。我发现,在大多数图片处理中,你最好忽略alpha这个值。

下面我们来讨论下如何从UIImage中取出某个特定坐标的像素?

对于灰度值,由于每个像素只由一个值代表,故我们可以把一张图片的像素布局看成一个表格,每个像素有自己的一个索引,对于第一个像素它的索引是(0, 0),第二个像素索引是(1, 0)。用如下代码即可取到对应坐标的像素的灰度值:

int x = 10;
int y = 2;
unsigned char pixel = pixels[(y*((int)whiteImage.size.width))+x];


对于RGBA值,基本原理和上面的灰度值一样,但是需要注意的一点是,RGBA值需要四个字节来去表示一个像素。

int x = 10;
int y = 2;
unsigned char pixel = pixels[(y*((int)whiteImage.size.width)*4)+(x*4)];


如果你看到了这里,那就说明你已经能够从UIImage中获取像素信息了,Congratulations! 但是,最后有一点非常重要的事情你需要注意。你使用完这些方法给你的数据之后,你需要手动的去free这些数据,否则就会出现内存泄露。可能有些人会疑惑我为什么把返回值设定为(unsigned char*)而不是一个NSArray,答案很简单,直接操作(unsigned char*)要比操作NSArray快很多,而我的方法默认是为那些对操作速度要求很高的同学提供的。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: