【原】SDWebImage源码阅读(四)
【原】SDWebImage源码阅读(四)
本文转载请注明出处 —— polobymulberry-博客园
1. 前言
SDWebImage中主要实现了NSURLConnectionDataDelegate的以下方法:
- - (void)connection:(NSURLConnection *)connection didReceiveResponse:(NSURLResponse *)response;
- - (void)connection:(NSURLConnection *)connection didReceiveData:(NSData *)data;
- - (void)connectionDidFinishLoading:(NSURLConnection *)connection;
- - (nullable NSCachedURLResponse *)connection:(NSURLConnection *)connection willCacheResponse:(NSCachedURLResponse *)cachedResponse;
以及NSURLConnectionDelegate的以下方法:
- - (void)connection:(NSURLConnection *)connection didFailWithError:(NSError *)error;
- - (BOOL)connectionShouldUseCredentialStorage:(NSURLConnection *)connection;
- - (void)connection:(NSURLConnection *)connection willSendRequestForAuthenticationChallenge:(NSURLAuthenticationChallenge *)challenge;
足足有7个函数需要实现,好多啊。具体来看看每个代理方法大概是做什么的。
2. - (void)connection:(NSURLConnection *)connection didReceiveResponse:(NSURLResponse *)response
我们都知道HTTP报文是面向文本的,报文中的每一个字段都是一些ASCII码串。HTTP有两类报文,分别是Request和Response。HTTP的Response报文由三个部分所组成,分别是:状态行、消息报头、响应正文。
此处代理实现的方法中,只使用了Response的状态码,即statusCode。注意HTTP的statusCode小于400表示正常码。但是304码表示文档的内容(自上次访问以来或者根据请求的条件)并没有改变,这里我们在获取图片时考虑直接使用Cache,所以statusCode为304时会单独处理。
于是有了下面的框架:
if (![response respondsToSelector:@selector(statusCode)] || ([((NSHTTPURLResponse *)response) statusCode] < 400 && [((NSHTTPURLResponse *)response) statusCode] != 304)) { // ...
} else { if (code == 304) { // ... } else { // ... } }
如果Response返回正常码,并且不为304,即if语句中的内容:
// 根据response中的expectedContentLength来给self.expectedSize进行赋值 // 而self.expectedSize此处表示响应的数据体(此处为imageData)期望大小 // 注意expectedContentLength为-1时,expectedSize赋值为0 NSInteger expected = response.expectedContentLength > 0 ? (NSInteger)response.expectedContentLength : 0; self.expectedSize = expected; // 使用用户自定义的progressBlock if (self.progressBlock) { self.progressBlock(0, expected); } // expected大小此处表示的就是imageData的期望大小,也就是说imageData最后下载完成大概会这么大 // 所以收到响应后,就初始化一个NSMutableData,用来存储image数据 self.imageData = [[NSMutableData alloc] initWithCapacity:expected]; // 不解释,因为我发现SDWebImage只在此处使用了self.response // 应该是暴露给用户使用的 self.response = response; // 不过好像SDWebImage中并没有addObserver这个SDWebImageDownloadReceiveResponseNotification // 可能需要用户自己去使用addObserver dispatch_async(dispatch_get_main_queue(), ^{ [[NSNotificationCenter defaultCenter] postNotificationName:SDWebImageDownloadReceiveResponseNotification object:self]; });
如果response返回错误码,即else中的语句:
// 获取statusCode NSUInteger code = [((NSHTTPURLResponse *)response) statusCode]; if (code == 304) { // 当服务器端返回statusCode为“304 Not Modified”,意味着服务器端的image并没有改变,
// 此时,我们只需取消connection,然后返回缓存中的image
// 此时返回码是正确码(小于400),只是不需要进行多余的connection网络操作了,所以单独调用
// cancelInternal [self cancelInternal]; } else { [self.connection cancel]; }
// 同SDWebImageDownloadStartNotification
dispatch_async(dispatch_get_main_queue(), ^{ [[NSNotificationCenter defaultCenter] postNotificationName:SDWebImageDownloadStopNotification object:self]; }); // 因为出错了,所以直接调用completedBlock并返回错误状态码 if (self.completedBlock) { self.completedBlock(nil, nil, [NSError errorWithDomain:NSURLErrorDomain code:[((NSHTTPURLResponse *)response) statusCode] userInfo:nil], YES); } // 出错了,所以停止这个RunLoop // 我们会自然想到start函数中的CFRunLoopRun函数会结束 CFRunLoopStop(CFRunLoopGetCurrent()); // 最后在done中调用reset回收资源 并置finished为YES,executing为NO [self done];
3. - (void)connection:(NSURLConnection *)connection didReceiveData:(NSData *)data
这一步是实实在在的获取到了数据,第一步先将获取到的data串到self.imageData上。因为如果image比较大的话,会多次调用didReceiveData,这样一个image就分成很多块了,所以每次receive到data,就串起来:
[self.imageData appendData:data];
但是我们发现这个函数总体套在一个if语句中:
if ((self.options & SDWebImageDownloaderProgressiveDownload) && self.expectedSize > 0 && self.completedBlock) { // ... }
为什么会出现这个选项了?我觉得主要是为了单独处理SDWebImageDownloaderProgressiveDownload,回顾一下,这个选项是在SDWebImageManager中的downloadImageWithURL中赋值的:
if (options & SDWebImageProgressiveDownload) downloaderOptions |= SDWebImageDownloaderProgressiveDownload;
SDWebImageProgressiveDownload表示image的显示过程是随着下载的进度一点点进行的,而不是下载完成后,一次显示完成。这就可以理解了,因为要随着下载进度显示,所以每接收到新的data,就要显示一下。为什么还需要completedBlock呢?因为在didReceiveData中只是获取到了imageData,但是还需要显示在imageView上呢?那就得使用completedBlock来进行处理。所以SDWebImageProgressiveDownload默认的图片显示是交给用户进行处理的。至于expectedSize为什么要大于0我就不是很清楚了。
所以在函数结尾处,我们可以看到:
dispatch_main_sync_safe(^{ if (self.completedBlock) {
// 处理此时获得到的image
self.completedBlock(image, nil, nil, NO);
}
});
那么image是怎么产生的呢?可以看到上层包裹着一个if语句:
// partialImageRef是一个CGImageRef类型的值,本质还是self.imageData
if (partialImageRef) {
// 从CGImageRef转化为UIImage,scale你可以理解为图片后缀为@1x,@2x,@3x需要放大的倍数
// 至于orientation后面会讲,暂时理解图片的朝向 UIImage *image = [UIImage imageWithCGImage:partialImageRef scale:1 orientation:orientation]; // 有时候你不想直接把图片的url作为cache的key,因为有可能图片的url是动态变化的
// 所以你可以自定义一个cache key filter
// 我还没使用过filter,所以这里一般来说就是获得到了image的url
NSString *key = [[SDWebImageManager sharedManager] cacheKeyForURL:self.request.URL];
// scaledImageForKey是SDWebImageCompat的一个函数,主要是根据image名称中
// @2x,@3x来设置scale,并通过initWithCGImage来获得image,下面会详解 UIImage *scaledImage = [self scaledImageForKey:key image:image];
// 判断是否要压缩图片,初始化默认是要压缩图片的 if (self.shouldDecompressImages) {
// 下面会详解decodedImageWithImage image = [UIImage decodedImageWithImage:scaledImage]; } else { image = scaledImage; }
// 释放资源
CGImageRelease(partialImageRef);
// 上面解释过了 dispatch_main_sync_safe(^{ if (self.completedBlock) { self.completedBlock(image, nil, nil, NO); } }); }
3.1 scaledImageForKey
因为scaledImageForKey就是封装了SDScaledImageForKey,所以我们详解SDScaledImageForKey:
// 这是一个C++函数 inline UIImage *SDScaledImageForKey(NSString *key, UIImage *image) { // 细节考虑 if (!image) { return nil; } // 注释中说出现这种情况的是animated images,也就是动图 // 我们常见的是gif图片,所以此处我们就当做gif图片去理解
// 可以理解gif图片是一张张静态的图片构成的动画 if ([image.images count] > 0) { NSMutableArray *scaledImages = [NSMutableArray array]; // 使用了递归的方式,构建一组图片动画
for (UIImage *tempImage in image.images) { [scaledImages addObject:SDScaledImageForKey(key, tempImage)]; } // 根据这些images构成我们所需的animated image return [UIImage animatedImageWithImages:scaledImages duration:image.duration]; } else { if ([[UIScreen mainScreen] respondsToSelector:@selector(scale)]) { // 比如屏幕为320x480时,scale为1,屏幕为640x960时,scale为2 CGFloat scale = [UIScreen mainScreen].scale; // “@2x.png”的长度为7,所以此处添加了这个判断,很巧妙 if (key.length >= 8) { // 这个不用解释了,很简单。就是根据后缀给scale赋值 NSRange range = [key rangeOfString:@"@2x."]; if (range.location != NSNotFound) { scale = 2.0; } range = [key rangeOfString:@"@3x."]; if (range.location != NSNotFound) { scale = 3.0; } } // 使用initWithCGImage来根据Core Graphics的图片构建UIImage。
// 这个函数可以使用scale和orientation UIImage *scaledImage = [[UIImage alloc] initWithCGImage:image.CGImage scale:scale orientation:image.imageOrientation]; image = scaledImage; } return image; } }
3.2 decodedImageWithImage
+ (UIImage *)decodedImageWithImage:(UIImage *)image { // 当下载大量的图片,产生内存警告时 // 自动释放bitmap上下文环境和所有变量 // 来释放系统内存空间 // 在iOS7中,不要忘记添加 // [[SDImageCache sharedImageCache] clearMemory]; @autoreleasepool{ // 对于animated images,不需要解压缩 if (image.images) { return image; } CGImageRef imageRef = image.CGImage; // 感觉下面的操作就是为了将image本身的alpha去除 // 然后创建bitmap后,重新加上alpha // 图片如果有alpha通道,就返回原始image,因为jpg图片有alpha的话,就不压缩 CGImageAlphaInfo alpha = CGImageGetAlphaInfo(imageRef); BOOL anyAlpha = (alpha == kCGImageAlphaFirst || alpha == kCGImageAlphaLast || alpha == kCGImageAlphaPremultipliedFirst || alpha == kCGImageAlphaPremultipliedLast); if (anyAlpha) { return image; } // 图片宽高 size_t width = CGImageGetWidth(imageRef); size_t height = CGImageGetHeight(imageRef); CGColorSpaceModel imageColorSpaceModel = CGColorSpaceGetModel(CGImageGetColorSpace(imageRef)); CGColorSpaceRef colorspaceRef = CGImageGetColorSpace(imageRef); // 图片的ColorSpaceModel为kCGColorSpaceModelUnknown,kCGColorSpaceModelMonochrome // 和kCGColorSpaceModelIndexed时,说明该ColorSpace不受支持 bool unsupportedColorSpace = (imageColorSpaceModel == 0 || imageColorSpaceModel == -1 || imageColorSpaceModel == kCGColorSpaceModelIndexed); // 如果属于上述不支持的ColorSpace,ColorSpace就使用RGB if (unsupportedColorSpace) colorspaceRef = CGColorSpaceCreateDeviceRGB(); // 当你调用这个函数的时候,Quartz创建一个位图绘制环境,也就是位图上下文。 // 当你向上下文中绘制信息时,Quartz把你要绘制的信息作为位图数据绘制到指定的内存块。 // 一个新的位图上下文的像素格式由三个参数决定: // 每个组件的位数,颜色空间,alpha选项。alpha值决定了绘制像素的透明性。 CGContextRef context = CGBitmapContextCreate(NULL, width, height, CGImageGetBitsPerComponent(imageRef), 0, colorspaceRef, kCGBitmapByteOrderDefault | kCGImageAlphaPremultipliedFirst); // 在上面创建的context绘制image,并以此获取image,而该image也将拥有alpha通道 CGContextDrawImage(context, CGRectMake(0, 0, width, height), imageRef); CGImageRef imageRefWithAlpha = CGBitmapContextCreateImage(context); UIImage *imageWithAlpha = [UIImage imageWithCGImage:imageRefWithAlpha scale:image.scale orientation:image.imageOrientation]; // 开始释放资源 if (unsupportedColorSpace) CGColorSpaceRelease(colorspaceRef); CGContextRelease(context); CGImageRelease(imageRefWithAlpha); return imageWithAlpha; } }
回到didReceiveData的剩余部分,也就是刚才那个if语句的最最外层if语句(if ((self.options & SDWebImageDownloaderProgressiveDownload) && self.expectedSize > 0 && self.completedBlock)):
// 获取当前已经下载的数据大小 const NSInteger totalSize = self.imageData.length; // 使用最新下载后的图片数据来创建一个CGImageSourceRef变量imageSource // 注意创建使用的数据是CoreFoundation的data,而self.imageData是NSData,所以要做如下转化 // (__bridge CFDataRef)self.imageData CGImageSourceRef imageSource = CGImageSourceCreateWithData((__bridge CFDataRef)self.imageData, NULL);
有了imageSource后,就要根据imageSource获取image的各种属性。主要是Core Graphics框架提供了很多方便的工具。所以要讲imageData先转化为CF框架下的变量,然后创建CG框架下的CGImageSource。
接着是:
// width + height == 0在此处其实就是表示width==0&&height==0 // 初始条件下,也就是第一次执行时,width和height均为0 if (width + height == 0) { // 从imageSource中获取图片的一些属性,比如长宽等等,是一个dictionary变量
// 这里获取imageSource属性,直接传入imageSource就行,为啥还要传入一个index?
// 因为对于gif图片,一个imageSource对应的CGImage会有多个,需要使用index
// 底下会使用CGImageSourceCreateImageAtIndex来根据imageSource创建一个带index的CGImageRef CFDictionaryRef properties = CGImageSourceCopyPropertiesAtIndex(imageSource, 0, NULL); if (properties) { NSInteger orientationValue = -1; // 获取到图片高度 CFTypeRef val = CFDictionaryGetValue(properties, kCGImagePropertyPixelHeight); if (val) CFNumberGetValue(val, kCFNumberLongType, &height); // 获取到图片宽度 val = CFDictionaryGetValue(properties, kCGImagePropertyPixelWidth); if (val) CFNumberGetValue(val, kCFNumberLongType, &width); // 获取到图片朝向 val = CFDictionaryGetValue(properties, kCGImagePropertyOrientation); if (val) CFNumberGetValue(val, kCFNumberNSIntegerType, &orientationValue); // CoreFoundation对象类型不在ARC范围内,所以要手动释放资源 CFRelease(properties); // 还记得我们上面讲的一段代码,要使用Core Graphics框架绘制image // 其实就是initWithCGImage这个函数,但是使用这个函数有时候会产生 // 图片的朝向错误(不像在connectionDidFinishLoading中使用initWithData所产生的image) // 所以在这里保存朝向信息,下面有些函数需要朝向信息,就传给它 orientation = [[self class] orientationFromPropertyValue:(orientationValue == -1 ? 1 : orientationValue)]; } }
然后就是接收到图片数据后,width和height有值了:
// width和height更新过了,并且还没有获取到完整的图片数据(totalSize < self.expectedSize) // 不过为什么获取到完整的图片数据就不执行了?(totalSize == self.expectedSize)
// 因为要执行connectionDidFinishLoading函数了 if (width + height > 0 && totalSize < self.expectedSize) { // ...... }
当前这个if里面有两个if语句,第二个我们讲过了,就是用completedBlock去显示已下载的image。我们下面着重解释第一个if
// 创建图片 CGImageRef partialImageRef = CGImageSourceCreateImageAtIndex(imageSource, 0, NULL); #ifdef TARGET_OS_IPHONE // 解决iOS平台图片失真问题 // 因为如果下载的图片是非png格式,图片会出现失真 // 为了解决这个问题,先将图片在bitmap的context下渲染 // 然后在传回partialImageRef if (partialImageRef) { // 下面代码和decodedImageWithImage差不多 const size_t partialHeight = CGImageGetHeight(partialImageRef); CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); CGContextRef bmContext = CGBitmapContextCreate(NULL, width, height, 8, width * 4, colorSpace, kCGBitmapByteOrderDefault | kCGImageAlphaPremultipliedFirst); CGColorSpaceRelease(colorSpace); if (bmContext) { CGContextDrawImage(bmContext, (CGRect){.origin.x = 0.0f, .origin.y = 0.0f, .size.width = width, .size.height = partialHeight}, partialImageRef); CGImageRelease(partialImageRef); partialImageRef = CGBitmapContextCreateImage(bmContext); CGContextRelease(bmContext); } else { CGImageRelease(partialImageRef); partialImageRef = nil; } } #endif
最后一步是调用progressBlock,我们很少见到调用progressBlock的情况,其实也跟didReceiveData这个函数有关,因为一般就是在数据量比较大的时候,需要一份一份接受数据,并拼接组装,所以此处可以使用progressBlock。
4. - (void)connectionDidFinishLoading:(NSURLConnection *)connection
如果成功获取服务端返回的所有数据,则代理会收到connectionDidFinishLoading:消息
- (void)connectionDidFinishLoading:(NSURLConnection *)aConnection { SDWebImageDownloaderCompletedBlock completionBlock = self.completedBlock; @synchronized(self) { // 停止当前的RunLoop CFRunLoopStop(CFRunLoopGetCurrent()); // 回收资源 self.thread = nil; self.connection = nil; // 前面说过 dispatch_async(dispatch_get_main_queue(), ^{ [[NSNotificationCenter defaultCenter] postNotificationName:SDWebImageDownloadStopNotification object:self]; [[NSNotificationCenter defaultCenter] postNotificationName:SDWebImageDownloadFinishNotification object:self]; }); } // 发送的request,服务器会返回一个response,就像获取服务器端的图片一样, // 如果图片没有改变,第二次获取的时候,最好直接从缓存中获取,这会省不少时间。 // response也一样,也弄一个缓存,就是NSURLCache。 // 根据你的request,看看是不是缓存中能直接获取到对应的response。 if (![[NSURLCache sharedURLCache] cachedResponseForRequest:_request]) { // 为NO表示没有从NSURLCache中获取到response responseFromCached = NO; } /*
如果options中有SDWebImageDownloaderIgnoreCachedResponse表示对应的SDWebImageOptions的options为
SDWebImageRefreshCached。而有了SDWebImageRefreshCached,就表示downloaderOptions肯定包含
SDWebImageDownloaderUseNSURLCache/SDWebImageDownloaderIgnoreCachedResponse
(大家搜一下SDWebImageRefreshCached就知道了),但是SDWebImageDownloaderUseNSURLCache和
SDWebImageDownloaderIgnoreCachedResponse又不是一定同时存在于options中。因为只有image从
SDImageCache中获取到了才会有SDWebImageDownloaderIgnoreCachedResponse,为什么要特意提
SDImageCache?因为SDWebImage有两种缓存方式,一个是SDImageCache,一个就是NSURLCache,所以知道
为什么这个选项是Ignore了吧,因为已经从SDImageCache获取了image,就忽略NSURLCache了。
此处我的理解就是如果已经从SDImageCache获取到了image,并且选项为了SDWebImageRefreshCached,就要
设置SDWebImageDownloaderIgnoreCachedResponse。我们也看到了,即使responseCached为YES了,
completedBlock的image和data参数也为nil。
我看网上对这一块的众说风云,而且这一块好像也出过不少问题,懂得大神可以私信我。好好探讨一下!
我们看看这两个选项的注释: /** * 默认情况下,request请求使用NSURLRequestReloadIgnoringLocalCacheData作为默认策略 * 使用了这个选项,那么request使用NSURLRequestUseProtocolCachePolicy作为默认策略 */ SDWebImageDownloaderUseNSURLCache= 1 << 2, /** * 如果要从NSURLCache读取image,并且还要强制刷新NSURLCache,如果有此选项后 * 就调用image和data参数为nil的completedBlock * (有该选项就一定有`SDWebImageDownloaderUseNSURLCache`). */
SDWebImageDownloaderIgnoreCachedResponse
= 1 << 3
, */ if (completionBlock) { if (self.options & SDWebImageDownloaderIgnoreCachedResponse && responseFromCached) { completionBlock(nil, nil, nil, YES); } else if (self.imageData) { // 因为image可能是gif,可能是webp,所以需要通过sd_imageWithData转化为UIImage类型,具体实现后面会说 UIImage *image = [UIImage sd_imageWithData:self.imageData]; // 前面说过 NSString *key = [[SDWebImageManager sharedManager] cacheKeyForURL:self.request.URL]; image = [self scaledImageForKey:key image:image]; // 注意对于gif图片,不需要解压缩 if (!image.images) { if (self.shouldDecompressImages) { image = [UIImage decodedImageWithImage:image]; } } if (CGSizeEqualToSize(image.size, CGSizeZero)) { // 图片大小为0,报错 completionBlock(nil, nil, [NSError errorWithDomain:SDWebImageErrorDomain code:0 userInfo:@{NSLocalizedDescriptionKey : @"Downloaded image has 0 pixels"}], YES); } else { completionBlock(image, self.imageData, nil, YES); } } else { // image为空,报错 completionBlock(nil, nil, [NSError errorWithDomain:SDWebImageErrorDomain code:0 userInfo:@{NSLocalizedDescriptionKey : @"Image data is nil"}], YES); } } // 释放资源 self.completionBlock = nil; // 置NSConnection为完成状态 [self done]; }
4.1 sd_imageWithData
+ (UIImage *)sd_imageWithData:(NSData *)data { // 没有数据,细节 if (!data) { return nil; } UIImage *image; // 根据data的前面几个字节,判断出图片类型,是jepg,png,gif还是...后面详解 NSString *imageContentType = [NSData sd_contentTypeForImageData:data]; // 如果是gif图片或webp图片,是需要单独处理的。后面详解gif和webp图片处理 if ([imageContentType isEqualToString:@"image/gif"]) { image = [UIImage sd_animatedGIFWithData:data]; } #ifdef SD_WEBP else if ([imageContentType isEqualToString:@"image/webp"]) { image = [UIImage sd_imageWithWebPData:data]; } #endif else { image = [[UIImage alloc] initWithData:data]; // 获取朝向信息,后面详解 UIImageOrientation orientation = [self sd_imageOrientationFromImageData:data]; // 我估计默认朝向就是向上的,所以如果不是向上的图片,才进行调整,省时间,优化 if (orientation != UIImageOrientationUp) { image = [UIImage imageWithCGImage:image.CGImage scale:image.scale orientation:orientation]; } } return image; }
4.1.1 sd_contentTypeForImageData
// NSData+ImageContentType // 每张图片的开头会存储图片的类型信息 // 很简单的代码,不赘述了 + (NSString *)sd_contentTypeForImageData:(NSData *)data { uint8_t c; [data getBytes:&c length:1]; switch (c) { case 0xFF: return @"image/jpeg"; case 0x89: return @"image/png"; case 0x47: return @"image/gif"; case 0x49: case 0x4D: return @"image/tiff"; case 0x52: // R as RIFF for WEBP if ([data length] < 12) { return nil; } NSString *testString = [[NSString alloc] initWithData:[data subdataWithRange:NSMakeRange(0, 12)] encoding:NSASCIIStringEncoding]; if ([testString hasPrefix:@"RIFF"] && [testString hasSuffix:@"WEBP"]) { return @"image/webp"; } return nil; } return nil; }
4.1.2 sd_animatedGIFWithData
+ (UIImage *)sd_animatedGIFWithData:(NSData *)data { if (!data) { return nil; } // 根据data创建一个CG下的imageSource CGImageSourceRef source = CGImageSourceCreateWithData((__bridge CFDataRef)data, NULL); // 返回imageSource中的image数目,为后面创建CGImage提供index size_t count = CGImageSourceGetCount(source); UIImage *animatedImage; // count<=1的时候,就当单张图片 if (count <= 1) { animatedImage = [[UIImage alloc] initWithData:data]; } else { // 多张图片,每帧0.1秒 NSMutableArray *images = [NSMutableArray array]; NSTimeInterval duration = 0.0f; // for (size_t i = 0; i < count; i++) { // 根据指定的index创建CGImage CGImageRef image = CGImageSourceCreateImageAtIndex(source, i, NULL); // 根据imageSource和指定的index获取该CGImage的duration,后面详解 duration += [self sd_frameDurationAtIndex:i source:source]; // 往images添加单张图片 [images addObject:[UIImage imageWithCGImage:image scale:[UIScreen mainScreen].scale orientation:UIImageOrientationUp]]; CGImageRelease(image); } // 如果image中没有duration信息,就自己计算。每帧0.1秒,算出gif动画所需的duration if (!duration) { duration = (1.0f / 10.0f) * count; } animatedImage = [UIImage animatedImageWithImages:images duration:duration]; } // 释放资源 CFRelease(source); return animatedImage; }
4.1.2.1 sd_frameDurationAtIndex
+ (float)sd_frameDurationAtIndex:(NSUInteger)index source:(CGImageSourceRef)source { float frameDuration = 0.1f; // 根据imageSource和index获取到image的属性 CFDictionaryRef cfFrameProperties = CGImageSourceCopyPropertiesAtIndex(source, index, nil); // 转化CFDictionaryRef为NSDictionary NSDictionary *frameProperties = (__bridge NSDictionary *)cfFrameProperties; // 因为image是gif,所以根据kCGImagePropertyGIFDictionary获取到image的gif的属性 NSDictionary *gifProperties = frameProperties[(NSString *)kCGImagePropertyGIFDictionary]; // 从gifProperties根据kCGImagePropertyGIFUnclampedDelayTime获取到该张image的duration, // 如果该gif没有unclamped delay time,就是用kCGImagePropertyGIFDelayTime获取delay time作为duration NSNumber *delayTimeUnclampedProp = gifProperties[(NSString *)kCGImagePropertyGIFUnclampedDelayTime]; if (delayTimeUnclampedProp) { frameDuration = [delayTimeUnclampedProp floatValue]; } else { NSNumber *delayTimeProp = gifProperties[(NSString *)kCGImagePropertyGIFDelayTime]; if (delayTimeProp) { frameDuration = [delayTimeProp floatValue]; } } // 许多烦人的gif的广告,每张图片的duration是0,这样达到快速刷新图片的效果 // 这里我们根据Firefox的做法,对已duration小于等于100ms的每帧图片,指定帧率为10ms if (frameDuration < 0.011f) { frameDuration = 0.100f; } CFRelease(cfFrameProperties); return frameDuration; }
4.1.3 sd_imageWithWebPData
// WebP 是 Google 在 2010 年发布的图片格式,希望以更高的压缩比替代 JPEG。 // 它用 VP8 视频帧内编码作为其算法基础,取得了不错的压缩效果。 // 它支持有损和无损压缩、支持完整的透明通道、也支持多帧动画,并且没有版权问题,是一种非常理想的图片格式。 // 借由 Google 在网络世界的影响力,WebP 在几年的时间内已经得到了广泛的应用。 // 看看你手机里的 App:微博、微信、QQ、淘宝、网易新闻等等,每个 App 里都有 WebP 的身影。Facebook 则更进一步,用 WebP 来显示聊天界面的贴纸动画。 // WebP 标准是 Google 定制的,迄今为止也只有 Google 发布的 libwebp 实现了该的编解码 。 所以这个库也是该格式的事实标准。 + (UIImage *)sd_imageWithWebPData:(NSData *)data { // 具体算法我不是很清楚 // 大概就是根据data设置WebPDecoderConfig类型变量config WebPDecoderConfig config; if (!WebPInitDecoderConfig(&config)) { return nil; } if (WebPGetFeatures(data.bytes, data.length, &config.input) != VP8_STATUS_OK) { return nil; } config.output.colorspace = config.input.has_alpha ? MODE_rgbA : MODE_RGB; config.options.use_threads = 1; // 注意此处又一点瑕疵,就是不支持WebP的动图 // 此处默认是WebP的静态图片,所以直接使用WebPDecode //大牛们可以添加代码,增加支持WebP动图的功能,提示一下, // 首先用WebPDemuxer拆包,之后拆出来的单帧用WebPDecode解码
if (WebPDecode(data.bytes, data.length, &config) != VP8_STATUS_OK) { return nil; } int width = config.input.width; int height = config.input.height; if (config.options.use_scaling) { width = config.options.scaled_width; height = config.options.scaled_height; } // 根据decode出来的rgba数组,即config.output.u.RGBA构建UIImage CGDataProviderRef provider = CGDataProviderCreateWithData(NULL, config.output.u.RGBA.rgba, config.output.u.RGBA.size, FreeImageData); CGColorSpaceRef colorSpaceRef = CGColorSpaceCreateDeviceRGB(); CGBitmapInfo bitmapInfo = config.input.has_alpha ? kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast : 0; // rgba是4bytes,rgb是3bytes size_t components = config.input.has_alpha ? 4 : 3; CGColorRenderingIntent renderingIntent = kCGRenderingIntentDefault; // 根据provider创建image CGImageRef imageRef = CGImageCreate(width, height, 8, components * 8, components * width, colorSpaceRef, bitmapInfo, provider, NULL, NO, renderingIntent); CGColorSpaceRelease(colorSpaceRef); CGDataProviderRelease(provider); UIImage *image = [[UIImage alloc] initWithCGImage:imageRef]; CGImageRelease(imageRef); return image; }
4.1.4 sd_imageOrientationFromImageData
+(UIImageOrientation)sd_imageOrientationFromImageData:(NSData *)imageData { // 保证如果imageData中获取不到朝向信息,就默认UIImageOrientationUp UIImageOrientation result = UIImageOrientationUp; CGImageSourceRef imageSource = CGImageSourceCreateWithData((__bridge CFDataRef)imageData, NULL); if (imageSource) { CFDictionaryRef properties = CGImageSourceCopyPropertiesAtIndex(imageSource, 0, NULL); if (properties) { CFTypeRef val; int exifOrientation; val = CFDictionaryGetValue(properties, kCGImagePropertyOrientation); if (val) { // 这个kCGImagePropertyOrientation先转化为int值 // 然后用一个switch case语句将int转化为朝向的enum值(sd_exifOrientationToiOSOrientation) CFNumberGetValue(val, kCFNumberIntType, &exifOrientation); result = [self sd_exifOrientationToiOSOrientation:exifOrientation]; } // else - if it's not set it remains at up CFRelease((CFTypeRef) properties); } else { //NSLog(@"NO PROPERTIES, FAIL"); } CFRelease(imageSource); } return result; }
5. - (void)connection:(NSURLConnection *)connection didFailWithError:(NSError *)error
- (void)connection:(NSURLConnection *)connection didFailWithError:(NSError *)error { // 一开始的代码和connectionDidFinishLoading代码类似,除了少了SDWebImageDownloadFinishNotification @synchronized(self) { CFRunLoopStop(CFRunLoopGetCurrent()); self.thread = nil; self.connection = nil; dispatch_async(dispatch_get_main_queue(), ^{ [[NSNotificationCenter defaultCenter] postNotificationName:SDWebImageDownloadStopNotification object:self]; }); } // 使用completedBlock报错error if (self.completedBlock) { self.completedBlock(nil, nil, error, YES); } self.completionBlock = nil; [self done]; }
6. - (nullable NSCachedURLResponse *)connection:(NSURLConnection *)connection willCacheResponse:(NSCachedURLResponse *)cachedResponse
// 如果我们需要对缓存做更精确的控制,我们可以实现一些代理方法来允许应用来确定请求是否应该缓存 // 如果不实现此方法,NSURLConnection 就简单地使用本来要传入 -connection:willCacheResponse: 的那个缓存对象, // 所以除非你需要改变一些值或者阻止缓存,否则这个代理方法不必实现 - (NSCachedURLResponse *)connection:(NSURLConnection *)connection willCacheResponse:(NSCachedURLResponse *)cachedResponse { responseFromCached = NO; // 如果该方法被调用,说明该Response不是从cache读取的,因为会会响应该方法,说明这个cacheResponse是刚从服务端获取的新鲜Response,需要进行缓存。 if (self.request.cachePolicy == NSURLRequestReloadIgnoringLocalCacheData) { // 如果request的缓存策略是NSURLRequestReloadIgnoringLocalCacheData,就不缓存了 return nil; } else { // 否则使用默认cacheResponse return cachedResponse; } }
7. - (BOOL)connectionShouldUseCredentialStorage:(NSURLConnection *)connection
// 在构建connection会被响应。如果这个connection需要根据NSURLCredentialStorage中的权限进行构建,那么就返回YES - (BOOL)connectionShouldUseCredentialStorage:(NSURLConnection __unused *)connection { // 默认是YES,想要修改,需要用户自己指定self.shouldUseCredentialStorage值 return self.shouldUseCredentialStorage; }
8. - (void)connection:(NSURLConnection *)connection willSendRequestForAuthenticationChallenge:(NSURLAuthenticationChallenge *)challenge
// 当客户端向目标服务器发送请求时。服务器会使用401进行响应。客户端收到响应后便开始认证挑战(Authentication Challenge),而且是通过willSendRequestForAuthenticationChallenge:函数进行的。 // willSendRequestForAuthenticationChallenge:函数中的challenge对象包含了protectionSpace(NSURLProtectionSpace)实例属性,在此进行protectionSpace的检查。当检查不通过时既取消认证,这里需要注意下的是取消是必要的,因为willSendRequestForAuthenticationChallenge:可能会被调用多次。 // 具体过程见下面附图 - (void)connection:(NSURLConnection *)connection willSendRequestForAuthenticationChallenge:(NSURLAuthenticationChallenge *)challenge{ // NSURLProtectionSpace主要有Host、port、protocol、realm、authenticationMethod等属性。 // 为了进行认证,程序需要使用服务端期望的认证信息创建一个NSURLCredential对象。我们可以调用authenticationMethod来确定服务端的认证方法,这个认证方法是在提供的认证请求的保护空间(protectionSpace)中。 // 服务端信任认证(NSURLAuthenticationMethodServerTrust)需要一个由认证请求的保护空间提供的信任。使用credentialForTrust:来创建一个NSURLCredential对象。 if ([challenge.protectionSpace.authenticationMethod isEqualToString:NSURLAuthenticationMethodServerTrust]) { // SDWebImageDownloaderAllowInvalidSSLCertificates表示允许不受信任SSL认证 // 注释中提示尽量作为test使用,不要在最终production使用。 // 所以此处使用performDefaultHandlingForAuthenticationChallenge,即使用系统提供的默认行为 if (!(self.options & SDWebImageDownloaderAllowInvalidSSLCertificates) && [challenge.sender respondsToSelector:@selector(performDefaultHandlingForAuthenticationChallenge:)]) { [challenge.sender performDefaultHandlingForAuthenticationChallenge:challenge]; } else { NSURLCredential *credential = [NSURLCredential credentialForTrust:challenge.protectionSpace.serverTrust]; [[challenge sender] useCredential:credential forAuthenticationChallenge:challenge]; } } else { // 每次认证失败,previousFailureCount就会加1 // 第一次认证(previousFailureCount == 0)并且有Credential,使用Credential认证 // 非第一次认证或者第一次认证没有Credential,对于认证挑战,不提供Credential就去download一个request,但是如果这里challenge是需要Credential的challenge,那么使用这个方法是徒劳的 if ([challenge previousFailureCount] == 0) { if (self.credential) { [[challenge sender] useCredential:self.credential forAuthenticationChallenge:challenge]; } else { [[challenge sender] continueWithoutCredentialForAuthenticationChallenge:challenge]; } } else { [[challenge sender] continueWithoutCredentialForAuthenticationChallenge:challenge]; } } }