iOS把图片缓存到本地的几种方法(总结)

2020-01-21 03:43:23于丽

把图片缓存到本地,在很多场景都会用到,如果只是存储文件信息,那建一个plist文件,或者数据库就能很方便的解决问题,但是如果存储图片到沙盒就没那么方便了。这里简单介绍两种保存图片到沙盒的方法。

一、把图片转为base64的字符串存到数据库中或者plist文件中,然后用到的时候再取出来


 //获取沙盒路径,
 NSString *path_sandox = NSHomeDirectory();
 //创建一个存储plist文件的路径
 NSString *newPath = [path_sandox stringByAppendingPathComponent:@/Documents/pic.plist];
 NSMutableArray *arr = [[NSMutableArray alloc] init];
 UIImage *image = [UIImage imageNamed:@"1.png"];
  
 /*
  把图片转换为Base64的字符串 

  在iphone上有两种读取图片数据的简单方法: UIImageJPEGRepresentation和UIImagePNGRepresentation. 
  
  UIImageJPEGRepresentation函数需要两个参数:图片的引用和压缩系数.而UIImagePNGRepresentation只需要图片引用作为参数.通过在实际使用过程中,
  比较发现: UIImagePNGRepresentation(UIImage* image) 要比UIImageJPEGRepresentation(UIImage* image, 1.0) 返回的图片数据量大很多.
  譬如,同样是读取摄像头拍摄的同样景色的照片, UIImagePNGRepresentation()返回的数据量大小为199K ,
  而 UIImageJPEGRepresentation(UIImage* image, 1.0)返回的数据量大小只为140KB,比前者少了50多KB.
  如果对图片的清晰度要求不高,还可以通过设置 UIImageJPEGRepresentation函数的第二个参数,大幅度降低图片数据量.譬如,刚才拍摄的图片, 
  通过调用UIImageJPEGRepresentation(UIImage* image, 1.0)读取数据时,返回的数据大小为140KB,但更改压缩系数后,
  通过调用UIImageJPEGRepresentation(UIImage* image, 0.5)读取数据时,返回的数据大小只有11KB多,大大压缩了图片的数据量 ,
  而且从视角角度看,图片的质量并没有明显的降低.因此,在读取图片数据内容时,建议优先使用UIImageJPEGRepresentation,
  并可根据自己的实际使用场景,设置压缩系数,进一步降低图片数据量大小.
  */
 NSData *_data = UIImageJPEGRepresentation(image, 1.0f);
 //将图片的data转化为字符串
 NSString *strimage64 = [_data base64EncodedString];
 
 [arr addObject:image64]; 
  //写入plist文件 
 if ([arr writeToFile:newPath atomically:YES]) {  
 NSLog(@"写入成功"); 
 };
  //可以到沙河路径下查看plist文件中的图片数据 
 //这样就存起来的,然后用到的时候再利用存储的字符串转化为图片
 //NSData *_decodedImageData = [[NSData alloc] initWithBase64Encoding:image64]; 这是iOS7之前的一个方法 
 
 NSData *_decodedImageData = [[NSData alloc]initWithBase64EncodedString:strimage64 options:NSDataBase64DecodingIgnoreUnknownCharacters];
 UIImage *_decodedImage = [UIImage imageWithData:_decodedImageData];
 
 //可以打印下图片是否存在
 NSLog(@"===Decoded image size: %@", NSStringFromCGSize(_decodedImage.size));