首页 > 解决方案 > 生成的 CGImage 总是模糊的

问题描述

所以我一直在开发一个小的“绘图”应用程序,用户可以在其中将图像绘制到网格画布上(基本上是创建像素艺术)。我想创建一个导出此画布的函数(将其视为一个UIColors 数组,然后将其转换为RawPixel一个简单的颜色容器,我需要它,因为需要实际的 RGB 值,UInt8以便我可以将其保存到 CGImage )。

到现在为止还挺好。我想做的是让用户可以选择将他们当前的绘图作为图像保存到照片中。这就是问题开始的地方。这是在屏幕上绘制的图像:

实际图纸

但是当我导出它时,这就是图像的样子……超级模糊而且非常小。现在,我可以使用微小的东西,但我不知道如何解决模糊。

在此处输入图像描述

我实际上已将生成的CGImage内容放入UIImageView, 和 setimgViewQR.layer.magnificationFilter = kCAFilterNearest中,然后它看起来非常清晰。但是,当我将绘图保存到照片应用程序时,我希望这种特殊行为能够持续存在。我真的不知道在哪里搜索,所以任何帮助将不胜感激!!!

这是我用来加载带有相关颜色的“画布”以及如何将其保存到照片的方法。

    var rawPixelArray = [RawPixel]()

    guard let canvasColorArray = self.canvasView?.canvas.getPixelColorArray(),
        let canvasWidth = self.canvasView?.canvas.getAmountOfPixelsForWidth(),
        let canvasHeight = self.canvasView?.canvas.getAmountofPixelsForHeight() else {
            return
    }

    canvasColorArray.forEach { (color) in
        let rawPixel = RawPixel(inputColor: color)
        rawPixelArray.append(rawPixel)
    }

    let rgbColorSpace = CGColorSpaceCreateDeviceRGB()
    var data = rawPixelArray
    let bitmapInfo = CGBitmapInfo(rawValue: CGImageAlphaInfo.premultipliedLast.rawValue)
    guard let dataProvider = CGDataProvider(data: NSData(bytes: &data,
                                                         length: data.count * MemoryLayout<RawPixel>.size)
        ) else { return }

    guard let exportedCGImage = CGImage.init(width: canvasWidth, height: canvasHeight, bitsPerComponent: 8, bitsPerPixel: 32, bytesPerRow: canvasWidth * (MemoryLayout<RawPixel>.size), space: rgbColorSpace, bitmapInfo: bitmapInfo, provider: dataProvider, decode: nil, shouldInterpolate: false, intent: .defaultIntent) else {
        print("CGImage could not be created.")
        return
    }

    let exportedUIImage = UIImage(cgImage: exportedCGImage)
    let imageView = UIImageView(image: exportedUIImage)

    UIImageWriteToSavedPhotosAlbum(imageView.image!, self, #selector(image(_:didFinishSavingWithError:contextInfo:)), nil)

标签: iosswiftuiimagecore-imagecgimage

解决方案


好的,所以我最终找到的解决方案如下(这有点像 hack,但它可以工作,现在像素边缘的一切都非常清晰,而且你实际上可以将它导出为你想要的任何大小的实际图像!):

    let exportedUIImage = UIImage(cgImage: exportedCGImage)
    let imageView = UIImageView(image: exportedUIImage)
    imageView.layer.magnificationFilter = kCAFilterNearest
    imageView.frame = CGRect(x: 5, y: 5, width: yourDesiredWidth, height: yourDesiredHeight) 
//just remember to yourDesiredWidth and yourDesiredHeight according to your actual drawing width/drawing height. 

    UIGraphicsBeginImageContextWithOptions(imageView.bounds.size, imageView.isOpaque, 0.0)
    imageView.drawHierarchy(in: imageView.bounds, afterScreenUpdates: true)
    let snapshotImageFromMyView = UIGraphicsGetImageFromCurrentImageContext()
    UIGraphicsEndImageContext()

所以我所做的是,我基本上创建了一个(不可见的)UIImageView,将其magnificationFilter转为kCAFilterNearest,它会生成一个清晰、清晰的图像,然后简单地将其截屏并保存到 Photos 中。


推荐阅读