signal-processing - 图像数字化与声音数字化 (PCM) 有何不同?
问题描述
我试图了解声音和图像的数字化。据我所知,它们都需要将模拟信号转换为数字信号。两者都应该使用采样和量化。
声音:我们在 y 轴上有幅度,在 x 轴上有时间。在图像数字化过程中,x 轴和 y 轴上有什么?
图像数字化的采样率标准是什么?它用于 CD 的 44kHz(声音数字化)。图像的采样率究竟是如何使用的?
量化:声音 - 我们使用位深度 - 这意味着幅度级别 - 图像:也使用位深度,但这意味着我们能够识别多少强度?(是真的吗?)
声音和图像数字化之间还有哪些其他区别?
解决方案
图像的采集可以概括为空间采样和转换/量化步骤。(x,y) 上的空间采样是由像素大小决定的。数据(在第三轴上,z)是芯片上光电效应产生的电子数。这些电子被转换为 ADU(模拟数字单元),然后转换为比特。量化的是灰度级的光强度,例如 8 位数据将给出 2^8 = 256 个灰度级。
由于空间采样(分辨率)和强度量化(灰度级),图像会丢失信息。
除非您在谈论视频,否则图像不会以 Hz(1/时间)为单位进行采样,而是以 1/距离为单位。重要的是验证香农-奈奎斯特定理以避免混叠。您能够获得的空间频率直接取决于光学设计。必须为此设计分别选择像素大小以避免混叠。
编辑:在下面的示例中,我绘制了一个正弦函数(白色/黑色条纹)。在左侧,信号被正确采样,在右侧,它被欠采样 4 倍。这是相同的信号,但由于像素更大(采样更小),您的数据会出现混叠。这里的条纹是水平的,但垂直条纹也有相同的效果。
推荐阅读
- scala - Spark 2.4 中线性代数的向量和矩阵类
- java - 是什么导致一个类的变量受到另一个类的影响?
- javascript - ng-select 中 [clearable] 的替代方法是什么
- firebase - 完成错误:Gradle 任务 assembleDebug 失败,退出代码为 1
- python - 使用多处理格式化大量图像需要更长的时间
- c - 从中缀转换为后缀时捕获堆栈中缺少的操作数或运算符
- python-3.x - 如何从嵌套数据中获取价值
- menu - VS Code:文件菜单下选项之间的差异
- python - 在 Tkinter 上运行 Linux 终端命令
- asp.net-mvc - 简单的匿名 Azure Web 应用程序给出 401.2 访问被拒绝