Matrix

CarlyleLiu‘s Blog

😊 There are two types of DMA mappings

Consistent DM(硬件保证cache一致性) mappings which are usually mapped at driver initialization, unmapped at the end and for which the hardware should guarantee that the device and the CPU can access the data in parallel and will see updates made by each other without any explicit software flushing.

Streaming DMA(需要软件来维护cache一致性) mappings which are usually mapped for one DMA transfer, unmapped right after it (unless you use dma_sync_* below) and for which hardware can optimize for sequential accesses.

阅读全文 »

Memory Mapped IO

Getting Access to the Device

This address should not be used directly. Instead, to get an address suitable for passing to the accessor functions described below, you should call ioremap(). An address suitable for accessing the device will be returned to you.

After you've finished using the device (say, in your module's exit routine), call iounmap() in order to return the address space to the kernel. Most architectures allocate new address space each time you call ioremap(), and they can run out unless you call iounmap().

阅读全文 »

同步问题原因

USB Isochronous传输(协议无问题)

Isochronous Transfer 同步问题

电脑播放器播放音乐时:是按一个固定的速率,比如44.1KHZ,电脑内有一个晶振,可分频出一个44.1KHZ,进行音乐播放,发给USB的数据流速率固定。USB声卡自己得有一个晶振才能工作,它也可分频出一个44.1KHZ,供给I2S信号或DAC。

问题来了,晶振是有误差的,这两个44.1KHZ不可能完全一模一样,电脑可能是44.100KHZ,USB声卡可能是44.098KHZ,误差约50ppm,很正常的情况。虽然声卡晶振分频出来是44.098KHZ,但声卡认为它就是工作在44.100KHZ下。好吧,如果二者时钟独立运行,那么1个小时会误差0.2秒,会出现不同步! 即电脑播了1个小时的数据,USB声卡实际是无法播完的,要多0.2秒才能播完。 如果声卡也要1小时播完,那这1小时就需要丢掉0.2秒的数据。

所以二者的时钟必须要同步一致才行,这就是UAC同步问题的原因,因此USB音频规定了一是采用“等时传输模式”,二是设备需要指定为3种同步方式之一:同步(synchronous),适应(adaptive),异步(asynchronous)。

阅读全文 »

音量基本概念

声学中的分贝

因为人耳的特性,我们对声音的大小感知呈对数关系。所以我们通常用分贝描述声音大小,分贝(decibel)是量度两个相同单位之数量比例的单位,主要用于度量声音强度,常用dB表示。声学中,声音的强度定义为声压。计算分贝值时采用20微帕斯卡为参考值(通常被认为是人类的最少听觉响应值,大约是3米以外飞行的蚊子声音)。这一参考值是人类对声音能够感知的阈值下限。声压是场量,因此使用声压计算分贝时使用下述版本的公式:

\[ L_p = 20log_{10}(\frac{p_{rms}}{p_{ref}})dB \]

其中的pref是标准参考声压值20微帕。

分贝声音变化范围

在编程中,我们可以用以下公式计算两个声音之间的动态范围,单位为分贝:

\[ dB = 20 * log(A1 / A2) \]

其中 A1 和 A2 是两个声音的振幅,在程序中表示每个声音样本的大小。声音采样大小(也就是量化深度)为1bit时,动态范围为0,因为只可能有一个振幅。采样大小为8bit也就是一个字节时,最大振幅是最小振幅的 256 倍。因此,动态范围是 48 分贝,计算公式如下:

\[ dB = 20 * log(256) \]

48 分贝的动态范围大约是一个安静房间和一台运行着电动割草机之间的区别。如果将声音采样大小增加一倍到16bit,产生的动态范围则为 96 分贝,计算公式如下:

\[ dB = 20 * log(65536) \]

这非常接近听力最低阈值和产生痛感之间的区别,这个范围被认为非常适合还原音乐。

音量滑块与声音增幅大小线性变化

阅读全文 »

HID相关概念

报表描述符由描述 HID 设备的数据项目(Item)组成,Item的第一个字节(项目前缀)由三部分构成,即项目类型(item type)、项目标签(item tag)和项目长度(item size)。

HID 的项目有短项目和长项目两种,其中短项目的格式如下图:

阅读全文 »

Interrupts

中断用于通知host音频功能的当前状态发生了变化。本规范目前定义了两种不同类型的中断:

  • Memory Change:某些内部实体的内存位置已更新。可以通知主机软件,以便采取适当的行动。
  • Control Change:音频函数内部的某些可寻址控件更改了其一个或多个属性值

时钟实体、单元或终端内部的音频控件可以是中断的源。同样,AudioControl接口中的任何可寻址Control或任何AudioStreaming接口都可以生成中断。最后所有与音频端点相关的可寻址控件都可能是中断的源。

音频功能的状态变化通常是由发生的特定事件引起的。事件可以是用户发起的,也可以是设备发起的。用户发起的插孔插入或移除是用户发起事件的典型示例。主机可以切换选择器或混音器,以便从刚刚插入的设备 (例如耳机)播放音频,并停止从当前设备(例如扬声器) 播放音频。设备启动事件的示例如下:一个外部设备 (例如 A/V接收器可以在其光学数字输出上从PCM转换为AC-3编码数据,这取决于当前正在播放的材料如果此设备连接到具有自动检测功能的音频功能的光学数字输入,则该音频功能上的接口可能需要重新配置(例如,启动AC-3解码过程),这可能会导致所有其他接口的格式发生某些变化,甚至变得不可用。设备可以发出中断,让主机知道音频功能需要重新配置。

阅读全文 »

Standard Requests

音频设备类支持USB规范的第9节“USB设备框架”中描述的标准请求。音频设备类对标准请求的值没有提出特定的要求。

Class-Specific Requests

特定于类的请求用于设置和获取与音频相关的控件。这些控制器主要分为两组:那些操纵音频功能的控制器,如音量,音调,选择器的位置等。以及那些影响等时终点上的数据传输的数据,比如当前的采样频率。

  • AudioControl Requests

    对音频功能的控制是通过操作嵌入在音频功能的实体中的单个控件的属性来执行的。特定于类的音频控件接口描述符包含一组实体描述符,每个描述符指示实体中存在哪些控件。音频控制请求总是指向音频功能的单个音频控制接口。请求包含足够的信息(实体ID、控制选择器和通道号),以便音频功能决定必须路由特定请求的位置。同样的请求布局也可用于特定于供应商的对扩展单元的请求。但是,本规范不包括它们

  • AudioStreaming Requests

    对音频流接口的类特定行为的控制是通过操作接口控制或端点控制来执行的。它们可以是特定于类的(如本规范中定义的)或特定于供应商的。对于任何一种情况,都可以使用相同的请求布局。音频流请求被定向到控件所在的收件人。这可以是接口或它关联的等时端点。

音频设备类支持一个附加的特定于类的请求:

  • Memory Requests

    音频功能中的每个可寻址实体(时钟实体、终端、单元、接口和端点)都可以公开一个内存映射接口,从而提供通用地操作实体的方法。特定于供应商的控制实现可以基于这种类型的请求。

原则上,所有的请求都是可选的。如果音频功能不支持某个请求,则必须通过在向该功能发出请求时停止控制管道来表明这一点。但是,如果支持某个集合请求,则也必须支持关联的Get请求。可以支持获取请求,而不支持关联的集合请求。如果支持中断,那么就必须实现所有必要的Get请求,这些请求需要从音频功能中检索适当的信息,以响应这些中断

阅读全文 »

Introduction

在许多情况下,音频功能不作为独立设备存在。它是一种能力,与其他功能一起构成了一个“复合”设备。一个很好的例子DVD-ROM播放器就是音频、数据存储和传输控制功能的集合。音频功能因此位于设备类层次结构中的接口级别。它由多个接口组成,共同实现音频功能的接口。

音频功能被认为是一个“closed box”,具有非常独特的和定义良好的接口到outside world。音频功能通过它们的音频接口进行寻址。每个音频功能都必须有一个AudioControl接口可以有0个或多个AudioStreaming和0个或多个MIDI Streaming接口。AudioControl(AC)接口用于访问function的音频控件,而AudioStreaming (AS) 接口用于将音频流传入和传出function。 MIDI streaming (MS) 接口可用于将midi数据流传输到和输出音频功能。单个AudioControl接口以及属于同一音频功能的AudioStreaming和MIDI Streaming接口的集合称为Audio Interface Collection(AIC)。一个设备可以同时激活多个音频接口集合(AIC)。这些集合用于控制位于同一composite device中的多个独立音频功能。通过标准USB接口关联机制来描述音频接口集合,通过接口关联描述符(IAD) 来表示接口绑定。

注:所有与MIDI相关的信息被分组在一个单独的文档中,MIDI设备的通用串行总线设备类定义被认为是本规范的一部分。因此,本文档的其余部分将不再提及MIDI Streaming接口及其细节。 下图说明了这个概念:

阅读全文 »

测试方法

  • 两块板子之间通过I2S通信,其中一块板子配置为Slave另一块板子为Master
  • Master板端执行arecord | aplay 或者gstream命令

    1
    2
    arecord -Dhw:2,0 -r 44100 -c 8 -f S32_LE | aplay -Dhw:2,0 -c 8 -r 44100 -f S32_LE
    gst-launch-1.0 alsasrc device=device_input_split ! alsasink device=device_output sync=false

  • Slave通过aplay播放一段wav文件
  • 通过示波器抓取Master板的I2S输入和输出端的波形间隔来测量虚拟声卡的Latency

阅读全文 »
0%