耳机吧 关注:2,805,364贴子:58,468,769

闲着无聊发些音频基础

只看楼主收藏回复

爱看就看,不看也罢...我认为学些简单易懂的专业知识还是对发烧有帮助的


来自Android客户端1楼2019-01-25 17:21回复
    各种麦克(话筒)与音频接口(声卡)的连接方法
    一 耳麦
    比较简单,把耳麦的耳机插头接到声卡的音频输出,话筒接口接到声卡的麦克风接口,ok,估计大家都会。
    二 会议麦克
    更简单,把唯一的接头接到声卡的麦克风接口,ok。
    三 动圈麦克
    (一)不接话放或调音台(不推荐)
    1 如果你的声卡只有3.5的麦克接口
    (1) 用一个6.35对3.5的转接头,将麦克风的大插头转为小插头,接入声卡的麦克风接口。(不推荐)
    (2) 到音响建材市场买一根三芯平衡线,一个母卡侬接头,一个3.5的小三芯接头,让卖你线材的人
    给你用电烙铁做成一根线,卡侬头接话筒,3.5头接进声卡麦克风接口。(推荐)
    2 如果你的声卡有6.35的麦克风接口
    简单,直接把麦克风接到这个6.35的麦克风接口就可以。
    (二)通过话放接入声卡(推荐)
    1 如果你的声卡只有3.5的麦克风接口去做两根线材,一根是公卡侬头对姆卡侬头,一根是6.35大三芯对3.5小三芯。母卡侬头接话筒,公卡侬头接话放mic in,6.35大三芯接话放balanced out put,3,5小三芯接声卡mic in。接下来在音量控制面板里面的高级选项中,将录制从“麦克风”改为“线路输入”,再接下来,用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    2 如果你的话筒有6.35的麦克风接口去做两根线材,一根是公卡侬头对姆卡侬头,一根6.35大三芯对6.35大三芯。母卡侬头接话筒,公卡侬头接话放mic in,6.35大三芯接话放balanced out put,6.35大三芯接声卡mic in。接下来在音量控制面板里面的高级选项中,将录制从“麦克风”改为“线路输入”,再接下来,用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    3 如果你的声卡有3.5的线路输入接口去做两根线材,一根是公卡侬头对姆卡侬头,一根是6.35大三芯对3.5小三芯。母卡侬头接话筒,公卡侬头接话放mic in,6.35大三芯接话放balanced out put,3,5小三芯接声卡line in。用ce或者sam或者其他录音软件录制的时候,将录音 属性里面的“立体声”改为“单声道”。
    4 如果你的声卡有6.35的线路输入接口去做两根线材,一根是公卡侬头对姆卡侬头,一根6.35大三芯对6.35大三芯。母卡侬头接话筒,公卡侬头接话放mic in,6.35大三芯接话放balanced out put,6.35大三芯接声卡line in。用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    (三)通过调音台接入声卡(推荐)
    1 如果你的声卡只有3.5的麦克风接口去做两根线材,一根是公卡侬头对姆卡侬头,一根是6.35大三芯对3.5小三芯。母卡侬头接话筒,公卡侬头接调音台mic in,6.35大三芯接调音台mono out put,3,5小三芯接声卡mic in。接下来在音量控制面板里面的高级选项中,将录制从“麦克风”改为“线路输入”,再接下来,用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    2 如果你的话筒有6.35的麦克风接口去做两根线材,一根是公卡侬头对姆卡侬头,一根6.35大三芯对6.35大三芯。母卡侬头接话筒,公卡侬头接调音台mic in,6.35大三芯接调音台mono out put,6.35大三芯接声卡mic in。接下来在音量控制面板里面的高级选项中,将录制从“麦克风”改为“线路输入”,再接下来,用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    3 如果你的声卡有3.5的线路输入接口去做两根线材,一根是公卡侬头对姆卡侬头,一根是6.35大三芯对3.5小三芯。母卡侬头接话筒,公卡侬头接调音台mic in,6.35大三芯接调音台mono out put,3,5小三芯接声卡line in。用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    4 如果你的声卡有6.35的线路输入接口去做两根线材,一根是公卡侬头对姆卡侬头,一根6.35大三芯对6.35大三芯。母卡侬头接话筒,公卡侬头接调音台,6.35大三芯接调音台mono out put,6.35大三芯接声卡line in。用ce或者sam或者其他录音软件录制的时候,将录音属性里面的“立体声”改为“单声道”。
    四 电容话筒
    (一)不通过话放或者调音台(不推荐)
    两根线,一根公卡侬对母卡侬,一根母卡侬对3.5或者6.35。母卡侬接话筒,公卡侬接幻像电源,3.5/6.35接声卡的麦克风接口/线路输入。
    (二)通过话放台接入声卡
    开启话放的幻象供电开关,其余于动圈话筒相同。


    来自Android客户端3楼2019-01-25 17:22
    回复
      (三)通过调音台接入声卡
      开启话放的幻象供电开关,其余于动圈话筒相同。
      比特率是什么?
      比特率这个词有多种翻译,比如码率等,表示经过编码(压缩)后的音频数据每秒钟需要用多少个比特来表示,而比特就是二进制里面最少的单位,要么是0,要么是1。比特率与音频压缩的关系简单的说就是比特率越高音质就越好,但编码后的文件就越大;如果比特率越少则情况刚好翻转。
      VBR(Variable Bitrate)动态比特率 也就是没有固定的比特率,压缩软件在压缩时根据音频数据即时确定使用什么比特率,这是以质量为前提兼顾文件大小的方式,推荐编码模式;
      ABR(Average Bitrate)平均比特率 是VBR的一种插值参数。LAME针对CBR不佳的文件体积比和VBR生成文件大小不定的特点独创了这种编码模式。ABR在指定的文件大小内,以每50帧(30帧约1秒)为一段,低频和不敏感频率使用相对低的流量,高频和大动态表现时使用高流量,可以做为VBR和CBR的一种折衷选择。
      CBR(Constant Bitrate),常数比特率 指文件从头到尾都是一种位速率。相对于VBR和ABR来讲,它压缩出来的文件体积很大,而且音质相对于VBR和ABR不会有明显的提高
      什么是采样率
      数码音频系统是通过将声波波形转换成一连串的二进制数据来再现原始声音的,实现这个步骤使用的设备是模/数转换器(A/D)它以每秒上万次的速率对声波进行采样,每一次采样都记录下了原始模拟声波在某一时刻的状态,称之为样本。
      将一串的样本连接起来,就可以描述一段声波了,把每一秒钟所采样的数目称为采样频率或采率,单位为HZ(赫兹)。采样频率越高所能描述的声波频率就越高。 对于每个采样系统均会分配一定存储位(bit数)来表达声波的声波振幅状态,称之为采样分辩率或采样精度,每增加一个bit,表达声波振幅的状态数就翻一翻,并且增加6db的动态范围态,即6db的动态范围,一个2bit的数码音频系统表达千种状态,即12db的动态范围,以此类推。如果继续增加bit数则采样精度就将以非常快的速度提高,可以计算出16bit能够表达65536种状态,对应,96db 而20bit可以表达1048576种状态,对应120db。24bit可以表达多达16777216种状态。对应144db的动态范围,采样精度越高,声波的还原就越细腻。(注:动态范围是指声音从最弱到最强的变化范围)人耳的听觉范围通常是20HZ~20KHZ。
      根据奈魁斯特(NYQUIST)采样定理,用两倍于一个正弦波的频繁率进行采样就能完全真实地还原该波形,因此一个数码录音波的休样频率直接关系到它的最高还原频率指标例如,用44.1KHZ的采样频率进行采样,则可还原最高为22.05KHZ的频率-----这个值略高于人耳的听觉极限,(注: 可录MD,例R900的取样频率为44.1KHZ并且有取样频率转换器,可将输入的32KHz/44.1KHZ/48KHZ转换为该机的标准取样频率44.1KHZ的还原频率足已记示和真实再现世界上所有人再能辩的声音了,所以CD音频的采样规格定义为16bit。44KHZ, 即使在最理想的环境下用现实生活中几乎不可能制造的高精密电子元器件真实地实现了16bit的录音,仍然会受到滤波和声特定位等问题的困扰,人们还是能察觉出一些微小的失真所以很多专业数码音频系统已经使用18bit甚至24bit 进行录音和回放了。


      来自Android客户端4楼2019-01-25 17:23
      回复
        ★采样率和比特率的区别:
        简单来讲,采样率和比特率就像是坐标轴上的横纵坐标。
        横坐标的采样率表示了每秒钟的采样次数。
        纵坐标的比特率表示了用数字量来量化模拟量的时候的精度。
        采样率类似于动态影像的帧数,比如电影的采样率是24赫兹,PAL制式的采样率是25赫兹,NTSC制式的采样率是30赫兹。当我们把采样到的一个个静止画面再以采样率同样的速度回放时,看到的就是连续的画面。同样的道理,把以44.1kHZ采样率记录的CD以同样的速率播放时,就能听到连续的声音。显然,这个采样率越高,听到的声音和看到的图像就越连贯。当然,人的听觉和视觉器官能分辨的采样率是有限的,基本上高于44.1kHZ采样的声音,绝大部分人已经觉察不到其中的分别了。
        而声音的位数就相当于画面的颜色数,表示每个取样的数据量,当然数据量越大,回放的声音越准确,不至于把开水壶的叫声和火车的鸣笛混淆。同样的道理,对于画面来说就是更清晰和准确,不至于把血和西红柿酱混淆。不过受人的器官的机能限制,16位的声音和24位的画面基本已经是普通人类的极限了,更高位数就只能靠仪器才能分辨出来了。比如电话就是3kHZ取样的7位声音,而CD是44.1kHZ取样的16位声音,所以CD就比电话更清楚。
        当你理解了以上这两个概念,比特率就很容易理解了。以电话为例,每秒3000次取样,每个取样是7比特,那么电话的比特率是21000。而CD是每秒44100次取样,两个声道,每个取样是13位PCM编码,所以CD的比特率是44100*2*13=1146600,也就是说CD每秒的数据量大约是144KB,而一张CD的容量是74分等于4440秒,就是639360KB=640MB。


        来自Android客户端5楼2019-01-25 17:23
        回复
          ★话放
          话放,即放筒放大器。
          ■传声器
          传声器是声电转换的换能器,通过声波作用到电声元件上产生电压,再转为电能。所以说任何一种拾音设备都可称为传声器。但平时我们主要说的还是话筒。
          1.话筒的分类
          话筒通常按它转换能量的方式分类。这里我们还是按录音室对话筒最通用的分类法,把话筒分为动圈话筒和电容话筒。
          动圈话筒,:由磁场中运动的导体产生电信号的话筒。是由振膜带动线圈振动,从而使在磁场中的线圈感应出电压。
          电容话筒:这类话筒的振膜就是电容器的一个电极,当振膜振动,振膜和固定的后极板间的距离跟着变化,就产生了可变电容量,这个可变电容量和话筒本身所带的前置放大器一起产生了信号电压。
          电容话筒中有前置放大器,当然就得有一个电源,由于体积关系,这个电源一般是放在话筒之外的。除了供给电容器振膜的极化电压外,也为前置放大器的电子管或晶体管供给必要的电压。我们称它为幻象电源。
          由于有了这个前置放大器,所以电容话筒相对要灵敏一些,在使用时不可少的一些附属设备有:防震架(一般会随话筒赠送)、防风罩、防喷罩、优质的话筒架。如果要进行超近距离的录音工作,一个防喷罩是不可少的。
          2.话筒的特性
          话筒的指向:一般分为心形、超心形、8字形、枪式、全向指向等。
          至于这些指向究竟是怎么回事,你可找个话筒试试。如图中所示,箭头所指方向为话筒所指正前方,虚线为可拾音的大致范围,在这个范围之外,拾音将不灵敏。如果有条件,建议还是找个多指向的话筒试用一下,就能明白指向的意义了。
          话筒的阻抗:专业录音室应使用低阻抗话玻
          平衡线与非平衡线:平衡线由两根导线和一根屏蔽线构成;非平衡线中则只有一根导线,用屏蔽线代替第二根导线。
          平衡线的优点在于,该线的两根导线拾取不需要的噪声信号的强度相等,因而二者能互相抵消掉。而非平衡线则把噪声信号传输到线路的下一级。
          如果音频信号很强或非平衡线很短,可能不会听到噪声。但话筒线一般都很长,想想看,我们是从录音间拉出线来,经传声盒过墙后再进入控制室的调音、录音系统的。所以,我们要使用平衡线,并相应地使用平衡的插头:XLR,俗称卡农头或公母头;或者是大三芯的TRS。


          来自Android客户端6楼2019-01-25 17:24
          回复
            卡农头的接法上篇已说到:3负、2正、1地。但这只是一般性的接法。最好是先搞清楚一支话筒的插脚的相对极性,并焊好连线,把这支话筒做为标准。有新的话筒时,再把新话筒与之输出混合,听合成声,如果合成声输出电平太小或频率失真(一般情况你听到的是一种压扁的声音),说明存在相位反接现象,必须把接脚重焊。(欧洲的厂家出品的话筒可能以2或3脚为屏蔽,最好的方法还是仔细查看说明书。)
            随便说一下,接错线出现声音反相的情况在接音箱时也会出现,所以在接线时一定要细心,不要以为音箱响了就行,而一定要以正接正,负接负来进行连接。
            多声道录音
            多声道录音就是把若干单声道或双声道立体声的分别同步拾音、记录并最后合成一 个单声道或一个双声道立体声录音的技术。
            由此看来,我们的家庭录音室将采用的也是这种多声道录音技术。
            其工作流程一般为:前期的声源分组、分类→对分好的声源分别进行拾音→录音→后期工作(对前期录好的信号进行加工、修改或补录等)→混音输出成一个单声道或立体声文件→刻盘成AudioCD,或者转录成磁带或DAT。
            在家庭录音室中,一般不采用同期录音的形式(但有时要求不高的小样作品也可这么录),而是采用分期录音的形式。合理的分期录音顺序应是:
            (1)信号轨(这里说的信号常称其为“点”,“打点”)
            (2)节奏乐器(可与信号轨同期录音)
            (3)固定音高的乐器(如钢琴、电子琴等)
            (4)弦乐器与管乐器
            (5)人声
            也就是先录点,或打着点录鼓,再录钢琴等,再录贝司,再录吉它等伴奏乐器,再录主奏SOLO段,再录唱。
            切不可先录弦乐器,因为弦乐器在演奏中易产生音准飘移,而其定弦方法以及标准音定音都与钢琴类乐器不同,所以如先录固定音高乐器,弦乐器就能以之为准。
            3.三种录音方法
            1)单点录音法
            在单声道录音产生的初期,由于没有任何辅助加强话筒,而只能在一个点上拾音,所以才有这样的称谓。
            录音条件:
            (1)话筒摆放应在声源的比例平衡之处。移动话筒位置时,左右移动,解决声源横向的平衡比例,高低或俯仰的移动,解决纵向的平衡比例;
            (2)话筒要放在声场中直达声与反射声比例合适之处。由于我们自己的录音室已做了吸声的处理,所以一般不考虑自然混响的问题,而是在后期混音时再人工加上它。
            (3)话筒与声源的距离不得超过17米。一旦超过,则会产生50毫秒的延时。(不过,想来谁也没有17米长的房间吧?)
            (4)声源的位置也很重要。
            我们可以用两支心形指向的话筒摆成XY制,或用一支立体声话筒来进行单点录音法的立体声录音。此时要注意立体声声象的问题。这就要求录音师要考虑到上述几点条件。如:我们录一个四人小合唱,把话筒放置于指挥的后上方,同时最左和最右的两人分别对应两支话筒的主轴线。然后在试音时再对话筒的高低、远近进行一些调整,就可录到不错的立体声效果。
            2)主话筒录音法
            为得到比单点录音法更大的清晰度或为使自然平衡不佳的声源得到更好的平衡,就要增加若干辅助加强话筒。
            录音条件:
            (1)主话筒与辅助加强话筒的电平关系以主话筒为主,即它只能大于而不能等于,更不能小于辅助加强话筒的电平。也就是说:主话筒担任主录任务,辅助加强话筒只是用来弥补声源个别部分电平的不足。在立体声中,辅助加强话筒起着清晰和稳定声象的作用。
            (2)主话筒要选用较高灵敏度的话筒。
            (3)在话筒的摆放上,要注意辅助加强话筒间方向角的过多重叠,避免使声源各别部分的电平不平衡。
            (4)在立体声的主话筒录音法中还应注意:主话筒与辅助加强话筒的声象必须吻合。
            (5)用两支辅助加强话筒放在主话筒宽度定位的两个端点,可使主话筒录音的声象宽度稳定而准确。
            那么什么情况下可能会用到这种录音方法呢?
            很简单,比如鼓啊!我们可用一支立体声电容话筒,如RODE的NT4(如果没有立体声话筒,可用两支性能相同的电容话筒采用小AB制或XY制来实现,(如两支AKG的C3000B)并用单点录音法放置好,它就是主话筒。再用两支动圈话筒做辅助加强话筒,分别录军鼓和低音鼓。这是一种最简单的录鼓的方式了。


            来自Android客户端7楼2019-01-25 17:24
            回复
              ★关于幻象电源:
              电容麦克风是录音师们首选的麦克风。它具有频带宽广、响应曲线平直、输出高、非线性畸变小、瞬态响应好等非常突出的优点。电容麦克风一般由电容极头和预放大器两部分组成,电容极头需要有一个极化电压(驻极体例外),预放大器也需要用电。它们所需的电源都由信号线携带供给,但并不给信号传送造成问题。这样的供电方式称为幻象供电。以往有的文章称作“幻相”,本人认为不很确切,查过几本字典,Phantom可以解释为幻影,错觉,妄想,影象,幻象等。而与“相位”的相(Phase)毫无关系,译成“幻相”容易产生误导,其实幻象电源是纯直流电源,哪里有什么相位?
              有些电容麦克风是由内部电池供电,更多的电容麦克风通过信号线接收来自它们所连接的调音台或前置放大器获得电源供应。幻象供电也有称为Simplex Powering的。通常是11到48伏的直流电,同时供应电容头的极化和放大电路的用电。各种电容麦克风耗用的电流为1到12毫安培。许多现代的电容麦克风可以允许9到54伏的电压,它们内部装有整流器,能够适应很宽的电压范围。
              幻象供电要求在麦克风和电源供应端之间的平衡连接,通常使用XLR插头的3根导线,2和3脚供给相同的直流电压,这一电压是相对1脚的地电位而言。一般来说,幻象电源的来源是交流市电,只有在没有交流电的地方如野外才考虑用电池供电。
              幻象电源的类型
              现有的幻象电源类型共3类,使用的电压为12,24和48伏。
              12和24伏供电常见于电池供电的调音台,这类调音台由于电源问题而受到很多显著的限制,许多早期的调音台仅供应12或18伏幻象电源和很少的电流。电池供电12和24伏的调音台如Shure的FP33到现在还在应用。
              录音棚内一贯为各路麦克风输入分别提供48伏幻象电源。因为这些调音台都使用市电供电,所以对于幻象电源的供给实际没有什么限制。许多面向录音棚的电容麦克风也设计成48伏电压的。实际上它们也仅在48伏供电时才达到标准的电流。
              甚至在调音台能够为各路麦克风提供48伏幻象电源的时候,仍应注意所供的电流。一些调音台没有为每路麦克风提供12毫安的能力,当你连接上一些麦克风之后,幻象电源就不能再维持足够的电流和电压,甚至出现更严重的后果。这类不愉快经常出现在廉价的或电池供电的调音台上。作为预防,你应该清楚每支麦克风要求的电流和调音台能够供应的幻象电源总电流。
              另有一种比较少见的T-power(又称A-B power)类幻象供电。与传统的幻象供电供给2,3脚相同电压不同的是T-power系统在2,3脚之间有12伏电位差。有一些系统的2脚电位高于3脚12伏;另一些系统却是3脚电位高于2脚12伏。此外这里所说的直流电压被称作“浮动电压”(floating voltage),因为它们并不用地电位作参考。有一些设备如Nagra录音机和前面提到的Shure调音台可以选择用T-power还是传统的幻象供电。


              来自Android客户端8楼2019-01-25 17:25
              回复
                T-power的发明主要是考虑到电影录音经常需要使用很长的信号线。不久以前T-power在美国和欧洲有2种不同的形式,适应T-power供电的麦克风主要有Sennheiser和Schoeps的产品。总的看来,T-power的使用并不很普遍。
                切记:仅T-power供电的麦克风可以用于T-power供电。连接T-power麦克风到普通幻象电源会损坏麦克风,电源或二者俱损。连接用于普通幻象供电的麦克风到T-power电源结果同样糟糕。
                由于幻象供电的执行有几种不同的方式,有时会出现奇怪的现象。最基本的,麦克风输入端供给幻象电源可以分为变压器耦合和无变压器耦合两大类。
                变压器耦合一般使用中心抽头的绕组,幻象电源通过一个电阻送到抽头上,使绕组两端的2,3脚得到相同的电压。为了保持2,3脚之间的0电位差,2支电阻的误差不得超过1% 。
                因为没有一个实际的标准规范幻象供电的执行,麦克风厂商又不提供一个产品兼容目录,通常只有通过试用才能知道究竟。
                调音台上经常有一个幻象电源的开关,控制一组(例如8个)输入插座。你需要知道如果有其他类型的麦克风(例如动圈麦克风)同时应用时会发生什么情况。一般情况下,动圈麦克风的信号从2,3脚送出,即使幻象电源打开,两个脚的电位相等,完全可以正常使用。
                带有内部自己供电的电容麦克风不要接到幻象电源上。电子管电容麦克风也不要接到幻象电源上,它们要求更高的电压和更大的电流,通常配有专用的电源供应。
                如果你试图连接一个带式(ribbon)麦克风到幻象供电的插座,马上就会造成大麻烦,那条可怜的音带这时就变成保险丝了。绝对不要把带式麦克风插到幻象供电的插座上!
                经常检查和维护你的麦克风电缆和插头是个好主意,否则幻象供电的断续或不稳将造成信号的降级甚至出现噪声。
                ★音质
                我们首先来说说音高。
                为什么钢琴上的每个琴键声音都不一样呢(废话,都一样怎么弹)?掀开钢琴盖可以看到钢琴的弦是由粗到细,不一样的。由于粗细不同,弦的振动频率也就不同。很显然粗的弦就不如细的振动得快。音高不同的产生,就是由于振动的频率不同。频率越高,音高就越高。
                声音频率的单位是赫兹,英文简写为Hz。赫兹 (1857-1894),是德国物理学家,他发现了电磁波,为了纪念他,人们用它的名字来做为频率的单位。
                一赫兹是什么概念呢,呵呵,就是一秒钟振动一次。那么440Hz呢,当然就是每秒振动440次。这个声音就是音乐中的标准A音,是乐器定音的标准。而钢琴中央C的频率则是261.63Hz。
                人的耳朵能够听到的范围,是20Hz到20000Hz。这个范围内的声音是人类能够听到的声音。低于这个频率范围的声音叫次声波,这种声音能使人头晕眼花,甚至可以用来制作杀人武器。而高于这个频率范围的声音叫做超声波,这个可能大家都比较熟悉了。如果你要是能听到20000Hz以上频率的声音,嘿,你就可以做蝙蝠侠了。我们的音乐,当然也都在人耳可听到的范围之内。
                接下来说说音量。
                音量的概念很好理解,就是“响不响”的概念嘛。也就是声音的强弱了。音量由声波的振幅决定。什么叫“振幅”呢?这也不是啥黑话,顾名思义就是振动的幅度嘛。呵呵,你可以观察一下吉他的琴弦,轻轻拨动琴弦发出小的声音。再狠狠拨动琴弦发出强的声音,看看琴弦的振动幅度,是不是声音越大,振动的幅度也就越大?哈就是这样。在振动或振荡过程中,振动的物理量偏离中心值的最大值,叫做振幅。
                振幅越大,声压越高,声音听起来也就越响。声音的大小有个单位,这就是分贝。英文简写为dB。人耳可不是仪器,对声音强弱的辨别是一种模糊概念。一般来讲,3分贝内的音量变化,一般人是察觉不出来的。当然,耳朵很好的音乐家或者声学工作者还是可以辨别几个分贝的音量变化的。也许你可以在很多设备和软件上看到增加几dB或者减少几dB这样的控制键,就是这个原理。用这个音量差来衡量声音的变化。


                来自Android客户端9楼2019-01-25 17:25
                回复
                  最后要说的就是音质了。
                  音质这个东西很有意思。呵呵。你看,同样是标准音A,振动频率都是440Hz,但钢琴和二胡的声音相差有多远!即使都是二胡,一把好的二胡和街上乞丐的二胡,音质相差也是非常大,我们在做电脑音乐的时候,要面对各种各样的音色,同样是A,同样的振动频率,音色则千变万化!这究竟是怎么回事?不是振动频率都一样吗?怎么会声音不一样呢?
                  呵呵,音质的不同,是由于频谱特性和包络的不同而造成的。这要从波的构成说起。我们多次说到正弦波,正弦波是什么?它是最纯的波,是构成一切波的基础。也就是简谐运动所产生的波。它的波形是正弦函数的曲线波形,正弦函数是初中课本里的知识,大家应该都知道吧!
                  ★失真:
                  失真是一个令人害怕讨厌的词语, 大概是由于它的负面意义吧。一直以来,在电声产品上,失真都是一个重要的指针。但对发烧友来说,失真的真正意义在哪?当一个讯号经过传输,或经过放大,理论上来说要保持和原讯号完完全全不变是不可能的,故此,从技术的角度看,人们总希望它的失真度越小越好。可是近年大部份资深发烧友都会同意,在听感上来说,失真度这指标却不能有效地反映器材的好声程度。如方才说过,既然讯号经过传输或放大不能保持和原讯号完完全全一样,其间一定出现一些变化,这变化是什么呢?大体不外乎'加多'和'减少'。'减少'这概念较容易明白,就是原讯号在传输或放大过程中遗失了一些东西。至于'加多'就有较复杂的内容了,简单来说,就是在传输或放大过程中,衍生出一些既源于原讯号又有别于原讯号的东西。由于这些都是原来没有的,故也只能是失真的部份内容。
                  在听感上,这类衍生物有时竟会有神奇的作用,譬如说,一些新增的谐波,明显起了像味精的作用,喜欢的人会觉得加了声音更音乐化。又如话筒效应(microphonic)又提供了一些发烧友用作调音的一种有效手段。甚至乎相移(Phase Shift),这个一听起来都不像好东西的,也可以巧妙地被利用来美化音色。在录音过程中加进激励效果使低音冲激力更大更结实,就是运用了相移这东西。于是有一派以最后听音为取舍的,大叫失真无伤大雅,因为如果把失真换成'美化物',或'味精',相信人们对之的抗拒会大为减少,而另一派主要是工程师,却大声说:'数字胜于雄辩'(numbers don\'t lie)。这样的争论,旷日持久,究竟谁是谁非? 这里,我们先不用发烧友这概念,因为一般人可能会倾向于认为发烧友是一些走火入魔的怪人,上面的争论会对什么人有最大的影响呢?答案是喜欢音响的人,这也就是英文的Audiophile,音响爱好者了。
                  至于谁是音响爱好者,这本身已有很大争议。我想这应该涵盖一切喜欢音响技术和听音乐的人,而不应把它局限于拥有价值连城的Hi End器材的一小撮。相信大部份读者发展音响的爱好,往往都是由喜欢听音乐开始,而最先接触或使用的都会是一些普及的器材。我还记得在小三的时候跟?邻家的大孩子一起自己弄矿石收音机,那时候从晶体耳塞传来的音乐,至今难忘,当然晶体耳塞根本不能提供什么低频,可是它的中频瞬变,与及高音的表现,都不是一般晶体管收音机的小扬声器所能比拟。虽然后来才知道AM广播的高频只有7 KHz,连谐波也不会高到10 KHz,但当年的简单矿石收音机却开始了我往后漫长的发烧历程。还记得多年前到香港电台听他们第4台的每月音乐会,在不太大的一个录音间里听钢琴独奏。当时的感受非常美好,音色通透自然。于是心想,如何在钢琴前放两支胆咪,第三支挂高以收取堂音,在混音之前经胆器材调校…想得很远。但当回到现场的乐音中,我很快明白,要重现当时的效果,要重拾当时聆听者的感受,恐怕人类还要作很大的努力。说回先前的争论,以发烧友为主的一派,大可称之为主观主义者(subjectivist),他们坚持现今对失真的了解和运用还很有限,故失真的测量并不是故事的全部。至于以工程师为主的一派可称为客观主义者(objectivist),他们坚持以科学手段去测量和区分器材的优劣。现实可能确是由矛盾组成,综观各种失真的被发现,被测量,以至人们找出对策,诸如总谐波失真,当改善它之后,原来带来了TIM瞬态互调失真;又譬如CD的jitter,被发现和对付,还只是很近年的事。至于两派谁对,我想两者各有各对,因为他们争论的不是同一样东西。发烧友其实不自觉在听感上找寻自己的喜好,而工程师却力图客观地找出衡量器材的标准。故此争论的答案是客观测量标准并不能决定主观的个人喜好。


                  来自Android客户端10楼2019-01-25 17:26
                  回复
                    有人喜欢无源前级,有人反对,一下子大家都升级到什么音乐感等抽象名词上争论,其实这只是两种个人喜好的争论,是两种不同的主观立场。
                    说实在一点,他们争论的,其实不是音乐回放的表现,而是两种前级本身的特有音色。究竟讯号经过这两者,有多少'加多',有多少'减少',工程师插到其中,又能否排难解纷,抑或是会使浑水更浑。这一切,由读者自己下答案好了。
                    ★什么是asio
                    ASIO的全称是Audio Stream Input Output,直接翻译过来就是音频流输入输出接口的意思。通常这是专业声卡或高档音频工作站才会具备的性能。采用ASIO技术可以减少系统对音频流信号的延迟,增强声卡硬件的处理能力。同样一块声卡,假设使用MME驱动[1]时的延迟时间为750毫秒,那么当换成ASIO驱动后延迟量就有可能会降低到40毫秒以下。
                    理解ASIO的含义
                      也许你仍无法认识到解决音频延迟的具体意义,那么,我们姑且换一个角度来看问题:许多朋友都试过用计算机与互联网进行语音通话,就连著名的聊天工具OICQ都有此功能。其实互联网上的语音通讯跟电信部门提供的IP电话是同样机理,只不过由于网络带宽的限制而使得前者的声音延迟现象远比后者严重得多。当话音的延迟在一定的范围内时,人们会觉得尚可接受;但如果延迟量实在太大(比如说每说一句话都要等到5秒以上),那么大家就会觉得这是无法忍受的了。
                    谁会需要ASIO
                      普通声卡在播放音频流的时候是有延迟的,尽管一般用户都不易察觉到它的存在。毕竟,对于播放影碟和双声道的MP3音乐以及玩游戏来说,几百毫秒的声音延迟对应用的影响根本是微乎其微的,完全可以被忽略不计。但是,对于专业的录音师和音乐制作人来说,这几百毫秒延迟所带来的后果就好比我们普通用户要面对响应极慢的互联网IP电话那样,同样是不能容忍。试想,当按下一个琴键时,要经过0.6s以上的时间才能够听到声响,恐怕任何演奏者都很难发挥其正常的水平,更无法控制音乐表演的情绪;录音师进行后期制作的过程中,需要给不同的音频信号做相应的实时效果处理,并对分轨录制的多通道音频流进行混音,以得到最终的双声道立体声或是5.1声道的环绕声格式。在对多个声部的音频进行缩混时,如果声音有延迟且延迟时间各不相等,那么多个声道之间的信号同步就会成为大问题,录音师就会因此而无法对混音的结果进行准确判断。为此,他们十分迫切需要一种能够让音频设备实现“零延迟”的技术,这个技术就是Steinberg定义的ASIO。


                    来自Android客户端11楼2019-01-25 17:26
                    回复
                      ASIO的本质
                        为了实现“音频设备零延迟”的理想,著名的音乐制作软件Cubase VST的开发者Steinberg公司提出了被称为Audio Stream Input Output的标准规范,其目的是为了让各硬件厂商开发出来的设备能够很好地与Steinberg的音频处理软件Cubase VST相结合,以使其在数字音频处理和软件音源模拟方面发挥出最佳的性能水平。ASIO完全摆脱了Windows操作系统对硬件的集中控制,它能实现在音频处理软件与硬件之间进行多通道传输的同时,将系统对音频流的响应时间降至最短。根据ASIO规范中定义的细节,声卡厂商可以为其硬件产品编写出高效能的ASIO驱动程序,使用声卡硬件对音频流的响应时间降低到十几毫秒以内。要知道,即便是对于那些极其苛刻的专业音乐制作人,这样低的延迟量也是根本无法察觉到的。
                      ASIO与DirectSound
                      ASIO的目的在于最大程度地降低系统播放音频流时的延迟时间。也许有读者会因此联想到DirectSound——不错,ASIO跟DirectSound的确十分相似,二者都是以设法绕过Windows操作系统对硬件设备的控制、直接与硬件端口取得通讯的思路来实现提高响应速度的目的。不过,ASIO的革命性要比DirectSound更彻底一些:如果把DirectSound比喻成用高级语言实现的程序,那么ASIO就是用汇编代码构成的程序——不仅结构更为紧凑,效率也大为提高。更何况,ASIO不仅是驱动上的革命,还需要硬件芯片的支持。在驱动与硬件的紧密结合下,ASIO将延迟降至极低的程度是必然的事情。
                        不过,如果你的声卡仅支持ASIO而不支持DirectSound,那么就无法用Windows任务条上的小喇叭来实现音量控制,而运行最常用的一些娱乐软件,诸如超级解霸和WinAmp等的时候,也无法通过播放器界面中的音量推子来控制声音的大小。
                        某些声卡可以同时支持MME、DirectSound、ASIO、GSIF[2]等多种标准,并通过软件实现不同兼容方式之间的切换。对于那些需要兼顾专业创作和日常应用的朋友而言,这样的声卡无疑是十分方便的。
                      哪些声卡支持ASIO
                        并非所有的声卡都能够支持ASIO。如前所述。ASIO不仅定义驱动标准,还必须要求声卡主芯片的硬件支持才能够得以实现。在过去,只有那些价格高贵的专业声卡,在设计中才会考虑到对ASIO的支持。我们日常所用的声卡,包括创新过去的SB Live!系列都属于民用卡的范畴,所以没有哪一款是配备了ASIO驱动的。
                        有趣的是,SB Live!的主芯片EMU10K1本身支持ASIO,只是这一性能并未在创新自带的LiveWare! 3.0驱动中体现出来。因此,当你将SB Live!的驱动程序换成采用同样规格设计的E_mu APS录音卡的驱动后,音频处理软件就会报告说找到ASIO!
                        另一个比较有意思的例子是采用CMI8738芯片的各种多通道声卡。CMI8738本身也是具备ASIO的潜质,只不过至今还没有合适的驱动将其发挥出来。
                        首款公开声称彻底支持ASIO技术的民用声卡是创新最新推出的SoundBlaster Audigy。这款SB Live!的换代产品不仅提供了高达24bit / 96 kHz的声音品质,而且还全面支持ASIO、SB 1394等最新的先进技术。SB Audigy的面市,使得民用声卡跟专业声卡之间的距离又缩小了一层。
                      如何判断与应用ASIO
                        在音频处理软件的菜单栏中找到“Setup Preferences Audio”或是“Setup Audio Hardware”,在Device下拉选单中会列出当前可用的音频设备。如果声卡不支持ASIO,那么下拉选单中就就只会显示出ASIO Multimedia Driver一项,这实际上是MME驱动对ASIO的软模拟;如果声卡使用的是ASIO驱动,那么在此下拉选单中还会有另外一项,例如MAYA ASIO Driver或SB Audigy ASIO。
                        将软件的音频输出设置为ASIO设备后,播放多轨音频、使用实时效果器以及使用VSTi软音源时就会得到近乎完美的效果。不过,要想真正达到“零延迟”(指延迟时间在10ms以下),还须对ASIO设备的缓冲区进行设置。
                        单击音频属性设置中的Control Panel打开ASIO控制对话框,单击Advance按钮进入高级设置。这里最重要的参数是Buffer Size,也就是音频缓冲区的大小。一般来说,缓冲区设置得大一些,可以增加系统的稳定性,缓解因数据传输或处理过程中的速度差异而导致的爆音现象;而把缓冲区设置得小一写,则会提升系统的响应时间,减少音频延迟。总之,缓冲区的大小设置,需要根据你所用电脑的CPU和内存等硬件的性能而定。


                      来自Android客户端12楼2019-01-25 17:26
                      回复
                        设置好音频缓冲区后,音频软件会提示说环境设置已改变,要求进行测试以保证将来的工作正常。测试的主要内容是检查数据包是否会有丢失,整个过程大概需要数十秒至1分钟左右。当看到如下图所示的成功信息后,你就可以在音频处理软件中充分享受到“零延迟”所带来的种种乐趣了!
                        ★信噪比
                        SNR:(signal to noise ratio)信噪比也就是声卡抑制噪音的能力,单位是分贝(dB,decibei);声卡处理的是我们有用的音频信号,而噪音是不希望出现的音频信号,如背景的静电噪音,工作时电流的噪音等等,应该尽可能的减少这些噪音的产生,在正常工作状态,没有出现饱失真和与截止的情况下,有用信号的功率和噪音信号功率的比值就是SNR,SNR的值越高说明声卡的滤波性能越好,声音听起来也就越清澈。
                        ★总谐波失真
                        THD + N:(total harmonic distortion + noise)指的是声卡的保真度,也就是声卡的输入信号和输出信号的波形吻合程度,完全吻合当然就是不失真,100%的重现了声音(理想状态);但实际上输入的信号经过了D/A(数、模转换)和非线性放大器之后,就会出现不同程度的失真,这主要是产生了谐波;THD + N就是代表失真的程度,并且把噪音计算在内,单位也是分贝,数值越低就说明声卡的失真越小,性能也就越高


                        来自Android客户端13楼2019-01-25 17:27
                        回复
                          顶顶


                          IP属地:陕西来自iPhone客户端14楼2019-01-25 17:27
                          回复
                            ★音调,音色,响度
                            声音的三个特征:音调,音色,响度。音调表示声音的高低,当我们听各种不同频率声音的时候都会有一种高音发声的位置来自较高处,而低音发声的位置来自较低处的感觉,这就是音高 (Pitch) ,或称音调 (Tone);音色是指基本周期内的波形;响度是单位时间内通过垂直于声波的传播方向的单位面积上的平均声能。单位为“W/m2”。
                            音调与频率有关;响度与振幅有关。
                            以听觉心理而言,即声音三个特征是:音的大小(Loudness),音高 (Pitch)与音(Timbre)。
                            以物理特性而言,声音是一种振动,或者说是一种质点如空气分子位移或速度的交替变化。又或是空气密度一再重复地改变其疏密度的振动状态,逐渐扩大於周遭空间的一种波动现象。如果我们用以表示振动状态的基本量度,有振动强度,振动频率与振动波形三种。声音的大小略等於振动的强度,音高略等於频率,音色极近於波形。
                            一.音调(音高)
                            声音种类很多,每种声音各有自已的特征。声音的特性中有一种叫做音调。
                            例如女生的声音比男生高,钢琴右键的声音比左键的声音高。这是因为发声体在单位时间内声波振动次数(频率)不同所造成的。一般而言,我们还会有一个听觉的经验,就是较大物体振动的音调较低。而较小物体振动的音调较高,例如大鼓振动声的音调较低。余振也较长,小鼓的音调较高,余振也较短。
                            什么是音调呢?
                            解释音调的最好办法是用音阶。
                            音阶*的相对频率


                            来自Android客户端15楼2019-01-25 17:27
                            回复