Anti-aliasing of neural distortion effects via model fine tuning
Alistair Carson, Alec Wright, Stefan Bilbao
近年来,神经网络已经变得无处不在,吉他失真效果建模。 尽管它们能够产生具有感知说服力的模型,但它们在高频和高增益输入驱动时容易受到频率别名的影响。 非线性激活函数既会产生所需的谐波失真,又产生不需要的别名失真,因为信号的带宽扩展超出了Nyquist频率。 在这里,我们提出了一种通过师生微调方法减少神经模型中别名的方法,其中教师是一个预先训练的模型,其权重被冻结,学生是具有可学习参数的副本。 学生对通过原始模型传递正弦并从输出光谱中去除非谐波组件生成的无别名数据集进行了微调。 我们的结果表明,这种方法显着抑制了长短期记忆网络(LSTM)和时间卷积网络(TCN)的别名。 在我们的大多数案例研究中,别名的减少大于两次过度抽样。 提议方法的一个副作用是谐波失真组件也受到影响。 这种不利影响被认为是与模型相关的,LSTM模型在抗锯齿和保持与模拟参考设备的感知相似性之间提供了最佳平衡。
Neural networks have become ubiquitous with guitar distortion effects modelling in recent years. Despite their ability to yield perceptually convincing models, they are susceptible to frequency aliasing when driven by high frequency and high gain inputs. Nonlinear activation functions create both the desired harmonic distortion and unwanted aliasing distortion as the bandwidth of the signal is expanded beyond the Nyquist frequency. Here, we present a method for reducing aliasing in neural models...