目录

论文阅读-EEG-TCNet

论文阅读 EEG-TCNet

EEG-TCNet: An Accurate Temporal Convolutional Network for Embedded Motor-Imagery Brain–Machine Interfaces

1. Intrduction

本文提出了一种新颖的时间卷积网络(TCN),在需要很少的可训练参数的情况下实现了出色的精度。EG-TCNET成功地推广了单个数据集,通过0.25的元效应优于MOABB的当前最新技术水平(SoA)。 具有EEGNet的紧凑性和TCN的高精度。

具有2.5 k参数和13个MMAC的 EEGNet:​ 13 百万次 MACs:表示模型完成一次推理需要执行 13,000,000 次乘加运算.

当在长输入序列上训练时,TCN不会遭受特别是爆发或消失的梯度问题。

EEG-TCNET只需要4272个可训练参数和每个推理6.8个MMAC。

2. BACKGROUND

2.1  深度学习的MI分类

深度学习的MI分类分为两类:特征输入(FI)网络和原始信号输入(RSI)网络。后者联合收割同时组合和训练特征提取和分类过程。

(FI)网络:

(RSI)网络:MSFBCNN 、MI-BMI、EEGNet 、Shallow ConvNet

2.2 TCN

https://i-blog.csdnimg.cn/direct/fe5c6f96c69f40e491f46a7afebe08e3.png

1、因果卷积:tcn产生与输入相同长度的输出。为此,tcn使用1D全卷积网络(FCN)架构,其中每个隐藏层的大小与输入层相同,此外,因果循环被用来阻止信息流从未来流向过去。简单地说,时刻t的输出只取决于时刻t和更早的输入。

2、空洞卷积:一个规则的因果卷积只能在网络的深度上线性地增加它的接受域大小。这是一个主要的缺点,因为要么需要一个非常深的网络,要么需要一个巨大的内核大小来获得一个大的接受域大小。为了解决这个问题,tcn使用扩展卷积,这允许网络通过增加扩张因子d,以指数方式增加其接受野的大小,与网络深度成正比。

3、残差块(Residual Blocks): TCN的残差块由两层扩展卷积组成,具有批处理归一化、Relu和卷积之间的dropout层。尽管tcn只具有1D卷积的特征,但它们仍然能够处理二维特征图。跳过连接将输入添加到输出特征映射,并检查如果输入和输出的深度不同,则将1x1卷积放置。

通过堆叠残差块,感受野大小随着每个残差成指数增长,因为每个后续堆叠块膨胀因子d成指数增长,TCN感受野变化为:

https://i-blog.csdnimg.cn/direct/70dd02d3b1c24ec6841cc9a19b517289.png

3. METHODOLOGY

3.1. Data Pre-processing

时间范围是MI提示之前0.5秒,直到MI结束,产生4.5 s长度的时间序列,1125个样本。采样率250 Hz,不应用额外的带通滤波。

3.2. EEG-TCNET

https://i-blog.csdnimg.cn/direct/909d9d0f3664447fb6a1126a0102ddc5.png

4. 代码复现