第241章 专业能力是一点没落下(1/3)
“你小子。”
林远桥一眼就看到了安澜,挑了挑眉,用口形说了一句,显然认出了这位“不速之客”。
安澜冲他笑了笑,还做了个开枪的手势,两人心照不宣。
在前年一起备战ICPC竞赛的时候,林远桥就总是调侃安澜“纨绔脸,学霸心”,如今看来是一点没变。
林远桥走上讲台,伸手敲了敲白板,用一口流利的华夏腔英语说道:“各位,今天我们讲卷积神经网络的基础架构,相应的知识很关键,别走神啊。”
他故意瞥了一眼安澜的方向,嘴角带着一丝笑意。
安澜靠在椅背上,掏出手机,随手翻了翻消息,看似漫不经心,实则讲台上的内容一个字都没放过。
林远桥对着PPT讲解一阵,又拿起马克笔,转身在白板上画出一个残缺的卷积核矩阵:“刚才讲到残差连接时,有同学注意到GoogLeNet的Inception模块里——”
他突然用笔帽敲了敲黑板边缘,随后看向安澜:“Oi,玩手机那个,知道为什么他们要用1×1卷积核做瓶颈层降维吗?”
“帅哥,林助教问你呢……”不少人回过头来,安澜旁边的白人姑娘也轻轻戳了戳安澜的胳膊肘。
她也和其他同学一样,有些好奇为什么助教今天突然问起问题来了。
“啧啧。”安澜慢悠悠抬起头,指尖还停留在手机屏幕的Tiktok界面,嘴上却毫不犹豫地开口回答:“因为要压缩通道数的同时保留空间特征。”
他晃了晃手机:“比如原始输入是256通道的3×3特征图,先用1×1卷积核降到64通道,计算量从256×3×3×256骤降到256×1×1×64,再通过64通道的3×3卷积处理,整体FLOPs能减少大概80%。”
他顿了顿,目光扫过林远桥故意写在黑板角落的公式:“不过你这个例子里的分组卷积参数设置有点问题,最后一层的ReLU激活函数放在了拼接操作之后,会导致梯度消失的风险。”
“啥?”教室里响起几声倒吸冷气的声音,前排几个学生慌忙掏出笔记本。
林远桥挑眉,粉笔在黑板上敲出哒哒轻响:“哟,那你说说怎么改?”
安澜把手机倒扣在桌上,伸手指了指白板:“应该把ReLU放在每个分支的卷积层之后、拼接之前。”
他站起身,走到白板前拿起马克笔:“就像这样——”
笔尖流畅地画出三个并行的卷积支路,每个支路都在卷积核后标注了ReLU激活函数:“这样每个分支的特征图在融合前都经过非线性变换,能提升模型的表达能力。”
本章未完,点击下一页继续阅读。