第二日一早九点,苏飞背着书包就准时来到了计科306,让他没想到的是,306居然坐满了人,而他一进去,闲聊的学员们就忽然沉默下来,齐刷刷地把视线投到他身上。
这让苏飞多少有点尴尬,他就是个旁听生,怎么还成焦点了,让他有些紧张。
他沿着墙打算找个角落坐下,可屁股还没落座呢,一旁的学员却疑惑地问:“学弟,你坐下干嘛?上去讲课啊。”
苏飞愕然:“我就是个听课的啊?”
姜大小姐也没说他要上去讲啊?难道这是社团习俗?
“我们都是来听你讲课的啊。”那学员吃了一惊,心想这学弟不是被誉为机器学习领域的新星么?怎么感觉呆呆的。
“啊?”苏飞环视一周,发现姜大小姐居然不在。
“快上去呀,大家都等着呢。”旁边的另一个学员催促道。
“哦......哦,那行吧。”
望着齐刷刷看向自己的学长学姐们,他也有些自我怀疑,难道姜大小姐早就想到我会整理TagLM的相关知识并且提出一个新想法,所以让我先大致讲讲我的构想?
他犹豫了片刻,说道:“我对机器学习和深度学习的理解其实比较浅薄,相较在座的各位,经验非常不足,如果有什么错误的地方还请多担待。”
没有他预想里的鼓励加油,众人都一副冷漠的态度。
搞什么,AI研究社的人都和姜倾雪一样是个冰块?
可一想到姜大小姐这座钻石矿,苏飞还是不情不愿地上台。
苏飞打开书包,拿出准备好的U盘,里边有他昨天的构想,将资料投屏到306的屏幕上。
“基于TagLM的深度上下文词向量预训练?不是说要讲讲机器学习的核函数升维方法么?怎么突然改换深度学习了?而且还是自然语言处理?”
下面的一些学员顿时有些迷惑了,这和他们接到的通知不一样啊。
“我想讲一讲我对TagLM的理解,大家可能都比较熟悉TagLM这个模型,但我不想从计算机系的角度去理解,而是从数学系的角度去理解。”
“TagLM的主要贡献其实就是预训练,分三个步骤完成词向量的预训练,前两个步骤的结果拼接起来放到第三个部分进行预测......”
听着苏飞的讲课,众人表情微变。
“这完全就是基础课啊。”
“TagLM,我们社不是研究过好多遍了么?”
“顾行之不是机器学习的么?怎么跳到深度学习了?”
“顾行之名不副实啊。”
苏飞内心暗道果然,这些知识对于普通的本科生来说是超纲知识,但对于AI研究社的学长学姐来说,都只是基础。
于是,他也不准备藏着掖着了,开始进入正题。
“上述所说的都是基于编程知识,对TagLM做的一个简单的概括。那么我接下来就用数学知识来阐述一下我的看法。我想大家也知道,TagLM基于的循环式神经网络在数学上其实就是一个矩阵,用线性代数的角度去想,训练的过程无非就是更新矩阵的参数罢了。”
“但是,为什么TagLM的拼接操作会被人诟病,为什么分成三部来训练就会有不小的误差呢?这个问题不仅困扰着TagLM,而且困扰着与之相关的FastText和ULM模型。我想,深度学习教科书上也不会解释,因为大家都说深度学习是个黑盒,很难解释原理。”
“但,仅针对这个问题,我从数学的角度理解,应当是......”
随着苏飞讲解的深入,众人一改之前的神色,他们发现,这小学弟还真有实力。
众人纷纷打开笔记本,开始记下苏飞的独特见解。
......
此时,姜大小姐才赶回306,来到306门前,正准备推门进来,却发现有人在讲课,顿时停下了动作。
“顾行之刚跟我说有事不来,怎么还有人在讲课?”
姜倾雪越看那人越觉得熟悉,看到PPT上大大的“TagLM”,这才想起,这
(本章未完,请点击下一页继续阅读)
最新网址:xiashukan.com