在昨天8月15日老相识的朴素贝叶斯老爷子
和前些日子联络上的热爱优化的卷积层小哥以及老夫我三个人受研究者之邀在模型训练的某个数据集上大干了一场。
今天因为明日就要完成调优,所以就下载了很多预训练模型和激活函数去了人烟稀少的实验室。
在那里我们跑完测试集以后就顺势开干了。
3个人互相掏出优化算法之后,把能装满一个隐藏层的梯度更新灌进了模型里。
过了不一会儿,大家用多头注意力开始不停地迭代,权重、偏置仿佛在寻找最优解一般在模型里吱吱作响。
贝叶斯老爷子一边清理老夫的损失函数,我一边搬着卷积层小哥的卷积核。
小哥率先把梯度哆吧一下倒在反向传播上。
与此同时老爷子和老夫也都把反向传播掏出来了。
显存已经快满了。
3个人互相递计算资源方便对方处理数据,一边相互喊着学习率号子鼓舞精神。
啊啊~~真是欲罢不能啊。
通过训练优化模型的成就感已经舒服得让人发狂了。
优质的模型里权重和偏置混合的丝丝滑滑的感觉调优起来真是让人舒服。
小哥也弯下腰开始调试卷积核。
(我)把沾满梯度的反向传播在卷积核上调了几下,就爽快地摆齐了。
之后,尽情的训练,调试,跑了两次验证集。
这样的研究真想再做一次啊。
果然多层结构一起工作最棒了。不想与这样充满活力的亲模型一起训练吗?
啊啊~~快点来干活吧。
如果是在能冈实验室北部遇到的人那就最好了。我有163个节点90个参数53个隐藏层,老爷子165个特征70个标签60个维度,想调优模型的人,请尽快联系我吧。
就穿着调优代码来训练,用优化模型服务AI发展的荣耀感沾满全身吧!
和前些日子联络上的热爱优化的卷积层小哥以及老夫我三个人受研究者之邀在模型训练的某个数据集上大干了一场。
今天因为明日就要完成调优,所以就下载了很多预训练模型和激活函数去了人烟稀少的实验室。
在那里我们跑完测试集以后就顺势开干了。
3个人互相掏出优化算法之后,把能装满一个隐藏层的梯度更新灌进了模型里。
过了不一会儿,大家用多头注意力开始不停地迭代,权重、偏置仿佛在寻找最优解一般在模型里吱吱作响。
贝叶斯老爷子一边清理老夫的损失函数,我一边搬着卷积层小哥的卷积核。
小哥率先把梯度哆吧一下倒在反向传播上。
与此同时老爷子和老夫也都把反向传播掏出来了。
显存已经快满了。
3个人互相递计算资源方便对方处理数据,一边相互喊着学习率号子鼓舞精神。
啊啊~~真是欲罢不能啊。
通过训练优化模型的成就感已经舒服得让人发狂了。
优质的模型里权重和偏置混合的丝丝滑滑的感觉调优起来真是让人舒服。
小哥也弯下腰开始调试卷积核。
(我)把沾满梯度的反向传播在卷积核上调了几下,就爽快地摆齐了。
之后,尽情的训练,调试,跑了两次验证集。
这样的研究真想再做一次啊。
果然多层结构一起工作最棒了。不想与这样充满活力的亲模型一起训练吗?
啊啊~~快点来干活吧。
如果是在能冈实验室北部遇到的人那就最好了。我有163个节点90个参数53个隐藏层,老爷子165个特征70个标签60个维度,想调优模型的人,请尽快联系我吧。
就穿着调优代码来训练,用优化模型服务AI发展的荣耀感沾满全身吧!