2020/9/27 收获 google浏览器是个好东西,插件更是一个好东西; Google搜索可以用插件解决,但Google学术搜索要翻墙
2020/9/28 以前自己对于不懂的问题的思路是: 以一种不耻下问的思想去问会的人,而没有经过大脑思考或者自己没有进行任何相关的搜索, 总以为,只要自己去问,就一定能得到好的答案;殊不知,这和研究生的学习过程背道而驰; 研究生,是一个发现问题、提出问题到解决问题的过程;发现问题人人都可以做到,但提出问题自己几 乎没有想着去培养这种习惯;提出问题有分为两种,傻傻的去问和理性的去问;傻傻指得是没经过实地 考察调研或者说没有上Google搜索找答案,理性则截然相反。 以后的我,对于碰到的问题,要先去搜索问题是什么,怎么样去解决的大概过程,经过自己的 思考后,再去想别人提问。
2020/9/29 别在羡慕别人了,自己努力做自己就好 研究生课程的学习不能平均发力,针对自己感兴趣的课程集中发力,把论文写好达到能发表的要求。
2020/10/4 掌握 ——多层感知器的概念 多层感知器:它就是一种数学模型,包括输入层、隐含层(如果有的话)、输出层 单层感知器:相比于多层感知器,其没有隐含层;
CIFAR-10:和MINIST数据集不同的就是,CIFAR是彩色图像,32*32,噪声大,物体比例、特征不尽相同 10类别 50000Train、10000test,每一类6000 下载版本:python、matlab、二进制版本
CIFAR-100:同CIFAR-10类似,100类 每类600,500Train、100Test 100类分为超类,每个图像有“精细”label、“粗糙”label(超类) 例:超类为鱼,类别为水族馆的鱼、比目鱼、鲨鱼等
SVHM(Street View House Numbers):街景门牌号 10类别,数字1~ 9对应标签 1 ~9,“0”的标签为10 训练集:73257张 测试集:26032张 数据集格式:带有字符级边界框的原始图像
dropout:对于神经网络单元,按照一定的概率将其暂时从网络中丢弃(tips:暂时) 作用:可以有效防止过拟合,进而提高实验效果
tips:神经网络的常用训练过程是,数据集分为训练集和测试集,训练集再细分为测试集和验证集;进行神经网络的训练是,正常进行训练,得到了超参数固定的网络;我们再用训练集和验证集从头开始对网络进行重新训练,得到的最终模型才可以用于测试。