返回第53章 大功告成(1/2)首页

字体:     护眼关灯

第53章 大功告成(1/2)

上一章目录下一页

第53章 大功告成 第(1/2)页

不过,在跑代码之前,还要对数据进行预处理。

江寒先从报名信息表中,将性别信息仍然“健在”的行挑出来,只保留序号、姓名和性别,另存为label.xls。

这些记录一共9527条,大约占三万多条数据总数的30%。

它们对应着9527张真彩色照片。

24位真彩色的图片,每个像素点在内存里,要占用3个字节的存储单元。

每张照片有210×120个像素,这样读入一张照片,需要的内存空间就是210×120×3=个Byte。

9527条数据,共需要9527×=B≈686.88M≈0.7G!

这个内存开销,还是比较容易接受的。

但是,“感知机”的算法,需要进行大量浮点乘法运算。

对每个像素的每个RGB分量都算一遍?

没那个必要,也太浪费时间。

所以,聪明的做法,是先把照片数据“压缩”一下。

江寒给“感知机”的代码,添加了一个LoadData函数,用来读取和处理照片数据。

在这个函数里,先定义一个二维的整形数组Feature。

然后从label.xls中读出序号、姓名信息,按照刚才建立的索引表,找到对应的照片文件。

下一步,将照片读取到内存中,读取的同时,将每个像素二值化。

具体做法是:色彩浓度在阈值以上的像素,取值为1,低于阈值就让它为0。

这样一来,原本的真彩色照片,就被转换成了黑白轮廓图。

然后,再将轮廓图中的0或者1的取值,按照从左到右、从上到下的顺序,重新编排成一行数据,存放到数组Feature中。

Feature中的每一行,都存储了一张照片的二值化信息。

一共9527张照片,就需要9527行。

全部照片处理完毕后,就得到了一个巨大的二维数组Feature。

它有列、9527行。

接下来,定义一个拥有9527个整形元素的一维数组Label。

从label.xls中读入性别信息,男生设为1,女生设为0,存放在数组Label中。

Feature加上对应的Label,就构成了训练数据集。

训练“感知机”时,将一行行Feature代入公式中,进行加权和运算,其结果再通过sign函数,转换为0或1,然后和对应的Label值对照。

如果不相符,就调整权重和偏置,然后重新计算。

当每一个Feature代入公式后,都能计算出正确的Label时,就得到了一组权重和偏置。

也就是说,构建出了一个可用的数学模型。

依据这个模型,计算机就可以读入任何一张同尺寸、类型的照片,对其二值化的数据代入模型中运算,并根据运算结果判断分类归属。

这就是典型的机器学习过程,计算机从数据中自己“学”到了某种规律。

即使这种规律,人类并不一定完全理解,也不见得能用数学语言解释清楚……

剩下的就比较简单了。

接下来,江寒又添加了几个函数,用来输出运算结果、观察运行情况等。

最后,从头调试了一遍,确认没啥bug后,将代码重新编译,然后运行了起来。

屏幕上有一些数字,表示当前正在处理的数据,和训练进度的百分比。

十分钟后,后一个数字才刚刚达到1.3%。

这表示,完整训练一遍,大约需要13个小时……

之所以这么慢,主要是江寒的程序,比较追求稳定性,以及调试的方便、快捷,并没特别讲究执行效率。

当然,即使他用心优化,估计也需要8个小时以上,才能完成训练。

虽然有点慢,但其实没什么关系,训练过程并不需要人工干预,挂机等着就行。

第二天早晨,江寒起床后,先看了下训练进度,还差了大约13%才能完成,就先去班级上课。

中午吃完饭回来,训练终于结束了。

而存放权重和偏置参数的Weight数组,也以内存映像的方式,保存在了一个二进制文件中。

接下来就简单了。

重建一个一模一样的感知机模型,加载上这个权重文件,就可以用它来判断剩余照片的性别了。

江寒重新改写代码,然后运行。

这次十分迅速,只用了不到20分钟,就将两万一千来张照片,全部处理完毕。

这就是“感知机”,或者说“人工神经网络”的特点。

训练起来特别耗时,一旦训练完成,工作起来非常快捷。

至于正确率,江寒初步估计,大大超过99%,条未经训练的数据里,判断出错的,绝不超过10人。

比人类肉眼的识别率低不到哪里去。

事实上,“感知机”或者说“人工神经网络”的错误率,跟训练数据、测试数据的质量有很大关系。

这章没有结束,请点击下一页继续阅读!

喜欢重生学神有系统请大家收藏:(m.xinqdxs.net)重生学神有系统青豆小说更新速度全网最快。

(本章未完,请翻页)

青豆小说阅读网址:m.xinqdxs.net

加入书签我的书架

上一章目录下一页