蓝三个颜色数值,算一张图就要处理上千万个数字;要是教ai认猫需要100万张图,那就要处理10万亿个数字。
以前的计算机,算力不够,处理这些数字要花特别久的时间。比如早十几年,要训练一个能“勉强认对猫”的ai,可能需要一台普通电脑算几个月——中间要是电脑卡了、断了电,还得重新算。那时候别说“用ai做日常事”了,就连实验室里的研究人员,都得等好久才能看到结果。
但现在不一样了,咱们有了“ai专用芯片”——比如大家常听说的gpu(图形处理器),还有专门为ai设计的tpu(张量处理器)。这些芯片就像“超级高压锅”,处理数据的速度比以前快了几百倍、甚至几千倍。
举个例子:以前用普通电脑训练一个“识别图片里物品”的ai,可能要3个月;现在用ai专用芯片,可能只要1个星期,甚至更短。而且速度快了之后,ai还能“反复学”——比如第一次算完,发现“认错狗的概率有点高”,可以马上调整方法,再算一次,几天就能出结果,不用等几个月。
算力变强,还让ai从“实验室”走进了咱们的手机、电脑里。以前ai只能在超级计算机上跑,普通人根本用不上;现在呢?咱们的手机里都有“小算力”——比如拍照时的实时美颜,其实就是手机里的ai在“快速算”:几毫秒内,就把你的脸型、皮肤的数字算一遍,然后调整“皮肤的颜色数值”(让皮肤更白)、“脸型的坐标数值”(让脸更瘦),你按下快门的瞬间,美颜就做好了。要是以前的算力,拍一张照片,可能要等几秒钟才能出美颜效果,谁还会用?
再比如导航软件的实时路况:导航能告诉你“前面1公里堵车,需要绕路”,靠的是ai实时算“成千上万辆车的位置数据”——比如这1公里内,有多少辆车在走,每辆车的速度是多少,然后算“这些车的速度慢到多少,就算堵车”。要是算力不够,等ai算完“堵车情况”,可能已经过去十几分钟了,导航告诉你“堵车”的时候,你早就堵在里面了,一点用都没有。
所以说,“算力变强”是ai火起来的“加速器”:没有足够快的计算速度,就算有再多数据,ai也只能“慢腾腾地学”,永远没法“及时帮上忙”;只有算力够了,ai才能“学得快、用得快”,变成咱们能随时用的工具。
四、第三驾马车:算法变好了——ai的“学习方法”终于变“聪明”
有了足够多的数据(原材料),有了足够快的算力(工具),ai就能“学好”了吗?还缺最后一个关键:“学习方法”得对——就像两个人一起学做饭,都有米、有高压锅,但一个人会“看火候”(比如煮米饭时,水开了之后要小火焖),另一个人只会“一直大火煮”,最后一个煮出来的饭香喷喷,另一个可能煮成“夹生饭”或者“糊饭”。
ai的“学习方法”,就是“算法”——简单说,就是ai用来“找数据规律”的一套“规则”。
以前的ai为啥“容易错”?不是数据不够,也不是算力不行,而是算法“太笨”,找规律的能力差。
比如以前教ai认猫,用的算法比较简单,只能找“大的规律”——比如“猫是毛茸茸的、有四条腿的动物”。但这样的规律太笼统了:狗也是毛茸茸、四条腿,兔子也是,所以ai很容易认错。而且以前的算法“不会举一反三”:教它认“白色的家猫”,它看到“黑色的流浪猫”就不认识了,因为它没从“白色家猫”的规律里,学到“所有猫的共同特征”。
但现在不一样了,咱们有了“更聪明”的算法——最典型的就是“深度学习”。这个算法的思路,有点像“咱们人类看东西、想问题的方式”:比如咱们认猫,不是只看“毛茸茸、四条腿”,而是会看“耳朵是尖的还是圆的”“眼睛是大的还是小的”“有没有胡子”“叫声是啥样的”——把这些“小细节”合在一起,就知道是不是猫了。
深度学习也是这么干的:它会把数据拆成“小细节”,一层一层地找规律。比如认猫的时候,第一层先找“图片里的线条”(比如耳朵的轮廓线、眼睛的轮廓线),第二层找“线条组成的形状”(比如三角形的耳朵、圆形的眼睛),第三层找“形状的组合”三角形耳朵+圆形眼睛+长胡子”),最后一层把这些组合起来,判断“这是不是猫”。
这样的算法,比以前“聪明”在哪?
第一,能找“细规律”,不容易认错。以前的算法只会看“大特征”,现在的深度学习能看“小细节”——比如区分猫和狗,它能注意到“猫的瞳孔是竖的,狗的瞳孔是圆的”“猫的胡子更细更长,狗的胡子更粗更短”,这些小细节一抓,认错率就大大降低了。认猫的准确率,已经能达到99以上,比很多小朋友认的都准。
第二,能“举一反三”,学得更灵活。比如教ai认“苹果”,给它看的都是“红色的圆形苹果”,但深度学习能从这些苹果里,学到“苹果的表皮有光泽、顶部有小凹陷、咬一口有果肉和籽”这些“共同特征”——就算