当前位置:贝登书院>其他类型>大白话聊透人工智能> 让AI学会“理性思考”:思维法则与方法的全景解析
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

让AI学会“理性思考”:思维法则与方法的全景解析(2 / 3)

可能下雨就带伞”),但纯靠逻辑的ai就会“卡壳”——因为它的“思考规则”里没有“不确定”的位置。

三、概率论:让ai在“不确定”

为了让ai应对现实世界的“不确定性”,“概率论”被引入到理性思考的框架中。“在信息不确定时,通过概率计算来做最优决策”

1 概率推理的“基本逻辑”性衡量不确定性

概率推理的思路很简单:把“不确定的事件”用“发生的可能性大小”来量化。天下雨的概率是60”币正面朝上的概率是50”。

ai进行概率推理时,通常会用到“贝叶斯定理”“根据新证据不断更新对事件的概率判断”

翻译成大白话就是:“在出现证据b后,事件a发生的概率 = (事件a发生时出现b的概率 x 事件a原本的概率) ÷ 证据b本身的概率”。

举个例子,判断“小明感冒了(a)”的概率,已知“小明咳嗽(b)”

- p(a) :小明原本感冒的概率(比如10);

- p(b) :小明咳嗽的总概率(比如20,因为咳嗽也可能是因为过敏、抽烟等);

所以,在小明咳嗽的情况下,他感冒的概率是40——这个结论比纯逻辑的“要么感冒要么不感冒”要合理得多,也更贴近现实。

2 概率推理的“应用场景”诊断到金融风控

- 医疗诊断:ai通过患者的症状(咳嗽、发烧、乏力等),结合每种疾病对应的症状概率,计算患者得某种疾病的概率。比如某ai诊断系统对肺炎的诊断准确率能达到90以上,就是靠大量的概率数据训练出来的。

- 金融风控:银行判断用户是否会违约,会分析用户的收入、负债、信用记录等因素,给每个因素分配概率权重,最后计算出用户违约的概率。如果概率超过一定阈值,就拒绝贷款。

- 自动驾驶:汽车通过传感器感知周围环境,比如“前方有物体的概率是95””,然后结合这些概率,决策是刹车、避让还是继续行驶。

3 概率推理的“进阶:贝叶斯网络”

为了处理更复杂的概率推理,人们发明了“贝叶斯网络”——把多个事件的概率关系用“网络结构”表示出来。

比如,一个简单的贝叶斯网络可以表示“吸烟→肺癌→咳嗽”

- 吸烟(s)是肺癌(l)的原因,肺癌是咳嗽(c)的原因;

- 每个节点都有对应的概率表,比如p(s)(吸烟的概率)、p(l|s)(吸烟时得肺癌的概率)、p(c|l)(得肺癌时咳嗽的概率)。

当有新证据时(比如“咳嗽了”),贝叶斯网络能通过概率传播,计算出“吸烟”“得肺癌”的后验概率,帮助ai做出更全面的判断。

现在的ai在处理复杂的不确定性问题时,大多依赖贝叶斯网络或其升级版(比如马尔可夫决策过程、隐马尔可夫模型)。

四、从“理性思考”到“理性行动”:ai成为“理性智能体”

但光“会思考”还不够,ai得把思考转化为“行动”,才能真正解决现实问题。这就需要“理性智能体”的概念——一个能感知环境、理性思考、做出最优行动的系统。

1 理性智能体的“构成要素”

一个完整的理性智能体通常包含四个部分:

- 感知模块:收集环境信息,比如自动驾驶汽车的摄像头、雷达;

- 推理模块:用逻辑或概率方法分析信息,得出结论,比如判断“前方是行人”“距离多远”

- 决策模块:根据推理结果,选择最优行动,比如“刹车”“避让”

- 执行模块:执行决策,比如控制汽车的刹车系统、方向盘。

这四个部分环环相扣,让ai从“被动接收信息”变成“主动做出行动”。

2 理性行动的“决策标准:期望效用最大化”

理性智能体做决策时,通常遵循“期望效用最大化”原则——选择能带来最大“收益”的行动,这里的“收益”要考虑概率(期望)和实际价值(效用)。

比如,ai在“带不带伞”

- 行动1:带伞。,效用是“不淋雨,方便度-1”,效用是“方便度-3(因为带伞麻烦)”。

- 行动2:不带伞。,效用是“淋雨,不舒服度-5”,效用是“方便度+5”。

比较两个行动的期望效用,“不带伞”的期望效用(-1)比“带伞”(-18)高,所以ai会选择不带伞——这个决策过程和人类在权衡利弊时的思路是一致的。

3 理性智能体的“应用:从理论到现实”

理性智能体的概念已经在很多领域落地:

- 自动驾驶:汽车通过感知模块知道“前方有行人”,推理模块计算出“碰撞概率”,决策模块选择“刹车”,执行模块控制刹车系统,整个过程不到1秒。

- 智能推荐:电商平台感知用户的浏览历史,推理模块分析用户的喜好概率,决策

上一页 目录 +书签 下一页