谷歌的电脑能学经济学吗?
我的回答是,不能!
在回答这个问题之前,我想先介绍西西河的牛人“陈经”的一个帖子《人工智能挑战围棋即将成功》。这是我看到过最有水平的分析。强烈建议去看原文:www.cchere.co m/article/4176770
我这里仅仅非常简略粗糙的说明一下他的观点:
AlphaGo和以前的人工智能(AI)相比有如下的相同点和三大改进。
相同点:
按照陈经的介绍,无论是AlphaGo还是以前的Zen等AI都是“用蒙特卡洛树形搜索(MCTS)”下的。这种算法的特点是模拟棋局一直到下完算子判断胜负,模拟多次后看哪个选点的“获胜概率”最高。模拟时会利用“棋形”等经验减少选点,一直模拟下去直至终局。时间不够或者电脑计算能力不足,模拟的“局面数”就少,棋力就低。因此,才会有电脑在开局阶段依然和人类顶尖高手有差距,然后会随着棋局进展电脑会越来越强悍的情况出现。
主要改进有三:
1、AlphaGo用一个深度神经网络(policy network,“策略网络”)减少搜索的选点,象人类高手一样,只考虑少数几个可能的选点。
2、他们还建立了另一个深度神经网络(value network,“值网络”),象人类高手一样,思考到某个局面就有了结论,不必象之前的蒙特卡洛模拟那样下到终局,极大地减小了搜索的深度。
3、让围棋人工智能自己和自己下,总结经验,自我不断提高!从Nature的文章看,DeepMind(AlphaGo的开发小组)的绝招是,用50台电脑让AlphaGo不断和自己对弈,下了3000万盘棋!然后每盘棋选取一个局面(不多选,以避免同一盘棋中不同局面之间的相关性),根据这盘棋的最终结果判断局势优劣。这样获得了3000万个训练数据,用于训练生成“值网络”。
有了这三大改进,才使得AlphaGo能够以很高的胜率打败之前的各种算法,并且可以向人类顶尖高手发起挑战。
在陈经看来,这次电脑是真的有可能在围棋上战胜人类顶尖棋手的。不过这个是建立在顶尖棋手的心理波动上面。
根据新浪对第一局比赛的报道:“总体而言,电脑在局部战斗中不落下风甚至更强,但在布局和大局判断上不如人类顶级棋手。李世石今天输在中后盘的松懈上,如果后面李世石能够乘胜追击的话,胜负很有悬念。”。
陈经这个帖子发出的时间是2016年的一月底。现在看来,他的看法还是非常有参考价值的。
介绍这个帖子是为了让大家对连胜两局的AlphaGo有一定的了解,方便下面的讨论。
回到李师的问题,谷歌的电脑能学经济学吗?
在该帖的结尾中写道:“当然正如深度学习技术的发明人、DeepMind小组的Hassabis所言,人工智能真正的挑战是“泛化”的能力。人工智能在围棋上达到的超高能力,并不能转移到其它任务上去”。其对AlphaGo的判断可以说是最权威的。可见AlphaGo还远未到能够学习经济学的程度。
那AlphaGo具备泛化的能力么?即,在围棋上达到的超高能力能不能转移到其他任务上?
答案显然是不能。要转移到其他任务上,理论上有两种可能。
其一,将某一经济学任务转换成围棋任务,用现有的训练出来的AlphaGo去得到最优解后再转换成该经济学任务的解。这个做法很明显行不通。
其二,采用AlphaGo类似的算法去针对经济学任务进行训练,以得到针对该任务的AlphaGo。这个办法则需要面对一个如何训练策略网络和值网络的问题。经济学任务中可不像围棋任务中有那么简单明了的规则和海量的高水准的棋谱来进行训练。即便AlphaGo此类算法发展的再强大,没有合适的训练集也是白搭。
所以,我的回答是:不能!