最近,市委党校组织学员听了一场题为“人工智能的历史与未来”的专题讲座,听力以后我感触颇深。之前我一直以为,人工智能(以下简称AI)会在未来对我们产生巨大的影响,可是通过这次讲座,我才明白AI其实早就在我们的生活中得到了广泛的应用,只是我们日常没有注意而已。讲座之后,我查阅了大量资料后发现,在军事领域,美国军方已有专业部门用AI分析卫星和侦察机采集来的数据;在民用领域,如金融、保险等行业,都已利用AI来监测风险,甚至很多制造业都用AI来做品控,大型数据中心用AI来控制制冷系统,而无人驾驶也即将走进千家万户了。目前全世界最有价值的十家商业公司里,都表示要把深度学习AI作为公司未来业务的主要方向。
但是,如果AI不听指挥了会怎样?就如同科幻小说里的场景,一旦AI“造反”了,那我们人类是不是就走向末日了呢?这种担心有没有道理呢?我认为,有,而且非常合理。因为随着AI越来越智能,对于人类来说,AI做出的决策有可能会成为一个无法理解的“黑箱问题”,那么面对AI的“黑箱问题”,我们能不能用原来处理人类思维“黑箱”的方式来解决呢?我的答案是:可以。
第一种思路,就是要保证它的正确运行,学习人类纠偏的制度设计。对于人类,我们设定了红线标准,规定大家不去触碰,这条“红线”也就是我们的法律。而对于“黑箱问题”,只需用最终的结果来判断正确与否,这是最简单、最高效的。这样,责任就落到了那些生产AI产品,或者是运行AI系统的责任人或公司身上了,因为他们需要确保AI的安全性和可靠性。
第二种思路,人类本身在AI有可能作出错误判断的情况下及时接手。以人类跟机器共同工作了几十年的经验来说,一个最根本的原则就是:所有系统的最高掌控权,必须握在人类手中。人要在AI有可能作出错误判断的情况下及时接手,成为最后一道保证安全的屏障,所以人类必须是掌握最终决定权的。
其实关于AI的一切问题,最本质的依然还是人类的问题。人都不可避免地犯错误,而AI作为一个人类的产物,怎么可能完全避免错误呢?但是AI依然有着非常广泛的应用前景和巨大收益。我们应该通过规则来应对它、控制它,而不是抗拒和排斥它。AI的确会是个挑战,但并不是什么难以逾越的障碍。(作者系第63期纪检监察干部进修班学员)