现在,人工智能几乎无处不在。从我们决定买哪一本书,到预订哪一趟航班,从是否能够找到合适的工作,到是否能够获得银行贷款,甚至诊断各种疑难杂症,人们生活中的方方面面都有着人工智能的影子。
关于我们的生活,很大程度上已经可以由人工智能这种复杂的软件系统来自动决策。毋庸置疑,在诸多科技界企业的推动下,人工智能技术在过去几年中取得了令人惊讶的巨大进步,而且业内很多人也相信人工智能会让我们的生活变得更好。
显而易见,这种趋势不可阻挡,整个社会都在为人工智能初创企业注入大量资金,而包括亚马逊、facebook以及微软等高科技公司都针对人工智能开设了新的研究实验室。现在的软件就是人工智能,这种说法目前来看并不夸张。
很多人预计,人工智能对社会的冲击甚至要大于互联网。当被问及在这个千变万化的世界中,人工智能技术将要为人类带来何种影响时,很多技术专家毫无悬念地将问题集中在道德方面。
如何保证公平受益?
随着人工智能的普及,机器系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及医疗保险、假释等问题。未来,人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于社会公正的问题。
譬如在生物医学领域,人工智能有着惊人潜力。人工智能系统有助于分析基因组、蛋白质组和新陈代谢组等的实验数据,收集分析电子病历和相应的健康数据。聚类分析技术能够帮助科学家判断新综合征,而模式识别技术能够将疾病与疗法相匹配。但是由于现有医疗条件的不平衡,只有少部分人才能够从先进医疗技术中受益。
另一方面,人工智能,特别是机器学习技术的完善往往取决于训练数据。微软的研究人员指出:“当采集的数据存在偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果势必会复制并放大这种偏差。在这种情况下,人工智能系统所做出的决策将会产生差别效应。而这种不公平要比人为偏见和不公要隐晦得多。”
peter norvig是谷歌研究主管,也是机器学习领域的先驱人物。在他看来,大数据推动下的人工智能技术获得了前所未有的成功,但关键问题在于如何确保这些系统能够真正有效地改善整个社会,而不仅仅只是让那些控制人工智能系统的群体受益。“通过实践证实,人工智能在执行各种任务时非常有效,从图像识别,到自然语言理解和撰写,再到疾病诊断,人工智能都发挥出了重大作用,”peter norvig指出,“现在的挑战是如何确保每个人都能够从中受益。”
如何审查机器运行?
科学家之所以会担忧人工智能引发公平问题,最大的根源在于现有软件的复杂性,这意味着我们无法准确衡量人工智能系统为什么要这样做。现在的人工智能技术主要基于机器学习,但对于人类来说,其并不能真正搞清楚这种系统到底是如何运行的,所以我们不得不信任它。从根本上说,问题关键在于找到新的方法去检测和审查人工智能的运行。
哈佛法学院互联网法学教授jonathan zittrain则认为,对于人工智能的潜在危险的审查,会随着计算机系统变得越来越复杂而面临越来越多的阻碍。他指出,“我担心随着系统的复杂性和紧密耦合性越来越高,人类的自主性会越来越少。如果‘我们设定规则又忘记了规则’,我们会对系统的进化感到懊悔。在那种情况下,甚至于伦理道德都无从考虑。”
而北卡罗来纳州杜克大学的人类和自动化实验室主任missy cummings则发问,“我们如何确保这些系统是绝对安全的?”她曾是一名海军女飞行员,而现在则是无人机专家。
现在业内普遍意识到人工智能需要进行监督,但没有人清楚该怎么做。
当然,在一个快速发展的社会中,监管机构往往在扮演着一个追赶者的角色。在刑事司法系统以及医疗保健等关键领域,人工智能已经被尝试用来进行决策,譬如做出是否假释的决定或者是诊断疾病。但是问题来了,如果将决策权交给机器,我们就有可能对结果失去控制,谁能保证系统在各种情况下一定是正确的?
微软研究院的主要研究员danah boyd则认为,被部分人写入人工智能系统的价值观存在诸多问题,而恰恰是这部分人应该对系统负责。很多监管机构、社会群众以及社会学者都希望人工智能技术能够实现公平,具备伦理道德,但这种希望都是虚无缥缈的。
如何应对工作替代?