不要害怕人工智能

本文是翻译,版权归原作者所有


原文地址(source):http://time.com/3641921/dont-fear-artificial-intelligence/

Kurzweil写了五本人工智能(Artificial Intelligence,简称AI)方面的书,有一本是纽约时报的畅销书《How to Create a Mind》。

两位伟大的思想家看到了AI的危险。下面谈谈怎样让AI安全。

著名物理学家史蒂芬·霍金【注1】最近发出了警告,如果人工智能超过了人类智能,就对人类文明的存在造成了威胁。数字货币、私人太空飞行和电子汽车的先驱Elon Musk,也表示了类似的担忧。

如果AI成为了存在的威胁,那么它不会是第一个。在我孩提时代的、1950年人防演习期间,我坐在桌子底下。从那以后,我们就遇到了可比较的恐惧,比如生物恐怖主义者创造了一种人类无法抵抗的新病毒。火能够温暖我们、也能烧掉我们的村庄,技术总是一把双刃剑。

典型的反乌托邦未来主义的电影,总是有一到两个主人公或团体在为了控制人工智能而战。AI正被集成到当今世界。AI不是一只手或两只手;它是10亿或20亿只手。持有智能手机的非洲孩子,比起20年前的美国总统,已经能够更加智能地访问知识了。随着AI更加聪明,它的用途仍然在增长。实际上,每个人的智力在近10年内已经被AI放大了不少。

我们在人群中仍然有冲突,每个群体都被AI放大了,这已有先例。但是,暴力呈现着深远的、指数级的减少,我们可以从中感到安慰,正如Steven Pinker的2011年的书《The Better Angels of Our Nature》中提到的:为什么暴力减少了。根据Steven Pinker的观点,虽然地点不同导致统计数据不同,但是战争的死亡率与六个世纪以前相比,已经下降了数百倍。从那以后,谋杀降低了十倍。人们对此感到吃惊。暴力在上升的印象,起源于另一种趋势:关于世界上负面的信息,有着指数级的详实程度——它是被AI支持的另一种发展。

我们能够部署一些策略来保持新兴的、像AI安全之类的技术。考虑到生物技术,或许已经领先AI数十年了。在1975年召开的关于重组DNA的阿希洛马会议评估了其潜在危险,并规划了战略以确保该领域的安全。从那以后,最后的方针已经被行业做了改进,运转非常好:在过去的39年,已经没有重大问题了,偶然的或故意的。我们现在看到了达到临床实践的药物治疗取得的巨大进步,远远没有出现预期的问题。

对于AI的道德规范的考虑,可以退回到艾萨克·阿西莫夫(Isaac Asimov)1942年的短篇小说《环舞》(Runaround)【注2】的机器人三大定律【注3】,8年后,艾伦·图灵在1950年发表的论文“计算机器与智能”中的AI领域。今天AI从业者的普通看法就是,我们要完成人类级别的AI仍然需要数十年。我更加乐观地把时间压在了2029年,但是不管怎么说,我们还有时间来规划道德标准。

已经有大学和企业在努力推动AI安全策略和方针了,有的已经步入正轨。与阿希洛马会议的方针类似,一个想法就是,清晰地定义每个AI程序的使命,建立加密的安全保护以阻止未授权用户。

末了,我们能够确保AI安全的最重要方法就是致力于人类管理和社会制定。我们已经到了 人-机文明 的时代。未来避免消极冲突的最好方式,就是继续发展我们社会理想,它极大地减少了暴力。

如今,AI正在推进疾病诊断、寻找治疗方法、开发可再生清洁能源、帮助清洁环境、向全世界的人们提供高质量的教育、帮助残疾人(包括史蒂芬·霍金的声音)以及在无数种其它方式上贡献着力量。未来数十年,我们有机会在处理人类的巨大挑战上迈开一大步。在控制这种危险时,我们在道义上有责任去实现这个诺言。这将不会是我们第一次在这方面取得成功。

译文:不要害怕人工智能 》| 腊八粥