|
人工智能首先带来的影响就是对现实认知的颠覆;这在我们和其他的种族内存续已久了
让我先这么说吧:我并不觉得接下来人类面临最迫在眉睫的威胁会是深度学习机器中“超级智能”的人工智能。的确,整个超级智能的概念都是建立在哲学的假设基础上的。我们根本无从得知这样的一种存在是否真的能够被创造出来,发展出来,或者演化出来——无论是在地球上还是在浩瀚宇宙的某处。
现在我们连足够令人信服的定量的智能理论都没有。这种理论告诉我们到底什么是智能(比如“看,它能打开一罐豆子”),告诉我们智力如何随着复杂度的增加而上升,告诉我们智力到底是否有上限。
或许智能是成S形曲线发展的(逻辑函数),就像许多自然的(以及非自然的)现象一样。逻辑函数或逻辑曲线的开端可以是指数增长,然后随着事物达到饱和状态逐渐变得平缓。一个最简单不过的例子就是理想的种群数量增长,种群数量一开始迅速增长,后来受到食物和其他资源的限制,最终达到平衡。
并不难想象,智能发展的过程中或许确实有一个指数增长的过程,但这需要复杂性,特别是效率,联系,相互交流和内部数据流通(不管是生物还是机器)的指数增长才行。所以,并不难判断,就我们已知的智能而言,它是有饱和状态的。
但成指数增长的究竟是曲线的那一部分呢?我们是否已经经历了这个过程,还是说那还在未来的某处等着我们。我们制造的机器,人工智能,会比我们预想的更早达到那个饱和点吗?我想我们正处于一个全然无知的状态。就我们已知的,人类已经十分接近宇宙中可能存在的最高智能了。所以,我想如果要知道答案,恐怕就只能通过实验,或依靠关于智能的基本理论的发展了。
所以,就现在的情况而言,任何对外星智能是“超级智能”的提议,都只能是大胆的假设。确实,我认为宇宙中最丰富的智能就是智能机器了——像Google的AlphaGo和它的衍生产品那样的机器。所以我并不怎么担心那些很聪明的人工智能。我反而更担心那些不那么聪明的,却会扰乱我们对信息,事实和现实感知的机器。那将会是人类面临的最大威胁。
通过敌对学习这样的手段,我们已经可以看到人工智能能近乎完美地模仿我们的声音。可想而知,类似的方法也可以让它们能够写作,发信息和使用社交媒体。恶搞我们的照片,制作虚拟视频,让我们看上去在做一些我们从未做过的事情(比如说那段几乎能以假乱真的仿制的奥巴马总统的演说视频)。
这些系统很有可能会继续向前发展(如果它们还没有的话,那将很难跟上时代的步伐)。为什么不干脆用AI来开创一整篇新闻或八卦专栏呢?反正好莱坞的小报从来不怎么要求新闻的真实性,而有时主流新闻媒体似乎也在跟风。
我们中的任何人都很有可能受到误导。窃取我们身上的细节来混淆视听,或创造另一个我们,展现出反社会的特征,甚至做出犯罪行为——让无辜的我们成为报复和法律制裁的目标。或只是迷惑我们,让我们购买某种商品,为某些选举人投票,或相信一些东西。第一个福音派人工智能将会轻松地超越最出色的人类牧师。
不同于某些假想中的的超级智能(它们的动机难以想象),用人工智能剥削人或社会遵循着一种古老的法则。
可以说从远古时期我们的祖先开始交流和流传故事开始,人类就在侵蚀自身的现实了。一个火堆边的故事可能有助于口头流传历史,或表达道德和社会准则,增进家族和团队的凝聚力。但同时,它也不可避免地有一定误导性,扭曲事实。
这种行为并不是我们这种智能种族独有的。事实上,自然界中充满了欺骗的现象。动物们会伪装自己,或假装成另一种东西——从伪装成有毒物种到撑起羽毛,鳞片或皮肤,要么就让自己的后代寄生在其他物种身上。许多物种中雄性都会打扮自己,进化出诱人的特征,并且使用各种诡计,以此吸引雌性,传播自己的基因。欺骗就像诚实一样在达尔文的物竞天择理论中占有一席之地。所以,从进化的角度来看,误导行为具有它的合理性。
机器比动物更诚实的可能性似乎不大,无论是从设计上还是从它们自己的相互竞争上来看——如果输赢代表了一切,那么,你只能小心了。
当然,就像物理学家尼尔斯玻尔说的,要做出准确的预测总是很困难的,特别是预测未来的时候。但有一点是确定的,假设我们真的能看到真理的话,我们将学到很多关于智能发展轨迹的知识,这种智能的发展实际可能在宇宙的任何地方发生。
|
|