亲,双击屏幕即可自动滚动
大海啊,都是水啊~
本书由公众号整理制作。关注vx【午夜小咖】,看书领现金红包!

狗作者今天有事,更不了了,先拿这文混一下,明天一定补上,

本文的开头,我想先强调一个概念,究竟什么是人工智能。一般人看到AI第一瞬间便会想到机器人,但机器人只是一个容器,它的内核与控制系统才能被称作人工智能。再者,人工智能不能被单纯地被认为是与人类处在同等智能水平上的事物,总的来说,可以将它分成三个层次:1.弱人工智能;2.强人工智能;3.超人工智能。

弱人工智能,是在单一领域具有超越常人的能力,比如说AlphaGo,它可以在围棋方面战胜李世石,但是若让它进行简单的计算,类似1+1=2这样的式子,它可能却是不行的。现阶段,弱人工智能存在于我们生活的方方面面。导航,Siri,天气预报,搜索引擎,音乐推荐等等,这都是人工智能,只不过大多数人并不知道罢了。所以那些“人工智能根本不可能造福人类”的说法是绝对错误的,正相反,人工智能给人们带来了诸多便利。因此,我希望大家能抛弃对人工智能的偏见,真正接纳人工智能的存在。组成人类的细胞都比弱人工智能层次要高,所以对待这一层次的人工智能,我们是不必担心的,若非要把有关人类的事物划分到这一层次中,类似核糖体的细胞器便是属于这一层次。

人类是属于强人工智能层次的生物,而且是这一层次中顶端的存在。强人工智能,已经可以同人类一样进行各种脑力活动。但很遗憾,至今它还未曾问世。从弱人工智能到强人工智能的过渡是漫长的,从地球弱人工智能层次的氨基酸等有机物进化至生命,耗费的时间以亿计数。但是随着社会的进步,发展的能力、速度都会极大地提升,所以强人工智能的出现不会耗费太多时间,短则十年长则百年。由弱到强,需要有两方面的改变。

第一,提高弱人工智能的运算速度,降低单位运算速度所需金钱。

人类的大脑运算速度经Kurzweil对不同大脑区域进行估算,大约为一亿亿次计算每秒。强人工智能不是终点,所以运算速度也必须超过一亿亿这个数值。但若是我们研究出超人工智能却只能供应极少数人,那必将会造成灾难——上位者操纵人工智能统御下位者,这绝对不是我们想看见的。因此,我们要降低单位运算速度的成本,让成果平民化,让人工智能能真正造福所有人类。

第二,提高弱人工智能的智能层次,然后通过人工智能的递变演化,让它到达更高的层次。这一点是最难处理的,也是可能导致人工智能转头空的最大因素,人类对智能层次的认识只能停留在浅薄的理论上,我们不知道如何将猩猩的大脑演化为人类的大脑,同样,我们也不知道如何将人工智能的层次提高到新的高度。不过万幸我们有我们自己这样一个完美的强人工智能系统,我们可以通过对自身的生物研究来推动人工智能的发展。这样做有两个方向:1.逆推,根据人本身大脑的思考模式逆推出运算的模式,再将这种模式代入到人工智能上;2.正推,从细胞开始,不断推动生命层次的研究,一步一步地将大脑的运算模式推断出来。两种方向皆有利弊,从我自己来说,这两种方向应同时进行,一个最大的原因便是人类若想得到长足发展,必先研究透自身,一举两得,何乐而不为?

以上所述,还可寻到根据,接下来的便只能是进行合乎逻辑的推理和大胆的设想了。

强人工智能即指超过人类的层次,它可能超过一点,也可能超过几千万倍,跨度极大。也正是因为它的不可控性,人们才会认为这是一个潘多拉魔盒,会毁灭人类,但是这也同样可能使人类真正永生。那么有什么办法能使超人工智能受到人类的控制呢?答案是没有,起码在我们当前的认知中是不切实际的。自然界创造了人类,可人类却近乎脱离了自然界的控制。那么,人工智能是不是该停止呢?我认为不该。前面提到了递变演化,超人工智能的层次提高是人类插不上手的,只能靠它自身的递变演化。但是递变演化却不是只出现在人工智能身上,人类也有自己的递变演化,而且根据加速回报理论,递变的单位所需时间是会逐渐缩短的,如果我们能从人工智能那里取得这样的经验,发展的就不会只是人工智能。再者,从强人工智能到超人工智能的层次质变,同样可以被借鉴用于人类的发展,这就意味着人类自身是会永远领先人工智能一步。难道人类担心过被猴子毁灭吗?没有。同样人工智能就好比比我们智能层次低的猴子,也不会导致我们的毁灭。并且我们可利用人工智能为我们自身服务。当然,这只局限于理论推导、假设猜想,很可能未来的走向会与之大相径庭。

人工智能的发展不应是单方面的,视野必须拓宽出去。对于人工智能的研究其实等同于对人自身的研究,它不仅仅只是一门计算机科学,更是一门生命科学。如果能将它的研究与生命科学的研究结合起来,人们对它的了解就可能更透彻。比如说,对于大脑的研究,一定会牵扯到思维的研究,而对思维研究的深入,可以让我们更好地设计智能的思维,甚至于我们可以将人类的心理在不影响性能的情况下导入其中。人类的心理会使它们站在人类的角度思考,甚至可以说智能便成了人类的另一种存在形式。在这里,就又引出一个问题:安全和性能,我们应更注重哪一个。答案非常明确,安全。如果连安全都保证不了,那它就没有存在的价值。原子能,人类可以控制,所以才有了核电的存在。人工智能同样如此,虽然我希望人工智能能造福人类,但若能证实它对人类的弊大于利,那就应该终止有关的研究,让它成为历史。

有人说人工智能是人类最后的一项发明,因为一旦超人工智能出现,人类便会灭绝,未免太过悲观了。生物与生物之间最纯粹的关系是利益关系,人工智能与人类之间也可以通过利益关系关联起来,并且让人类处于主导的地位。那么人类可以为人工智能提供什么利益呢?目标。人类是已知唯一有独立意识的存在,我们可以提供给人工智能目标,这就需要我们再设计时不能让它产生独立意识,如果这能实现,就意味着我们拥有了超越人类层次却对人类无比忠诚的存在,人类社会的发展必因此得到更大的进步。

人工智能是一个很好的发展机遇,我们不应畏手畏脚。人工智能的未来是不可控的,但是人类的发展也同样是不可控的。走得太稳不见得能真地走得太远,试一次或许会有不一样的结果。

为您推荐