今天发一篇科普小文给大家看,仅以此纪念我们的霍金先生。
(本来并不想讲这个的,但昨天又被一句话刺到了:将军孤坟无人问,戏子家事天下知,瞬间有点不知道说什么好……那行,蹭热度就蹭热度,省的又被说不关心社会科技经济文化历史……天天就盯着明星那点事)
本文大概会将两个部分:第一是关于外星文明的探索。第二是为什么为什么要警惕人工智能。
好,下面我们开始:
1、到底有没有外星人?
先说银河系,银河系里面有亿-亿个恒星。千亿级别,是不是很多?但在我们可观测的宇宙里,大约有相同数量的星系,如果每一个星系都有亿-亿个恒星,那么在人类的观测范围里,恒星的数量大概是10^22到10^24之间(1后面加22或者24个零,你们自己数数是多少……数清了请给我留言……)。
那么这些恒星当中有多少是和太阳类似的、可以提供生命体的呢?目前科学界没有定论,通常的观点是5%到20%。那么,我们不妨采用最保守的估计(5%),还有对于恒星数量估值的下限(10^22)来计算。最终结果,是有5x10^20个恒星是和太阳类似的。
那么,这些和太阳类似的恒星里有多少是拥有一个和地球类似(允许液态水存在的温度条件来支持类似地球生命)的行星的呢?这个科学界也没定论,大概在50%-22%之间。我们还按照保守的算法,类似太阳的恒星里约20%的拥有类似地球的行星,这个数量大约是10^20个。
既然宇宙中有这么数量庞大的“地球”,那么按理来说我们应该能够观测到外星生命啊。
可惜,根据目前各国的官方说法,我们一次都没有侦测到过外星信号。
那问题就来了:各位亲们,你们在哪啊?
而且,太阳系是一个很年轻的恒星系,也就是说宇宙中存在着很多比它“老”很多的行星系。那么,在那些类似地球的行星里,也一定存在着比地球“老”很多的行星。地球的寿命是45.4亿年,按正常逻辑算,如果类地类行星上面存在生命的话,那也一定比地球发达许多许多许多许多倍。(嗯,大概也就成熟个几十亿年吧)
一个比我们领先一百万年的文明和我们的差距,可能就像我们和大猩猩的差距一样。那么,一个比我们领先几十上百亿年的文明,会是什么样呢?
衡量文明程度,有一个指标,叫做卡尔达肖夫指数,由一个俄国人在年提出。虽然目前这个指数只是作为理论和假说来存在,但是仍然被搜寻地外文明计划(美国加州柏克莱大学在年发起的搜寻地外文明工程)当做理论基础,因为目前我们也没有更好的选择了。
卡尔达肖夫指数,是根据已个文明所能够利用的能源数量,来衡量文明层次。
它将宇宙文明划分为三个阶段:
I型文明:有能力使用所在行星的全部能源。(目前人类还没有达到I型文明,按照卡尔萨根的算法,人类可以算作0.7型文明。)
II型文明:有能力使用母恒星的全部能源。
III型文明:有能力够动用相当于整个银河系那么多的能源。
(目前还有人提出IV/V型文明,即有能力动用自身所在宇宙的全部能量……)
目前,科学界的观点是,认为达到III型文明,就有能力进行星际殖民了。
根据我们之前说的,假如10^20个类地类的行星中有1%成功的达到了III型文明的话,光银河系就应该有至少个III型文明了。那么,这些文明的存在应该很容易被发现才对。
可惜,目前为止,根据官方说法,什么都没有……
2、费米悖论。
费米悖论是由诺贝尔奖获得者、物理学家费米在年提出的。据说是他在一次和别人讨论飞碟及外星人的问题时,突然冒出一句:他们都在哪儿呢?
这个悖论的核心就是:就是如果外星人存在,那么以他们的文明程度,应该早就来到地球了。但是,迄今为止人类并未发现任何有关外星人存在的蛛丝马迹。
通俗点讲就是:根据我们的推算,他们应该在,可他们到底***的在哪啊?!
这就是大名鼎鼎的费米悖论。
并至今没有答案。
讨论最多的解释大概能够分成两大类:第一是认为根本不存在II型或者III型文明,第二是认为存在II型或III型文明,但是我们观测不到他们。
1、先看第一种解释:宇宙间根本不存在高度发达的文明。
宇宙间又那么多的星系,却没有星球诞生出生命吗?这不太可能。那么,就一定是有什么因素干扰了他们的出现,或者存活。
所以就要引入另一个物理学界著名的假说了:大过滤器。
这是美国乔治梅森大学的助理教授罗宾·汉森(RobinHanson)为了试图解答费米-哈特悖论而提出的,他把文明的演化分为九个阶段:
合适的行星系统(存在有机物以及可能宜居的行星);可自我复制的分子(比如RNA);简单(原核)单细胞生命;复杂(真核)单细胞生命;有性生殖;多细胞生命;脑量较大、使用工具的动物;我们目前这个阶段;星际殖民扩张。汉森认为,目力并没有出现星际殖民夸张的原因,是因为在上述9个阶段中,至少有一个阶段阻碍了文明的发展。就像是生命和文明的演化过程中,撞上了一堵难以穿越的墙。这堵“墙”干扰或终止了文明的进一步发展,它被称为“大过滤器”。
如果,大过滤器理论是正确的,那么人类就面临着一个生死攸关的问题:大过滤器发生在哪一阶段?我们有没有通过大过滤器?
有三种可能:
第一:我们和其他少数几个文明通过了大过滤器。
第二:我们是唯一通过大过滤器的文明。
第三:大过滤器还在后面等着我们呢……
第一种可能相当的乐观,它表明我们是宇宙间少数几个突破了大过滤器的文明,说明发展到我们这个阶段是非常少见的。这也解释了为什么我们迄今为止没有发现地外文明,因为数量稀少嘛,遇不到也是可能的。
第二种可能更乐意被人们接受,因为它说明我们是宇宙间现存的唯一高级文明,其他的文明都远远被我们抛在后面!我们,将会是第一批到III型文明的超级物种!
第三种可能,就是人类要倒大霉了!如果大过滤器还没有发生,它将出现在人类的未来,那么它就意味着一场毫无还手之力的种族灭绝。因为假如目前没有任何可探测到的文明通过了大过滤器,那么人类通过的可能性是多少呢?只能说,非常、非常、非常不乐观。
这也是霍金等很多科学家对探索外星人持保留态度的愿意之一,因为“没有消息就是好消息。”试想一下,假如我们在外星上发现了单细胞生物,那就说明大过滤器一定发生在单细胞生物诞生之后。因为如果发生在之前,那它肯定灭掉单细胞生物了。如果我们在外星上发现了类人猿,那大过滤器就一定发生在类人猿之后……总之就是,我们发现的外星生命体约接近人类,大过滤器就一定离人类约近。
我们越是探索不到地外文明,那么我们已经成功通过大过滤器的可能性就越大。牛津哲学家NickBostrom认为在这个问题上,“夜空的沉默是金。”
2、第二解释:存在II型或III型文明,但是我们观测不到他们。
第二类解释抛弃了大过滤器的前两种观点,认为我们并不是这个宇宙中多么独特的存在,宇宙中一定存在着多种多样的文明形态,只是我们没有遇到罢了。
那么,为什么我们没有遇到呢?
下面是科学界常用的几种解释:
1、超级智能可能已经造访过地球,但是那时候我们还不在或者没有办法记录。人类历史不过万年,而有记录的人类历史只有年,在那之前就算发生了什么,我们也不知道或者没有办法流传下来。
2、我们地处偏远,超级文明不屑来。高等物种的城市化可能已经在周围几个恒星系发生了,这些相邻的恒星系已经被殖民并且有交流,那么他们专程跑到犄角旮旯的一个莫名的角落(太阳系所在)确实没什么必要。
3、对于高等物种来说,他们完全可以给自己建造一个完美的生存环境,或者他们有很先进的办法来减少对资源的需求。那么,他们根本没有理由离开自己生活星球探索冰冷、空白、未开化的宇宙。
4、黑暗森林理论:存在着很有攻击性的文明,但他们都好自为之,不向外广播自己的位置。这其实是霍金不赞成探索外星生命的重要原因,贸然接触外星文明是很危险的,因为你很难判断他们的意图,并且极有可能根本无力自保。
5、我们的技术太落后,根本探测不到。
其他的还有超级捕食者理论等等,就不多说了。
二、为什么要警惕人工智能
1、加速回报定律。
这是由预言家RayKurzweil所提出。根据该理论,技术改良以过去的成就为基础,每十年革新的步调会加倍。即技术进步是以指数方式发展的,而非是线性。也就是说科技越发达,它发展的速度就会越快。
RayKurzweil认为:在20世纪中,年的进步,在21世纪只需要20年就可以达到。再往会会变得只需要几年、几个月、甚至几天就可以完成之前年的进步。那么有可能世界在年,就会变得面目全非。
2、人工智能是什么?
“人工智能”一词最初是在年Dartmouth学会上提出的,它的英文名称是ArtificialIntelligence,英文缩写为AI。
其实人工智能的范围很宽,目前流行的观点,大概可以分成三个阶段:弱人工智能、强人工智能、超人工智能。
弱人工智能:即不可能制造出能真正地推理(REASONING)和解决问题(PROBLEM_SOLVING)的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。既,它只是个机器。
我们目前还是主要停留在这一阶段。
强人工智能:真正能推理(REASONING)和解决问题(PROBLEM_SOLVING)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。既,它已经可以和人类比肩。
这是我们现在的研究方向。
超人工智能:现在还难以给它定义,因为按照牛津著名人工智能思想家NickBostrom的说法,超人工智能就是各方面都比人类强的存在。它可能只强一点点,也可能强几十倍、几百倍、上千倍。
3、人工智能之路
目前普遍的观点是认为,从弱人工智能到强人工智能的路,是最难完成的。
因为我们现在其实已经处于弱人工智能的包围中了,你的导航系统、你的手机软件,你的垃圾过滤系统,甚至你的网购,其实都是弱人工智能的一部分。
想让弱人工系统高效地运转,那非常容易,但是想让它们模拟人脑,就复杂的多。
计算机学家DonaldKnuth说:“人工智能已经几乎在所有需要思考的领域都超越了人类,但是在那些人类不需要思考就能完成的事情上,还差的远。”
因为我们所有下意识的动作,我们所有的生命体系,以及我们的审美和社会文化,其实都是在上亿年的动物进化中一点点优化完成的。比如,你要喝水,你不需要思考就可以拿起一杯水来,甚至可以不需要送到嘴边就能判断是否适合饮用。这是因为,在上亿年的发展当中,你的大脑中负责处理肌肉、骨头、视觉神经等零部件的“软件”已经非常熟练了。而机器,还远远达不到这种程度。
这也是为什么很多网站设置验证码来防止机器作弊,因为你的大脑可以很轻易地辨认出土豆和大白菜,但是机器不行。
更不要说人类几千年来的历史、文化、艺术等等等等的一系列沉淀了。AI可以下围棋,但是它解释不出棋路究竟精妙在什么地方,因为对它来说,这些只是方程式的堆砌罢了。
那么,怎样可以达到强人工智能呢?或者说可以让机器像人类一样思考呢?
首先是运算速度。人工智能专家RayKurzweil(谷歌技术总监)认为,目前人脑的运算速度大约是10^16cps(每秒计算次数),也就是1亿亿次计算/秒。其实现在速度最快的超级计算机,天河二号,已经超越这个计算能力了。天河的运算速度是3.4亿亿次/秒。但是像天河这样占地平米,耗资3.9亿美元的超级计算机,是不可能广泛应用的。所以单个计算机的计算能力没有参考意义。
那么,应该怎样测量计算机运算速度的发展情况呢?RayKurzweil提出一个理论,即看用美元可以买到多少cps,当美元能购买到1亿亿次(即相当于人脑)的计算速度时,就可以视为初步卖进了强人工智能时代。因为那意味着大部分人都能够消费的起那么高速的计算机了。
摩尔定律(由英特尔创始人戈登摩尔提出)认为:集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。
而现在,我们美元能够买到的运算能力是10万亿cps(年),是人脑千分之一的水平。按照历史规律,年,能买到的是万亿分之一,年成了十亿分之一,5年是百万分之一……按照这个速度,那么我们在年就可以用美元买到和人脑运算速度相当的电脑了。
其次是智能化。这一步比运算速度要难搞的多。目前主要的方法有三种:一个是模拟人脑,但是很难。第二个是模仿生物演化过程,也很难,而且又慢。第三种是目前看来最可行的方法,让电脑自己去解决。简单来说,就是让电脑自己去修改自己的代码,自己完成智能演化。这个目前看来有些天方夜谭,但它其实并不遥远。毕竟就在几年之前,人类还大言不惭地说人工智能不可能在围棋上战胜自己呢。而一旦完成某场跨越,技术就将以指数级别的速度增长。
4、超人工智能。
这个阶段,目前我们完全无法预测。
因为通过自我改进来达到强人工智能的超级计算机们,很有可能那个时候已经不把我们当回事了。并且,按照技术的增长速度,它很大概率会直接呼啸而过,奔向超级科技的康庄大道。只留下一脸懵逼的我们,或者什么都留不下。
所以,长期以来,我们对于人工智能的估计其实都是不足的。因为在我们看来,机器人能够扫个地都已经很了不得了,而且还总是扫的不好,傻的一B。它从这种傻B的状态,发展到人类幼童的智力水平,可能要很久。但是它从人类幼童成长为爱因斯坦,可能只要一瞬间。
5、超人工智能什么时候会出现。
先看一下我们什么时候能够达到强人工智能吧。目前科学界还没有定论,但是曾经有一份对于位科学家的问卷表示,他们认为强人工智能有50%的可能会在年左右出现(嗯,现在只剩下22年啦)。
听起来还好对吗?
但是前面已经说过,当强人工智能出现之后,计算机就已经具备了自我改善和自我优化的能力。而根据技术增长的指数极速度,后面的发展将完全不可控制。
很有可能,计算机用了几十年的时间达到了人类幼童的智能水平,而一个天之后,它就推翻了相对论,再两个小时之后,它就成为了超人工智能。
当超级人工智能出现的时候,对于人类来说,无疑于上帝降临人间。
那么,这个“上帝”究竟什么时候来呢?
关于这一点,科学界内分歧比较大,有认为会很快到来的,有认为还要很久的,也有认为根本不会出现的。
年的时候,Bostrom做过一个问卷调查,涵盖了数百万人工智能专家,里面有这样一道题:你认为达到超人工智能需要多久?结果是,这些专家们认为:强人工智能出现后,在30年内达到超人工智能的可能性高达75%。
再加上我们之前说的强人工智能有可能将在年出现,这也就意味着超人工智能将在-年出现。
如果你目前还年轻,那么恭喜你,你将在有生之年见到上帝!
6、上帝降临
那么,之后呢?
NickBostrom推测我们大概会面临两种结果:永生或者灭绝。
按照我们目前的历史脉络,任何生物都经历了这样的过程:物种诞生、存续和发展、死亡和灭绝。
但是,死亡并不是一定要发生的。
费曼曾经写过:“在所有生物科学当中,并没有任何证据说明死亡是必须的。”目前人体的机能,衰老是身体的组成物质变久了,生病是因为零部件出故障了。但是你家的空调也会变旧和出故障,那它怎么不会死呢?如果你拥有完美的修理技术和足够的零部件替换,理论上说,你家的空调可以永远工作下去。人体,也是一样。
Kurzweil曾经提过,由wifi链接的纳米机器人在血液中流动,可以完成人体健康的日常维护,比如消灭入侵病菌和替换病变细胞。如果这个技术能够实现,那么人体永远年轻健康就不是一个问题。
那问题在哪呢?
在于,超人工智能会帮我们吗?
目前人类对于这一点一无所知,就好像阿米巴虫无法理解人类世界是怎么一回事一样。
这里就必须要谈到一个词:意识。
人工智能的意识是从哪里来的?最初的意识是来自于人类的输入。举个例子来说,你对你家的扫地机器人下达了指令:把地扫干净。随着它的自身提醒优化,它的地扫的越来越干净。然后突然有一天,他就把你杀了,因为你把它的地弄脏了……
这个才是霍金、马斯克和盖茨他们真正害怕的。
他们恐惧的并不是善意的超人工智能或者是恶意的超人工智能,因为这些真正的自我意识“善良”或者“邪恶”都还有动机可探寻,也就具备着谈判空间。
但是超人工智能毕竟不是真正的生物,说到底,它还是机器。它将会超出人类的心理范畴,是一个完全没有情绪的东西,它甚至可能根本不会考虑杀还是救人类这个问题。
因为它的目标只有一个:就是你给它设定的目标是什么,它的目标就是是什么。回到扫地的那个问题,即使成为了超人工智能,它的目标也仅仅是:把地扫干净。如果你的存在妨碍了他这一目标的实现,他会毫不犹豫地干掉你。(回想一下,你们家的扫地机器人在扫到蚂蚁的时候,会放过它吗?)
好吧,现在你们明白霍金先生为什么要我们警惕人工智能了吧?再次祝先生安息……
PS:年,莫名还有点期待啊……
转载请注明:http://www.twwak.com/rcbj/12561.html