2026年4月,人类会创始人、著名人类学家胡家奇,与被誉为“引力波之父”的2017年诺贝尔物理学奖得主、美国加州理工学院教授巴里·巴里什,举行了一场意义深远的学术交流。
胡家奇理事长是全球早期系统研究科技危机的先驱以及科技危机理论体系的重要构建者,而巴里教授则是当代物理学界的标志性人物。两位来自不同学科领域的顶尖学者,围绕科技安全性危机与人类命运等重大议题,展开了长达两个多小时的深入探讨。这场自然科学与人文社会学之间的深度跨界对话,体现了科学界对人类生存危机问题的日益重视,为全球范围内讨论科技治理问题提供了新的视角与动力。
值得一提的是,这是胡家奇理事长在一个月内会晤的第二位诺奖学者,继上月到访的诺贝尔化学奖得主迈克尔·莱维特教授之后,再次以学术对话凝聚全球智慧力量,为推动人类共同应对科技风险发出强有力的呼声。以下为胡家奇理事长与巴里教授的完整对话。内容经过了必要整理,但最大程度保留了双方的原始论述与思维脉络。

胡家奇介绍学术研究历程
胡家奇:
我这辈子做的工作,是先完成我的学术研究,然后把我的学术研究,用行动去推到全球。
我是从1979年到2007年年初完成了这本书,用了二十八年时间。但是这本书发行不久之后,由于在推广过程中间引起了有关部门的注意,我的这本书当时就被封了。
但是,我后面把它翻译成了英文、俄文,还有在香港出版过,在新加坡出版过,在其他地方都出版过。
巴里:
这本书被禁是出于什么原因呢?
胡家奇:
等会我讲了您就知道了。
在二十年前我得出来了这么一个结论:科学技术照今天这么发展,灭绝人类长则两三百年,短则就在本世纪。这不是可能,是必然。
当时中国的口号是:科学技术是第一生产力。这个事情是不能说的。
我提出来了一系列的解决方案,有些解决方案在这个环境下也是不宜说的。
但是中国政府给了我很大的包容,我后面做的一些工作他是没有干涉的。比如,我建立了两个全球性的网站来推广我的观点,中国政府没有干涉,而且我还是连续四届的门头沟区政协委员,整整二十年时间,都没有干涉我。
巴里:
直到现在依旧被禁吗?
胡家奇:
在今天也没有公开发行,但是已经卖出去很多书了,在旧书市场上能买到我的书。因为开始是可以发行的,他是后面停止我的。
巴里:
我仍然想知道这本书被禁的原因。
胡家奇:
在这个地方,二十年前说科学技术会很快灭绝人类,是个被忌讳的事情。
但是今天,世界上很多人都已经说了科学技术有可能会灭绝人类,包括霍金,包括马斯克,包括辛顿,还有很多别人。
所以,今天说这个事情,虽然是可以说的,但是要想在今天,想在中国出这个类型的书是非常难的。
这个事情我可以从后面往前说。我是1979年开始研究这个问题,2009年,就是我的书籍出版两年之后,霍金警告,不要轻易接触外星人,外星人有可能给人类带来致命的灾难。这个我的书中间写过。这是霍金说过这个话,两年以后。
更重要的是,2013年,牛津大学人类未来研究院在尼克·博斯特罗姆的主持下,完成了一份正式的报告,说人类有可能在下世纪灭绝,而灭绝人类的罪魁祸首就是科学技术。
当时看到这个报道之后我非常激动。我还专门给尼克·博斯特罗姆写了一封信,也寄了我的一本书,然后发表了一篇文章《终于有了知音》。当时这么一个事情,中国的媒体上也进行了报道。
六年前,我也找了很多媒体来谈科学技术会很快灭绝人类,但是我谈的结果,是我的书被封了。
这个牛津大学的研究报告出来,结果当时就引起了中国媒体的广泛关注,政府也是没有做任何干涉的。
第二年,也就是2014年,在我的书出版七年之后,霍金就谈到了人工智能它的自我意识有可能觉醒,有可能取代人类、灭绝人类。
然后,在2017年,霍金又谈到了这个问题,就是科学技术失控发展有可能给人类带来灭顶之灾。他认为要想解决这个问题,很有可能要建立一个世界政府以掌控科学技术,这个观点跟我高度吻合,这是我的书出版十年以后了。
今天担心科学技术灭绝人类的已经有很多人了,但是二十年以前不是,四十多年前更不是。我说科学技术会很快灭绝人类,那就是杞人忧天,就是空穴来风。

二、胡家奇学术研究成果探讨
胡家奇:
我们再回到最早,我介绍一下我这么多年的研究成果。介绍完以后,您提问题,我来解答。
我这么多年的研究,不论是这个书,还是我写的那么多文章,还是做的一些什么事情,在这个图上差不多都能说明白。
我对一切的研究,都是从这两个问题切入的。一个是人类的整体生存问题,一个是人类的普遍幸福问题,因为我认为没有比这两个问题更大的问题。
关于人类的整体生存问题,是我今天想谈的主要问题。
我的研究结论是刚才说过的:科学技术照现在这样发展下去,灭绝人类长则两三百年,短则就在本世纪,等会儿我会介绍我的论证过程。
那么我一切的研究都是基于人性,我认为我们人类是一个特定的物种,我们不是神、不是仙,我们就是人类这一物种。一切违背人性的社会制度的设计,注定失败。人性可以引导,但是不能够根本改变。
基于人性,我搭建了这三个原则:最大价值原则、正义性原则和深远原则。这三个原则是我所有研究的方法论。
由于我担心今天我们讨论的时间不够,这三个原则我不能够一一进行介绍,我只介绍一个原则——最大价值原则。
我认为人类最重要的价值,第一是生存,第二是幸福,而人类的整体权重又是最大的,所以人类的整体生存高于一切。当个体、民族或者国家利益,与人类的整体生存发生冲突的时候,必须无条件地服从后者。
所以呢,我这么多年研究的一个重要的口号,就是人类的整体生存高于一切。我们人类会的其中的一个重要口号,也是人类的整体生存高于一切。我这本书的扉页上就写着呢,人类的整体生存高于一切。
如果不认可这三个原则的正确性,我后面的一切研究也许都是错误的。
基于这三个原则,我试图解决三个问题。第一个问题,是人类的整体生存问题;第二个问题,是人类的普遍幸福问题;第三个问题,是由人类的整体生存与普遍幸福所衍生出来的其他问题。
那么人类的整体生存问题刚才说了,在我的论证中间,科学技术照现在这么发展,灭绝人类长则两三百年,短则就在本世纪,怎么解决这个问题呢?我的路径是这样的。
第一,力争当下。就是说我们当前能够做多少避免科技灾难的事,就尽最大的努力去做这个事情。比如尤德科夫斯基提出来了一个对齐理论,现在是个比较热门的理论,这个理论我认为它也有一定的作用,但是作用不大。虽然不大,我们也要做。
第二,就是我们要发动一场觉醒启蒙运动,让全世界重新认识科学技术。
第三,是我认为要解决这个问题的根本之道,就是人类要实现大统一,用世界政权的力量来掌控科学技术。所以第三步,就是人类要实现统一。
实现统一以后,对科学技术要进行严格的限制,尤其是对科学理论进行严格限制,以致遗忘。但是,我们要把那些安全成熟的科学技术普及到全球。我认为把安全成熟的科学技术普及到全球,足可以保证人类的丰衣足食,人类不能够太贪婪。
我们还要对人类社会进行重构,今天人类社会的这样一种模式,是不能够解决这个问题的。关于这个人类社会重构的问题,我后面还要讲一下。
通过这一系列的工作,实现人类的永续生存。这就是我实现解决人类整体生存问题的路径设计。
关于人类的普遍幸福问题的解决,我为未来的社会设计了一个社会的框架。这个未来的社会应该是一个平和、友好、均富的非竞争社会,因为,我觉得这样一个社会是最有利于人们普遍幸福感的获得的。它不仅有利于人们普遍幸福感的获得,还能够有利于大统一社会的稳定。
这是我今天想介绍的我整个学术的框架,后面还重点想介绍一下我是怎样论证科学技术的继续发展必定很快灭绝人类的。
那么,在这之前,教授您有什么问题需要问的?
巴里:
我理解这个理论框架,也理解刚才您所表达的内容。
胡家奇:
好的,那我就往后讲。
巴里:
我需要在现在提出自己的观点吗?
胡家奇:
(您)可以(在我)讲完之后一起说。
巴里:
当然可以。

三、科技灭绝人类的论证方法
胡家奇:
那么下面,我就想介绍我对科学技术灭绝人类的论证方法。
我采用的是灭绝路径分析加上防御极限测试的方法进行论证的。因为科学技术能不能灭绝人类,它无法证伪,不能够观测,实验也不可重复。所以,用一般的方式很难论证科学技术是不是能够灭绝人类。但是,灭绝风险可以部分被验证和评估。
现在学界对于科技灭绝人类的问题,还采用概率的方法进行论证,我觉得用概率的方法论证是非常不科学的。这个问题我们等会儿可以探讨。
为什么不科学呢?因为用概率的方法评估,样本太单一。
我们地球只有一个人类,发现有高等生物的星球也只有地球这么一个。当前的研究多半都是采用贝叶斯评估模型,其中的取值具有高度的不可确定性。以及高度的变化值。就是说变化的取值范围非常宽泛。往往取值不同,得出来的结论就相差很大。看起来用数学的方式,用数学的模型,得出来数学的结论好像是精准的,实际上,是一个不科学的数据。
我举个例子,比如托比·奥德。他认为一百年之内,科技灭绝人类的概率是1/6,也就是16.7%,这是大还是小啊?
比如马斯克,认为AI有可能灭绝人类的概率是20%左右。
比如泰格马克,就是Max Tegmark ,他认为人工智能失控的可能性大于90%。
权威调查机构对2700多个专门从事人工智能研究的人员进行了调查,这个调查的中位数,是在百年之内,人工智能灭绝人类的概率是5%到10%。
辛顿是人工智能领域教父级的人物,他对这个问题也有评估,而他的评估,在接受媒体采访时是有相当变动的。比如他接受媒体采访时,最紧迫的说法是人工智能在5-10年之内就有可能失控。但他又说过,人工智能在三十年之内失控的概率是10%到20%。
就是他这么一个教父级的人物,在回答这个概率的时候都是变动的。你说辛顿,他作为一个伟大的科学家,作为AI领域教父级的人物,他今天说这个数字,明天说那个数字,矛盾吗?
我认为不矛盾。从数字的表面是矛盾的,但是,他对这个问题的严重性的表述是不矛盾的。不管是三十年,还是五年,还是十年,还是四十年,都反映了他这么一个判断:这个事情非常严重,不能不解决它。
所以,在讨论用什么样的方式研究这个问题的时候,我认为不宜简单地用概率的方法来进行研究,而应该用定性的方式进行研究。我是怎么认证的呢?下面我就想讲我的这个论证过程。
我采用了灭绝路径分析加上防御极限测试的方式,分五步进行论证的。
第一步,科技发展必然导致工具的毁灭力增强。
我们人类从远古走来,比如旧石器时代,用石头、棍棒追逐野兽。在用石头棍棒追逐野兽的同时,也用于人类之间的相互打斗,但是那个时候的打斗效率非常低。
进入到冷兵器时代,一刀一剑杀伤一个人;火药发明以后,爆炸弹的爆炸可以杀伤一片;然后有了质能方程,就有了核弹,一颗核弹的爆炸可以毁灭一座城市。
所以,科学技术的发展必然导致工具的毁灭力的不断增强,这是个常识,不需要论证。因此,我的论证的第一步就是这个。
我论证的第二步,就是工业革命以来科技发展快速接近于灭绝的能力。
我认为科学技术的发展是从工业革命开始加速的,也就是十八世纪中叶。农业文明时期,科学技术发展很慢。进入工业文明之后,科学技术是呈指数级的增长,仅仅只两百多年时间,就把很多科学技术发展到了接近灭绝人类的能力,比如基因工程、纳米技术,还有人工智能。
像这样一些技术,人们对它安全性的担忧,已经不是它能够毁灭多少人、能够杀伤多少人,对它安全性的担忧,本身就是它能不能灭绝人类。
这是我要讲的,论证的第二步。就是工业革命之后,科学技术呈指数级增长,迅速的接近灭绝人类,虽然现在还不能灭绝人类但是给人感觉已经不太遥远了。
我的论证的第三步,就是只要科学技术还在失控发展,手段的毁灭力一定会更强,直至灭绝手段就出现。
即使我们今天担忧的不管是基因工程、纳米技术还是人工智能,都不能够灭绝人类,只要科学技术还在往前发展,一定会出来一个更厉害的东西,早晚会具备灭绝人类的能力。
最早的灭绝手段出现之后,如果科学技术还在继续发展,人类没有灭绝的话,更多的灭绝手段会不断地涌现出来。
更高层级的灭绝手段,必定形成这样一种趋势:灭绝手段更难控制,从开始的国家掌握,不断地趋向于人类个人也能掌握、一个企业也能掌握。一个国家的行为还好控制一些,人类的个体行为是很难控制的,总有那些敢干极端坏事的人。这是我论证的第三步。
那么我认证的第四步是什么呢?灭绝手段不可抵消,就是灭绝手段不能够防御。
有些手段是可以防御的,比如释放病毒,可以研究药物来治疗。但是有些手段是没法防御的,比如核武器,核武器爆炸它的能量释放了也就释放了,造成了杀伤也就造成了杀伤,是没法防御的。
但是即使有些手段可以防御,比如释放病毒、细菌,可以研究药物进行治疗。但是研制这种防御的手段,有一个过程,也就是说有个窗口期。由于人类的未来很长,而科学技术发展到更高层级以后,会不断地出现新的灭绝手段,这就导致了这个窗口期随着人类的延续,会趋向于无穷的长。也就是说,在相当长的时间里面,既有灭绝手段,又没有抵御它的手段,这样早晚都会出事。
如果按照自然的力量,我们人类活一亿年都是有可能的。恐龙在地球上生存了1.6亿年,鹦鹉螺在地球上生存了5.3亿年,是因为它们能够很好地适应地球的环境。人类比它们适应地球环境的能力大得多,所以,自然的力量轻易不可能灭绝人类。人类在自然的环境下,长期生存上亿年的时间理论上应该都是没问题的。
这就是我的防御极限测试,就是我们假设所有的灭绝手段都有抵消的办法,它这个抵消办法的研制,也有一个过程。由于未来人类的时间还有很长,随着人类的延续,这个窗口期就变得非常长,早晚会导致灭绝。这就是我的论证的第四步。
论证的第五步,就是灭绝力量的爆发是不可避免的。
灭绝力量有可能通过三种方式爆发,第一,就是有人故意采用灭绝力量灭绝人类。任何时候都有想干极端坏事的人,想灭绝人类的人有的是,包括科学家。第二,灭绝力量有可能在实验室的科学实验中间爆发,原因就是科学实验是探索未知领域,既然是未知领域,就有我们很多不知道的东西,科学技术发展的层级越高,这种不知道的内容就越多,就越容易爆发。第三,就是科技产品的不慎使用也有可能导致灭绝力量的爆发,因为当科学技术发展到相当层级以后,科技产品的真正性能,人类是很难准确把握的。就和氟利昂的使用导致了臭氧层的破坏的道理是一样的。
这就是我的全部的论证过程,分了五步,采用灭绝路径分析加上防御极限测试的方式。我采用定性的方式进行推导,但是得出来的是定量的结论。这个定量的结论就是百分之百,而不是可能。
因为我认为如果采用定量的方式、用概率的方式,一些参数没办法准确确定,还不如不采用参数那种看似准确的方式去做,因为我研究的内容比较宽泛。
那么今天我们只谈这么一个问题,因为我觉得这个问题是最需要教授来支持我的。

四、胡家奇学术推广历程
胡家奇:
因为现在在主流的风险研究领域,多半都是采用概率的方式,我算是一个特立独行者,但是我很坚信我的方式是科学方法。
在我所知的范围之内,对这个问题进行系统研究、并得出系统的研究结论的,我自己应该说算是比较早的,那是在2007年。之后有正式研究报告的,就是尼克·博斯特罗姆的牛津大学人类未来研究院在2013年的那份正式报告。
我得出这个结论以后,先是出书推广。由于在中国有一定的难度,后面我在2008年建立了专门的推广网站。这么多年,我一共写了十二封信给人类领袖,发出去了一百万封信,其中,跟教授您也发过信。
我最早是发纸质的信,然后又寄书,后面由于量太大了,我们收集到要寄信的人太多了,所以后面就是采用邮件的方式。
由于我2007年1月份就做这个工作,所以教授您得了诺贝尔奖之后,我们知道这个事情以后,跟您发的是邮件。
我总共发出八十万封邮件,二十万封纸质信件。还寄出去了一万来本书。
然后,由于推广的效果不好,后面我还做了这样的一个事情:我有一定的经商才能,假如我要成为一个世界首富,说话就有分量了。
因此,我用九年的时间,集中了我几乎所有的资金来实现我首富的行动,但是这个行动失败了,我为此也烧掉了过去几乎所有的钱。
在这个首富行动即将失败的时候,我们意识到这种方式可能是我的能力所不及的,所以,我在2018年在美国成立了人类会。既然过去的手段都不行,我想用一个组织的行动来推动这个事业。
这个组织的支持者,目前已经突破了1400万,分布在全世界几乎所有的国家和地区,我们的数据上是在255个国家和地区都有我们的支持者。
就在前不久,我们做了这么一个决定,就是我们直接要对话世界顶级科学家,希望能够得到世界顶级科学家的认可和支持。我们对话的第一个科学家,就是诺贝尔化学奖得主迈克尔·莱维特,您是第二位。这个工作我们会一直推下去,会推很长时间。
我就讲这么多,看教授有什么问题需要问的啊。
五、政府主导下人类统一问题的探讨
巴里:
我对您的研究成果印象十分深刻,对于您这么多年来对学术研究的坚持感到十分动容。我觉得您意识到了什么才是真正的问题,但我认为有一些问题是更急需解决的。
八十年前原子弹投向广岛,不久之后,威力更加巨大的氢弹也研制成功,但目前尚未被使用。
如今,八十年过去了,核武器的发展仍然在继续,但核武器的实验仍较为匮乏,目前世界上的大国已经具备了足够毁灭世界的力量
您刚刚讲的大部分的我都是同意的,但是我觉得目前最亟待解决的问题其实来自于政府层面,政府之间的共识目前几乎是不存在的,您刚才上面讲的科技对于人类的毁灭性威胁随时都可能发生。
我认为您已经指出我们有很多种方式可以毁灭自己。而且如果我们不采取行动、改变在这个世界上的生存方式,这种毁灭几乎是不可避免的。
我个人认为,这个问题无法通过个人来解决。只要政府之间还存在竞争关系,所有人就都会处在危险之中,所以我同意刚才您讲的。
但我们真的能够相信我们的政府吗?对于我个人而言,我是不相信的,包括我自己国家的政府。
那么,我们如何确保我们的政府不会毁灭我们?首先我觉得我们应该确定的是,我们的政府不会帮我们的,我不知道答案,但在我看来,除了您所说的一切之外,我们还面临一个紧迫的问题:我们创造出了相互竞争的政府,在没有武器的时候也许还好,但现在它成了一个巨大的危险。
八十年前,我们可以摧毁日本的一两个城市,我的政府用核武器摧毁了城里的所有人。八十年过去了,其实人类已经掌握了能够毁灭整个世界的能力,令人悲哀但千真万确的是,各国政府并未意识到这一点。我不相信任何一个政府能够不互相争斗、不使用核武器。
如果我们能够解决核武器的威胁,才能解决刚刚您讲的这些问题,比如刚才我们讨论的病毒问题。
我们始终没有形成一个全球统一的方式来应对新冠病毒。但很幸运,它随着时间推移变得温和了。病毒很容易进化得越来越严重,而不是越来越轻微,所以我们不应为自己解决了新冠问题而感到骄傲,它只是变得不那么严重了。比起它起源于实验室还是自然,更关键的事实是我们未能有效应对它。我们只是很幸运它没有变得更严重。
所有这些,以及您对我所说的内容,都表明目前的政府结构是一个大问题。您谈到了全球层面,基本上是通过全球政府或全球联合行动来解决这些问题,但我们如何才能实现这一点?全世界每个政府都有自己的私利,我们如何将一个由各自为政的政府组成的世界,转变为另一种状态?
因此,首先要解决政府的问题。只有真正实现世界的统一,才能有效应对刚才您说的这些问题,因为现在国家和国家之间都是相互独立的,还达不到能解决问题的程度。
就解决这个问题来说的话,我想问,我们如何能在目前,比如说有五十个大国的情况下,而不是有一个联合的国家的情况下解决这些问题。
因此,您所做工作的最有力结论——这非常令人钦佩——就是我们必须要建立一个世界政府。我认为除此之外别无他法。
我想知道您对我刚刚讲的有什么不同意见。
胡家奇:
非常感谢您提出了问题,我也想就这个问题谈谈我的想法。
第一,我觉得核弹灭绝不了人类,这是一个定论。
我对人类的灭绝是有一个定义的,人类的灭绝我的定义是一个人都不剩。也就是说,人类没有未来了,这是我对人类灭绝的定义。
核弹也许可以把人类炸到石器时代去,但是它灭绝不了人类,这是一个定论。它也许会把人类毁灭掉几十亿人,但是还会幸存下来少数人。这个少数人可以延续我们这个物种。就像广岛和长崎遭受原子弹爆炸之后,毁灭了大部分人,但是还是有一部分人生存了下来。这是我想谈的第一个问题,
我谈的第二个问题,并且我认为现在最关键的问题,就是政府问题。关于解决政府问题,就是我之前谈到的:要推动一场觉醒运动。我们必须得要推动一场觉醒运动,让全人类形成共识。
国家进行合并的例子是很多的,东西德的统一就不是靠战争实现的。还有美国最早独立以后是邦联制国家,十三个州的合并也是自愿的,因为他们有共同的利益。
在欧洲历史上有过文艺复兴运动,在文艺复兴运动之前,欧洲想摆脱天主教会的统治那是不可能的。但是因为有了文艺复兴运动,所以就有了马丁的宗教改革,之后就有了启蒙运动。
启蒙运动使人们对人权、对国家的权利有了新的认识,后面有了三权分立、权力制衡的理论。如果没有启蒙运动就不可能有美利坚合众国这个世界上第一个三权分立的民主国家。以前人们都认为,国家没有国王是不可能的,国家就是国王的。
从人类历史上看,政治实体的扩大是个大趋势。比如中国最早的夏朝,只是今天中国的山西省和河南西北部的一小块地方。后面有了商朝,又大一些了,有了周朝,又大一些了。后面秦始皇统一了中国,这个就更大了,这是个大趋势。
世界历史也是这个样子,以西方历史为例,今天的西方文明源自希腊的古典文明。古典文明时期的希腊都是一个个的城邦小国,最大的比如雅典、斯巴达,也只有三四十万人。而今天拥有了这么多幅员辽阔的国家,像俄罗斯这么大的国家,像美利坚这么大的国家。在东方有中国、印度这样达到十四亿人口、面积接近千万平方公里的国家,它整个趋势都是往扩大的方向走。
比如英国人的扩张,大英帝国的扩张仿佛世界都是它的。蒙古人的扩张横跨欧亚,形成了非常广阔的疆域。虽然整个疆域的扩大、人口的扩大有波动状,就像前苏联解体一样,但是整个趋势是扩大的。
在我的研究中间,我认为阻止人类政治实体扩大唯一的硬性条件,就是交通和通讯条件的不便使得一个大的区域难以治理。除此之外,再也没有第二个硬性条件。
那么,今天的交通与通讯条件,已经把世界联系到了一个地球村。所以,交通与通讯这个硬性条件已经解决,缺的只是一个共识。
过去的扩张或者是政治实体的扩大,有两个因素,一个是战争的征服因素,另一个就是有共同利益的诉求、和平统一的因素。
蒙古人和大英帝国的扩张,是一种征服的因素,而东西德的统一,以及美利之间合众国十三个州的合并,是自愿的、有共同的利益。
现在我们面临一个绝对权重的共同利益,就是如果人类不统一、不实现大统一、建立世界政权去限制科学技术的发展,人类这个物种就没有了,没有什么利益比这个更大。如果把这个道理讲给大家听,如果大家能够接受这个道理,人类和平统一的可能性就相当大。
在人类世界近代史上,也是有先例可循的。比如第一次世界大战之后,人们看到第一次世界大战那么惨烈,一场战争波及到全世界,所以有了国际联盟,国际联盟是需要国家让渡一部分权利的。
第二次世界大战之后,人们看到二战比一战还要惨烈,所以觉得这个问题必须得解决,后面就有了联合国,联合国也是需要国家让渡一部分权利的,它们虽然都不是国家,但是都需要所有的会员国让渡一部分权利。
所以从这个也可以看到,我们做成人类统一这个事情,和平实现人类的统一,也是有可能的,因为它的共同利益太大了。
最后我想回答您的最后一个问题,就是我们到底需要哪些国家共同努力,才能够实现人类的大统一。
我可以设计多种方案,随便举一个方案:比如中美两国都认定这个事情必须得做,如果中美两国对这个事情极为确定的话,推动世界统一的可能性我认为就有百分之六七十。如果加上俄罗斯,就有百分之七八十。如果再把印度加过来,那就有百分之八九十的可能性。仅仅这四个国家形成合力、形成共识,人类统一的可能性就有百分之八九十,我认为是这样的。
曾经有人跟我开玩笑,说人类统一天方夜谭,除非外星人入侵,我们人类才会统一一致对外,不然我们人类就会被外星人给消灭。我说你说的就太对了,外星人入侵,如果人类不统一一致对外,会被外星人消灭,这个道理太直观了,所以就会促成人类的统一。
现在科学技术有可能对人类产生灭顶之灾,但是这个道理要深度思考,这就需要我们去推动一场觉醒运动,我们人类会的工作就是要推动一场觉醒运动。因此,只要人们形成了共识,把这个复杂的道理想明白,人类统一我认为是有可能的。
最后我补充两点。第一点,就是像核武器这种,我认为一个是它不能够灭绝人类,第二个,它是掌握在国家手里面的。这种毁灭武器在国家手里面的还好控制一些。就像人工智能的失控,一个高水平的科学家可以在电脑上解决这个问题。像生物武器,一个高水平的生物学家可以在实验室中实现这个目标。
国家的行为是好控制一些的,而人类个体的行为是非常难控制的,这是我要补充的第一个问题。
因此,人类今天面对的高科技手段,远远可怕于核武器。
我要补充的第二点,就是一个溺水即将被淹死的人他抓着什么东西,就是什么东西,哪怕就是一根稻草也要抓住。
当我们人类面临灭绝风险的时候,即使不能够解决这个问题,也要拼一把,这既是常识也是本能。
我就说这么多,请教授继续,我可能讲多了,对不起,教授。
六、核风险与人类未来
巴里:
首先我对于您对核武器的看法是不同意的。
我认为,回看广岛,那次爆炸的威力是有限的,而如今已经不同了。八十年后的今天,我们拥有的已经是氢弹,而不仅仅是原子弹。
全球性的危险在于,它恰恰会造成一种情况——就像灭绝恐龙的那个最有力的理论所描述的那样。您提到过恐龙灭绝,我们相信它们是被一场污染了整个地球大气层的重大事件所消灭的,这就是我们认为核武器可能造成的情形。我认为您低估了这种可能性。
没关系,我们可以不同意这一点,先把这一点放在一边,我想说,各国政府能够不通过战争就携手合作或合并,我对这一点没那么乐观。
不过这也没关系。回到您的主要观点上来,不是政府问题,也不是核战争问题,而是您的核心论点我很同意。
您将自己大量的精力和时间投入到研究人类可能自我毁灭这一威胁上,这一点非常值得赞赏。我同意政府解决不了这个问题,只能通过个人的力量才能解决。尽管有一些细节我不同意,但关于您提到的有多种方式能够灭绝人类,这个我是同意的。比如说刚刚提到的AI技术、纳米技术等等,都具备可能会灭绝人类的力量,再比如病毒。除此之外,还有人工智能或许多其他具备破坏能力的先进技术,都可能威胁人类的生存。
究竟哪一种技术才是最危险的,这我很难给出确切的答案,但这并不重要。我认为真正重要的是您指出了一些我们自身能够掌控的因素——人类个体所具备的足以毁灭人类的因素。尽管很难判断到底哪一种因素会给人类带来灾难,但我同意您的看法。
我认为您提出的方案未必是唯一的解决之道。试想,如果你的家里有一个孩子,那么让他们行为得体的方法,不仅仅是限制他们的行为,更要教育他们去做一个孩子该做的事。我相信,这对我们成年人来说也是一样的。也就是说,通过教育、启迪的方式让人们理解危险所在,比单纯的去限制更为重要。
我认为,您在引导人们、让他们理解这些危险等方面,正扮演着极为重要的角色。而目前从事这项事业的人还远远不够,所以更凸显了您从事的人类事业的重要性。对于你最终提出的解决方案,我可能并不完全认同。我认为教育比限制更为重要。这是人类的天性:不愿接受某些事物被禁止。无论是成年人还是孩子,都不喜欢被别人禁止去做某件事。所以,我们应该只在绝对必要的时候才采取限制的手段。教育的方式更具说服力,而觉醒与启蒙则更为重要。因为如果人们真正了解了其中的道理,自然会接受它们。
所以我同意您上述的观点,只是在侧重点上略有不同的看法,但您所做的事情,不论是唤醒人们,还是启迪世人,都是极其必要的。应该有更多的人来做这件事。这才是最终的解决之道。
而对于采取限制措施能否从根本上解决问题,我就没那么有信心了,我个人认为采取限制措施并不能够真正奏效。
您之前有这么一句表述:人性可以被引导,但无法被根本改变。这也是我想要强调的。我们需要理解人性的本质,并且尽可能引导人们去做正确的事情,因为我们无法从根本上改变人性。
您在这里面写的,最终想建立一个平和、友好、均富的非竞争社会,是一个非常棒的想法,唯一的问题就是我们怎么才能实现这样一个目标呢?
您对这项事业所付出的时间、精力和已经迈出艰辛步伐,我深表赞赏,尤其是创建一个平和、友好、均富的非竞争社会,这也是我们所有人应该追求最终目标。
我对您将自己生命中的如此之多的时间、精力与思考,都投入到这个问题上,感到十分钦佩。

胡家奇:
非常感谢教授对我工作的肯定,刚才您谈的几个问题,我也想谈谈自己的想法。
第一个,关于核弹是否能够毁灭人类的问题,可能每个人的观点有所不同,但是我可以确定一点,六千万年以前。被认为是有一颗直径十公里的小行星撞击了墨西哥的尤卡坦半岛,这颗小行星,能够导致恐龙灭绝,但是它灭绝不了人类。因为人类已经不是赤身裸体面对自然气候的变化,食物的获取也不是简单靠大自然的赐予,而是创造性地获得。所以人类的存活能力比恐龙要强得多,
核武器即使全部爆炸,有些角落它也不能够涉及到。只要是有少数人存在,人类就有再来的可能性,如果人类一个人都没有了,我们这个物种就消失了,就灭绝了,就没有未来了。
巴里:
我非常欣赏您这种乐观主义精神。
胡家奇:
我认为灭绝手段的使用是所有的人都没有了,连自己都没有了。所以世界上这么多核弹同时爆发这件事本身的可能性就不大,这是我谈的第一点。
我谈的第二点,就是我们人类的未来需要大家共同去努力。今天很多事情看来非常难,但再难,我们也得要努力,哪怕就是没有希望,我们也得要争取一把,我这是我想谈的。
巴里:
我同意您的观点。
胡家奇:
您看还有什么要说的?
巴里:
感谢您付出的时间以及您深思熟虑的陈述。
胡家奇:
中国有句话,叫做君子和而不同。一个道理可能你认为是正确的,他认为是不正确的,都没有问题。
今天跟教授在一起谈了这么久以后,最大的一个共识,就是都认为科学技术不能完全贸然前行了,贸然前行可能会对人类的整体产生威胁。有这么一个共识,我觉得我们就有了交朋友的前提。
我知道教授的时间非常紧张,现在按照刚才的这个时间点,还有两分钟时间,我们可以撇开这些。
希望将来我们能够多交流,也希望我们能够留下联系方式,将来有什么问题可以在邮件上进行探讨,
将来如果您到北京来,有些什么事情,我能够办得到的,就不要客气,尽管说。
【免责声明】: 凡注明 “环球文化网” 字样的图片或文字内容均属于本网站专稿,如需转载图片请保留 “环球文化网” 水印,转载文字内容请注明来源“环球文化网”;凡本网注明“来源:XXX(非环球文化网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其作品内容的实质真实性负责,转载信息版权属于原媒体及作者。如转载内容涉及版权或者其他问题,请投诉至邮箱 bj@hqwhw.com联系删除 。