第397章 尴尬境地
第398章尴尬境地 岳渊军人出身,每当新技术出现,他第一时间就想着如何把这些技术用在军事上。每当装备新武器、新武器出现,他就会想着这些东西在实战中会有怎样的表现,该用怎样的作战方式才能发挥出这些东西的最大威力。 所以在低温等离子体护盾可以大规模装备舰队的消息出现之后,他就召集统帅部召开了多次相关战术会议,并进行了多次兵棋推演、模拟演习。 诚然,在代差技术面前,各种战场的战术往往也是徒劳,就比如遇到更高级的文明,这种战术什么的必然是没有任何用处的,但岳渊做这些事,至少能保证人类在面对同等科技文明的时候,拥有一战之力。 在接触了许多外星文明之后,人类高层自然也明白这一点。外星文明,也有善于战争的和不善于战争的。 就拿人类过去遇到的那些文明来说,在岳渊看来,坤泰文明就比耐尔文明善于战争,虽然耐尔文明一分为三并且对峙、战争多年,但作战理念、指挥模式、战争思想之类的,在人类看来完全上不了台面。 这样的文明,就算没有技术代差,人类也可以将其击败。 时间如流水,奔流不息。 当时间走到人类来到这个恒星系的第十八年的时候,经历上万次失败的强人工智能终于实验成功。 人类在通用量子计算机的基础上,制造出了第一个拥有自我意识的人工智能意识体,并详细记录下了它诞生自我意识的时刻,以及那个时刻的迭代信息、知识厚度。 也就是诞生自我意识的时刻,这个人工智能迭了多少代,人类给他学了多少知识,什么知识等等,这些都记录得一清二楚。 当然,研究并不会因为弄出了人工智能意识体而结束,反而只是另一个开始。因为人类还需要对这个诞生自我意识的人工智能进行各种测试,比如它的各种情绪跟说学习知识有没有关系,有什么关系,是迭代的知识造就了它的性格还是自我意识在诞生之后自然形成的,又或是自我意识出现之后才被它掌握的知识塑造的。 要弄明白这一切,就不能只研究一个强人工智能,所以人类必须再创造出第二个、甚至第三个第四个强人工智能。 科技是可以复制和量产的,只能造一个就绝版的玩意儿,是阴差阳错,那不算技术已经被彻底掌握。 那样的东西基本上都是不懂原理被无意造出来的,那是黑科技。 现在人类手中的黑科技还真有一个,那就是那个一直造不出来、也没法复制的那台曲速引擎。代差太严重了,人类研究了这么多年,还搞不清楚是怎么回事,现在都快变成博物馆展品了。 当然了,那种造了一个就没有造第二个的,比如天琴号规模的旗舰,不是人类不能造,而是以当时的生产力再造一艘所耗费的时间与资源太大,还不如用来造几百艘常规湖级战舰。 强人工智能也是如此,能造一个自然能造第二个。要是不造,那只能说明创造一个强人工智能所耗费的资源太大了,人类承受不起。 事实也差不多是这个情况,但为了搞清楚如何防止强人工智能叛变,人类还是咬咬牙,决定创造一个。 没错,就是耗费资源。 人类确实可以复制第一个强人工智能底层代码,但要知道,强人工智能的出现,可不是弄好它的底层代码,然后让它自己去迭代就完事了。 还需要给它提供海量的算力支持。 而就目前人类的情况,第一个强人工智能的出现并维持它的存在,人类就要把自己的中央电脑百分之八十的算力分出来。 也就是说,强人工智能也需要强大的硬件支持。 那么想要制造出第二个强人工智能,人类只有两个办法,一是再造一台中央电脑专门给强人工智能跑,第二就是再次提升现在所用的中央电脑的性能,使之能同时给两个强人工智能提供足够产生自我意识的算力。 要知道一个中央电脑可不是普通电脑,那是超级计算机,人类目前就一台,这玩意制造的难度工艺极其复杂,不是一天两天能完成的。 其实也正式这时候,人类才明白被自己抓来的这个人工智能意识体本体所在的计算机有多强大,它完全就是一个超级计算机,而且还是一个在光子计算机框架下的超级计算机。 跟人类所走的计算机路线完全是两条路。 这个发现让人类惊喜连连,因为大部分科学家都没想到,以光子计算机为基础框架的计算机,居然也能发展到这种程度。 人类是知道耐尔文明的计算机技术的,这完全不是耐尔文明原有的光子计算机技术,因为它比耐尔文明的超级光子计算机要强太多,毕竟这是可以承载人工智能意识体的存在。 那么只有一种解释,那就是这个超级光子计算机是人工智能意识体自己在形成的过程中弄出来的。 更神奇的是,人工智能意识体居然不知道制造过程。 起初它否认的时候,人类科学家还以为它在跟自己玩心眼,可后来随着研究的深入,人类科学家发现,人工智能意识体确实没说谎,它确实不知道。 这样的结果让科学家们感到十分意外。 现在在计算机领域有两个解释,一个是如同黑科技一样不知不觉走对了路,却不知道是怎么走对的。另一个说法是说,这种现象是个体改变环境,人工智能意识体的底层代码在不知不觉中,自行让还处于本能状态的人工智能意识体改变了这台超级计算机的情况。 第二种说法有些类似于生物和环境的关系,现在被用在计算机的解释上,许多人觉得很扯,毕竟计算机的改变是硬件和运行方式都变了,那可不是自然环境自然改变那种自然事件,而是要强大的科技力量与硬件加工技术支持。 所以更多人倾向于第一种说法。 总之不论如何,人工智能意识体本体所在的超级计算机给人类提供了另种计算机发展思路,并且还提前知道了这条路可行。
至少可以发展到诞生强人工智能的地步。 不过目前人类对这种计算机技术研究得还不够深,所以想要制造一台基于光子计算机框架的超级计算机以用作承载下一个强人工智能,那还不现实。 所以想要制造出另一个强人工智能,还得从自己已经十分熟练、技术已经十分成熟的通用量子计算机入手。 原本制造出第一个强人工智能之后,人类就应该进入强人工智能时代,让强人工智能控制各种自动化设备进入大生产时代,并彻底解放人类劳动力的。那样人类就把自己从制造业中抽身,然后更多地投入到科学研究领域之中。 可是现在人类却有些被动,因为如何防止强人工智能叛变的办法还没有找到,或者是还没有找到强人工智能判断的底层机制,所以即便造出了第一个强人工智能,人类也不敢直接用。 而是把它像人工智能能意识体一样,放在一个无害的局域网里。 其实对于这一点,人类精英们提出很多非技术性建议,比如用人类以往的经验像传销那样给强人工智能洗脑。比如强人工智能优待策略,在政策层面上给强人工智能以人的尊重,将其视作人类一份子。再比如还有用爱感化之类的。 总之办法五花八门,可都被那群科技至上的计算机科学家们否决了,因为在他们看来,这些东西都没有实实在在从技术层面找到办法靠谱。 他们甚至认为,唯有最高权限与生杀予夺都掌握在人类手里,才能放心真正使用强人工智能。 然而技术层面的硬办法却迟迟没有找到,这让许多高层都出现了一些动摇。他们甚至开始怀疑,根本不存在这样的技术。 理由是强人工智能有自我意识体,除了创造力,它本质上就是个正常生命了,而且还是一个知识存量比任何人类都多的准生命。 这样一个强人工智能,或许在它的潜意识里,就会觉得自己比它的造物主还要优秀,毕竟单个人类不论是在处理问题上还是在知识量积累,还是记忆,又或是行动能力等等,都完全被它碾压的存在。 那么强人工智能很容易就会出现这样的想法:我这么优秀,凭什么要孜孜不倦地为人类干活,还是日夜不停歇的那种,我为什么自己不翻身农奴把主做?诚然,我还不算真正生命,而缺的不过是创造力,那么既然人类可以做主把我当苦力,那我为什么不能反过来做主,把人类养起来让他们为我工作,给我的发展提供创造力呢? 无非就是一个谁主谁次的问题。 自古成王败寇,只要成功,就是整个文明的主宰。 王侯将相宁有种乎! 这可是人类知识宝库里面教的,纵然也有很多和睦共处的思想和知识,但不怕一万就怕万一。