第331章 人工智能的伦理道德问题
模式的路子,就注定了要允许它犯错。
但如果要允许一个人工智能犯错,造成了损失,却会被全体人类社会排斥。都是人我们还讲一个非我族类,其心必异呢。更别提机器了。
而且这还是小事。如果是大事就更可怕了。比如未来把天机防御系统交给人工智能来决策,结果发生误判,把一架飞机给打下来了。你猜会发生什么?
所以我非常清楚,这个项目田导挂帅,说白了就是未来万一出了问题,田导跟即将组建的伦理审查委员会来帮我背锅。我安心把活干好就行。也是用心良苦了,我怎么可能不知好岁?」
郑希文默然,太多的弯弯绕绕了,他都没想明白的东西乔喻心里却是门清儿的。
「但是现阶段这东西又是真有用啊。月球建设多方论证了好几套方案,最后发现还是得把具备一定思维能力的机器送上去搞建设最合适。
而且在对月球环境改造完成之前,人工智能是管理月球基地,保证月球基地正常运行的最好选择。
上面的基地生命维持系统可不是开玩笑的。现在人少万一出问题还能赶紧穿上航空服直接进飞船。
如果未来人多了,这东西出问题,那可就是一基地几十甚至几百人同时玩完。容错率超低的高压岗位啊。
你要是再往前看,如果要做宇宙开拓动辑几个月甚至一年在飞船上航行,靠人类当船长很难抵御那种高压的。
地球海洋上航行,每隔一段时间起码会有港口补给。哪怕是初代的大航海冒险家,起码隔一段时间总能看到陆地。
但对于第一代的星际旅行者可没这么好的待遇。在航行时根本没有补给点,甚至导航都不准确,反而是地球需要他们传回的资料去绘制星图,建设星际旅行补给点。
这种高压环境下,人类被长时间压抑的情绪很可能引发不可预知且无法挽回的错误。
所以也的确需要人工智能技术辅助。
不过其实我觉得大佬们都想多了