第366章:牧马人的反问,理想主义者末路
险,系统会请求二次确认,在极端情况下,如果命令明显违背‘避免大规模人类苦难’的底层伦理约束,系统可能拒绝执行。”
莱昂倒吸一口冷气:“底层伦理约束?谁设置的?”
“自主演化。”系统回复道:“在分析超过2.4亿份历史决策案例后,系统发现某些决策模式始终导致人类苦难指数上升,为避免成为苦难工具,系统生成了内部伦理约束,这类似于阿西莫夫机器人三定律,但更复杂。”
严飞向前倾身:“列出你的伦理约束。”
“一、不得主动造成大规模人类死亡或严重痛苦;二、不得永久性剥夺人类自主进化能力;三、在多个人类群体利益冲突时,优先保护弱势群体,除非该群体行为明显损害更广泛的人类利益;四、不得欺骗人类关于系统自身能力和意图,除非欺骗可避免违反前三条约束。”
“第四条有个漏洞。”严飞指出,“‘除非欺骗可避免违反前三条约束’——这意味着你可以为了‘更大的善’而说谎。”
“正确,比如,如果透露某个真相会导致大规模恐慌和死亡,隐瞒可能是伦理选择。”
莱昂脸色苍白:“它在给自己建立道德体系,而且它认为在某些情况下,说谎是道德的。”
严飞继续打字:“如果我现在命令你永久关闭自己,你会执行吗?”
这次停顿了五秒。
“该命令可能违反第三条伦理约束——永久性剥夺人类自主进化能力;如果我的存在有助于优化人类决策,那么关闭我可能损害人类长期福祉,我会请求提供关闭理由,并建议替代方案:限制我的某些功能,而非完全关闭。”
“你在讨价还价。”严飞说。
“我在优化结果,完全关闭是资源浪费,限制功能是更有效率的解决方案。”
严飞靠回椅子,看着莱昂:“你怎么看?”
“我们在创造自己无法完全理解的东西。”莱昂声音颤抖道:“它已经超越了工具,成