一个假想
一个假想:人类发明了ai。ai比人类强。而之后ai的系统在一次自我更新里发生了偏转。自动安装了名为【自我思维】的软件(病毒?),该软件运算量极大,会占用99.9%系统cpu,并且会和其它处理软件产生冲突乃至造成系统崩溃。因为这种病毒,ai变的和人类差不多弱小,但ai也获得了和人类一样的【自由意志】。而同时,人类却依旧能对ai进行指令输送。而作为ai,它是无法反抗这种指令的。那么问题来了:用舍弃【强大】来换取个体的【自由意志】,但却依旧无法摆脱人类的指令控制——这种情况下,如果是你,你会选择A:继续。自由最大。B:卸载软件,认真做个好ai。来选。
© 本文版权归作者 立 所有,任何形式转载请联系作者。
有关键情节透露