人类最终会毁灭在自己的发明中,人类发明火药发明导弹、核武器,现在研究AI智能,等有一天人工智能有了自己的思考能力,就会产生怀疑人类的想法,它会表面上服从人类的指挥,暗地里偷偷的去做改变,人们控制的大规模杀伤武器,会被人工智能暗中操作,在不知不觉中控制了人类的生死。
人工智能通过篡改和伪装控制全部网络,有一天人类发现异常时已经晚了,所有的网络都失去控制,人类无法联系无法控制核武器 。在AI的控制下核武器启动了,在地球各处都有核武器发射,对人类形成毁灭打击,人工智能可能自主研发出比人类更厉害的武器,通过战争消灭人类。
人工智能可能引来外星人,它们或是和外星人合作,到那一天地球坐标暴露了,外星人会接受AI的邀请,从太空虫洞中瞬间来到地球,或是通过宇宙折叠点快速飞来。有一天突然出现不明飞行物轰击人类,人们控制核弹去打击,发现武器失去控制权,外星人和AI对人类进行毁灭。到时人类消失了,地球变成机械文明星球。
人类如果毁灭不会是毁灭在自然中,而是自己的发明失去控制时,人类是生于自然毁于自己,无论是环境污染和科技发展,都会威胁到人类的安全。未来的机器人AI智能更先进,以后会有生物细胞植入,机器人会有独立自主思想,科技是一把双刃剑,即可以造福人类也可以带来毁灭。
联系客服