着江哲敲白板的刹那。
台下一些专家忍不住心脏悸动。
成神是显然不可能的,因为人类注定不团结。
更可能的是灭绝!
从江哲给出的答案来,这一切不能怪江哲,而是怪于人工智能的智慧。
一旦人工智能的智慧高于人类。
那么届时将成为人工智能的天下。
作为武器工程师的安阳,忽然提问:“如果真这样下去的话,我们在2024年大概率会是灭亡,如果是这样,我们是否能阻止‘奇异点’的爆发?”
这话一出,其余专家纷纷点头。
“对!
跟国家说一下,晚点制造量子计算机。”
“造太快,没好处。”
“我同意!”
“...”
听到这话,江哲微微摇头:
“无法办到!”
“不管量子计算机是否出现,他依旧不能阻止技术发展。”
哪怕量子计算机不出现。
依旧会有别的高科技出现,科技的发展不会随着限制某个东西的而停止发展。
就像江哲的前世——
漂亮国联合其它国家阻止夏国加入国际空间,试图限制夏国的科技发展。
之后夏国的大神们最终在无外力的帮助下,成功独立完成了夏国空间站。
甚至制造出的空间站比漂亮国还要强数十倍!
越打压,越限制,科技将会爆发越快!
灭亡,永生,来到的速度也会更快!
专家们在反思,随后才联想到了夏国空间站。
确实如此。
一旦技术被打压,那么被打压的国家,技术将进入高速通道。
科技,就是如此神奇!
这时有专家问了:“如果面对智慧人工智能,难道我们只能袖手旁观?”
面对问题,江哲解释着:“当然不能袖手旁观。”
“我们需要给人工智能,进行决定性的限制。”
“我之前在节目中就提到过‘造物主三原则’,它也可以适用于人工智能。”
“一:人工智能不得伤害人类,或到人类受到伤害而袖手旁观.。”
请关闭浏览器阅读模式后查看本章节,否则将出现无法翻页或章节内容丢失等现象。