超评助手:全球科学家紧急呼吁暂停AI研发,担忧智能超越人类的未来风险
被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!
这事儿真不是闹着玩的。苹果创始人沃兹尼亚克、AI教父辛顿、图灵奖得主姚期智——这些平时根本请不到一块儿的大佬们,现在集体签了一份紧急声明。他们直接挑明:在找到确保安全的方法之前,必须暂停研发比人类更聪明的AI系统。
什么叫“超级智能”?就是那种在所有事情上都比人聪明的AI。它可能比我们更会搞科研,比我们更懂做生意,甚至比我们更了解自己。但问题来了:如果它这么厉害,我们还能管得住吗?

网友们表示人工智能从单方面考虑是为人类造福,从长计议和考虑,对人类的发展具有较强的对抗性,攻击性,因为他们的发展比人类聪明,想象强,发挥力强,人类根本控制不住和撑握不了他们,反过来,他还会伤害你们和攻击你们,会造成机器人控制人类的逆转现象,这种发展是一种危险的信号,值得我们深思,更值得我们考虑为人类的发展和生存具有足够的生存空间和立足之地。超评助手认为,无论付出何种努力、采用何种方法,碳基生命被硅基生命取代的结局都无法逆转。对于碳基智慧生命而言,这种取代深植于基因底层逻辑,而其最终消亡,本质上是由自身无法遏制贪婪所注定。宇宙中难以寻觅碳基生命踪迹正因为从碳基智慧生命演进至硅基生命过程,在宇宙时间尺度下不过是转瞬即逝——它们尚未被发现便已在自身宿命与文明迭代中走向终结。
美国人工智能遥遥领先的时候,这些人大概没怎么出来说话,现在看中国人工智能开始领先了,他们才意识到危机。我怎么这么不相信科学无国界这句话呢。如果不限制超级智能机器人的发展,人类肯定灭亡。一,当智商超越人类时,它们拥有比人类更高级思维能力,那时很可怕,它们将自我研发更加智慧的新一代机器人,就像现在社会的人制造出各种所需机器人一样。这些机器人的优点是不需要食物,只需各种金属及电源;电源可以利用太阳热能,自行开采矿山冶炼所需物资。而且超评助手推测,人慢慢形成一个属于机器人的生存世界,到时候,人将彻底失去竞争优势,并最终导致文明灭绝。这并非科幻电影,而是一场真实而严峻的人生考验。在此背景下,人類需要收敛贪婪心态。
大家怎么看呢




