机构入驻 - 联系我们
您的当前位置: 首页 > 天下奇闻 > UFO事件 正文

霍金再发警告 人工智能已成优势群体将用战争摧毁人类

作者:eric 时间:2023-10-01
导读:BAIDU_CLB_fillSlot("440365"); 【奇闻快递】3月15日消息,霍金再发警告,人工智能已成优势群体将用战争摧毁..."
【奇闻快递】3月15日消息,霍金再发警告,人工智能已成优势群体将用战争摧毁人类。霍金是目前世界上最伟大的人之一,早前他就一直在提出人工智能对人类未来发展的危害,近日,霍金再发警告称;人工智能已经慢慢补受人类控制,以此发展下去,人类必将成为弱势群体,而未来新科技(人工智能)进一步发展便可能具备这种优势,它们可能会通过核战争或生物战争摧投靠落户 undefined毁我们。;对于人工智能,霍金一直很担忧,他不能确定人类究竟人能不能控制住AI。这也是目前世界上的有一大难题。最近,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的崛起可能带来各种负面的副作用。undefined报道说,霍金慷慨地分享他对世界的观察,并提出关于世界所面临的问题的警告。他认为,世界的毁灭已经逼近,人类创造了可以毁灭地球的科技,却没有建立有效的机制去防止毁灭的发生。这位全球知名的物理学家认为,人类的科技进步太过迅速,而这个巨大的步伐却可能经由生化或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。

打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,你说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

相关推荐:

网友评论:

推荐使用友言、多说、畅言(需备案后使用)等社会化评论插件

Copyright © 2024 上海落户 版权所有 地址:上海市天钥桥路518号 电话:13370044850
沪ICP备2021003381号
Top