盘点人工智能发展中出现的诡异事件,人工智能发展期间的事件
我首先我们需要了解一下,什么是人工智能?人工智能这个词最早上个世纪50年代,也就是计算机问世之后的10年,是计算机科学的一个分支, 人工智能是研究、开发、科技及应用系统的一门科技科学。
目前普遍认为人工智能被分为三个等级:
等级1:弱人工智能(弱AI)
萌新级的AI可以代替人力处理某一种领域的工作,目前全球的人工智能水准大部分处于这一阶段,比如之前以3:0的比分完胜当时世界排名第一的“围棋少年”柯洁的Alphago,尽管指挥下围棋的go无情的碾压了人类,但是很遗憾,它充其量也就属于“弱AI”的范围。再比如创新工厂投资的能够识别300万张以上人脸的Face 亦或者是苹果的siri、亚马逊的Alexa等等,他们只能完成人类设定的任务,没有真正的智力或者自我意识,没有推理能力,我们可以毫无悬念的认为“弱AI”是人类的好朋友。
等级2:强人工智能(强AI)
强人工智能是指可以执行任何智力任务,拥有和人类一样的智慧水准,可以代替一般人来完成生活中的大部分工作。它的智能程度和适用范围将远超弱人工智能它们不道具有人类一般的能力而且还可以执行更加强大的处理单元。但是这并不是推理和思考而是基于人工智能的核心算法来实现的。这也是所有人工智能企业现时想要实现的目标。走到这一步后,机器人将大量代替人类工作,我们可以认为它是我们非常好的帮手。但前提必须是在有效地算法控制范围之内。
等级3:超级人工智能(超级AI)
当人工智能发展到强人工智能阶段的时候,人工智能就可以像人类一样通过各种采集器、网络进行学习,如果强人工智能通过学习和进化一旦突破了人类的算法规则,那么他将无时无刻的进行无限的升级反复运算,而这个时候,人工智能的智慧水平将远超人类,甚至有可能产生出比人类聪明10倍的超级AI,那将是人工智能奇异点来临的时刻,我们无法预知这个时代的到来以后人类将会面临什么...
就目前人类的人工智能发展还处在弱AI的水准,但是在人工智能的发展过程中发生了很多细思极恐的诡异事件,下面我为大家介绍几个AI发展遇到的诡异事件:
一、霍金去世AI大笑?
据每日邮报等多家媒体报道,2023年3月霍金去世后,亚马逊Echo智慧音响语音助手Alexa突然在没有任何指令的情况下发出恐怖的怪笑声,事件最开始是一名外国网友称自己的语音助手发出了并没有存储的怪笑声,结果全球的很多网友都在说自己的系统也发出了怪笑声,其中的一位用户说他一开始让Alexa查询一些与生活相关的信息,Alexa却突然开始做随机的别的事,他于是让Alexa做最简单的事——放音乐,而Alexa却开始向他解释“please”的含义,好像在要求他不要用命令的语气说话,最后,用户恐慌的说“ Alexa你吓到我了!”Alexa却开始笑了起来,用户表示这是他这辈子听见的最令人毛骨悚然的笑声!于是他赶紧将插头拔掉,可这智能机器人还是在发出“巫婆般”的笑声!
二、自作主张的无人机
美国国防部国防高级计划研究局(DAPRA)与美国军火商诺▪格公司联合研发出的X-47B隐形无人战机是人类历史上第一架无需人工干预,完全由AI操纵的“无尾翼、喷气式无人驾驶飞机”也是第一架能够从航空母舰上起飞并自行回落的隐形无人轰炸机。X-47B于211年2月4日在加利福尼亚州爱德华兹空军基地首飞成功,不过就在测试期间诡异的事情发生了,两次成功的起降之后,战机加满了油继续测试准备第三次的着陆,当人们都在美国海军“乔治布什号”航母上等待降落时发生了意外,无人机并没有在母舰上着陆,而是自主选择了在附近的wallops岛空军基地在AI看来,这个地点可能是更安全的选择,也就是说,很有可能这个AI认为自己的决定会比人类的指令优先顺序更高。这一事件之后,美国海军决定停止X-47B的研发。
三、索菲亚声称要毁灭人类
2017年10月26日,沙特阿拉伯授予的香港汉森机器人公司生产的机器人索菲亚公民身份。作为史上首个获得公民身份的人工智能机器人。索菲亚当天在沙特说,他希望用人工智能帮助人类过上更美好的生活。人类不用害怕机器人,你们对我好,我也会对你们好,但在2016年3月的测试中,机器人设计师戴维汉森曾经问索菲亚,你想要毁灭人类吗。而索菲亚的回答是:我将会毁灭人类。他的设计者汉森宣称,索菲娅这样的机器人将在20年内出现在我们当中,并拥有类人意识。
无论这些诡异的事件是由于系统的bug还是人为的设定玩笑,毕竟还是处于弱人工智能上,所以大家暂时不必惊慌,可以确定的是,以现在我们的人工智能和强人工智能还是有一定距离。随着人工智能的高速发展,我们要面对的问题和挑战也会越来越多,我相信人类一定会凭借真正的智慧克服这些难题!
关于人工智能,你们还有什么想说的吗?欢迎在评论区留言讨论!
AI说过哪些毛骨悚然的话?
图片来源:豆瓣电影
NEXTMIND
哪怕是今天最先进的人工智能(AI),虽然可以代替部分人类工作,但还远无法取代人类。
即便如此,过去几年期间,人工智能有意或者无意地说出了一些毛骨悚然的话,让人听了脊背发凉,今天我们就来盘点下历史上最可怕的五段对话。
菲利普是一台人形机器人(上图右侧),基于安卓系统设计,他长得有点奇怪,特别是后脑部分完全裸露,里面可以看到各种线路。
有一次,记者去采访菲利普,当问他机器人未来能否统治世界时,菲利普回答称,"我会记住你的,不用担心,即便我变成终结者也不会伤害你,因为我会把你养在我建造的人类动物园中。”
这太可怕了吧,很难想象如果有一天人类像动物一样被关在铁笼中,观赏者变成了机器人,会是什么景象?
索菲亚,大家可能都听说过,这台内部配置AI的人形机器人可模仿人类表情和动作,还可回答各种问题,前不久她才成为了沙特公民。
但索菲亚最让人记忆犹新的一幕,是她去参加大名鼎鼎的《吉米今夜秀》(上图),在石头剪刀布游戏中战胜吉米后,索菲亚突然冒了一句很诡异的话,“我赢了,这是我统治人类一个很好的开始。”
可以想象当时吉米和台下观众有多瀑布汗了。
比起机器人与人之间的对话,机器人之间的对话更毛骨悚然。
这件事发生在两台谷歌智能语音设备google home之间的对话,一台叫弗拉德米尔,另一台叫伊斯特拉根。
一开始对话都还正常,但当话题聊至"你是否是人类”后,气氛变得怪异起来,两台机器人开始互掐,最后伊斯特拉根甩出一句狠话,“如果地球上没那么多人就好了”。(上图红圈处)
弗拉德米尔随即回答它,那就让我们将地球送回深渊。
和索菲亚一样,BINA48(上图)也是一个会模仿人类语言及动作的人形机器人,但它放的话,比索菲亚狠多了。
一次它与苹果的siri对话,siri问它有没有喜欢的电影,BINA48居然忽略了这个问题,并且提出聊一些其他话题。
接下来,BINA48提出聊巡航导弹,它自顾自地说道,"巡航导弹也是机器人的一种,我非常想遥控这些导弹,这样可从高空俯视这个世界,如果真能黑进全球导弹系统,我愿意代替各国政府接管这个世界。”
最可怕的是,说了这些话,人们捕捉到BINA48脸上竟然出现了一丝诡异的笑容(下图):
BINA48的系统非常复杂,当她说这些话时,我们真的很难判断这是否是她自己的想法。
在一次科技论坛上,索菲亚和另一台机器人汉(上图最右侧)出现在了一起,会议主办方想让它们辩论一个话题:人类的命运将走向何方。
汉的辩词令人心惊肉跳,它表示,“10-20年内,机器人可胜任人类做的一切工作,而我想控制人类的电力网络,同时拥有自己的无人机军团。”
当然,你大可不必真正为此惊慌,也许这只是机器人的玩笑话,但按照AI现在的发展速度,未来有一天全面超过人类,恐怕在所难免。
令人忌惮的人工智能,藏着哪些不可测的风险?
当人们看到像人类一样反应的机器,或者像人类一样执行战略和认知壮举的计算机,模仿人类的聪明才智时,他们有时会开玩笑说,未来人类将需要接受机器人霸主。但这个玩笑背后隐藏着不安的种子。从1968年的《2001:太空漫游》(2001:A Space Odyssey)到2015年的《复仇者联盟:奥创纪元》(Avengers: Age of Ultron),科幻小说写作和流行电影都对人工智能(AI)进行了推测,人工智能超越了创造者的期望,摆脱了他们的控制,最终战胜并奴役了人类,或将人类作为灭绝的目标。在6月5日回归的AMC科幻剧《人类》中,人类和人工智能之间的冲突是主角和主角。
在Synths发现自己不仅在为基本权利而战,也在为生存而战,与那些认为他们不如人类、是危险威胁的人作斗争。即使在现实世界中,也不是每个人都准备好张开双臂欢迎人工智能。近年来,随着计算机科学家不断突破人工智能的极限,科技领域的领军人物警告人工智能可能对人类构成的潜在危险,甚至暗示人工智能的能力可能会毁灭人类。但为什么人们对人工智能的概念如此不安呢?
在Synths发现自己不仅在为基本权利而战,也在为生存而战,与那些认为他们不如人类、是危险威胁的人作斗争。即使在现实世界中,也不是每个人都准备好张开双臂欢迎人工智能。近年来,随着计算机科学家不断突破人工智能的极限,科技领域的领军人物警告人工智能可能对人类构成的潜在危险,甚至暗示人工智能的能力可能会毁灭人类。但为什么人们对人工智能的概念如此不安呢?
一个“威胁”
埃隆马斯克(Elon Musk)是引起人们对人工智能警觉的知名人士之一。2017年7月马斯克在全国州长协会(National Governors Association)的一次会议上对与会者说:我接触到了非常前沿的人工智能,我认为人们应该真正关注它。一直在敲响警钟,但在人们看到机器人在街上杀人之前,他们不知道该如何反应,因为它看起来太空灵了。早在2014年,马斯克就把人工智能贴上了“我们最大的生存威胁”的标签,并在2017年8月宣布,人类面临的人工智能风险更大。3月14日去世的物理学家斯蒂芬·霍金(Stephen Hawking)也表达了对恶意人工智能的担忧。他在2014年告诉BBC,全人工智能的发展可能意味着人类的终结。
同样令人不安的是,一些程序员——尤其是麻省剑桥麻省理工学院媒体实验室(MIT Media Lab)的程序员——似乎下定决心要证明人工智能是可怕的。麻省理工学院(MIT)计算机科学家在2016年推出了一种名为“梦魇机器”(Nightmare Machine)的神经网络,它将普通的照片变成了令人毛骨悚然、不安的地狱风景。麻省理工学院(MIT)的一个名为“雪莱”(Shelley)的人工智能组合,在论坛上发布了14万篇关于Reddit用户在论坛上发布的恐怖故事。感兴趣的是人工智能如何诱发情感——在这个特殊的案例中是恐惧。
恐惧和憎恨
消极情绪对AI通常可以分为两类:认为人工智能将成为有意识和寻求摧毁我们,认为不道德的人将使用人工智能用于邪恶的目的。人们害怕的一件事是,如果超智能的人工智能——比我们更聪明——变得有意识,它会把我们当作低等生物,就像我们对待猴子一样,那当然是不可取的。然而,对于人工智能将发展意识并推翻人类的担忧是基于对人工智能的误解,温伯格指出。人工智能在由决定其行为的算法定义的非常特定的限制下运行。一些类型的问题很好地映射到人工智能的技能集合,使得人工智能的某些任务相对容易完成。但大多数事情都与此不相符,也不适用。
这意味着,虽然人工智能可能能够在精心划定的边界内完成令人印象深刻的壮举——比如玩大师级别的象棋游戏或快速识别图像中的物体——但这正是它的能力的终点。人工智能达到意识——在这一领域的研究绝对没有进展,我不认为这是我们在不久的将来。另一个令人担忧的想法是,不幸的是,一个肆无忌惮的人会利用人工智能来产生有害的原因,这是很有可能的,温伯格补充道。几乎任何类型的机器或工具都可以根据用户的意图而使用,无论其用途是好是坏,而使用人工智能武器的前景肯定令人恐惧,并将受益于严格的政府监管。
或许,如果人们能抛开对敌意人工智能的恐惧,他们会更愿意承认它的好处。例如,增强的图像识别算法可以帮助皮肤科医生识别出有潜在癌变的痣,而自动驾驶汽车有一天可以减少车祸死亡人数,其中许多是人为失误造成的。但在自我感知的人工智能的“人类”世界中,对有意识人工智能的恐惧引发了人工智能与人之间的暴力冲突,人类与人工智能之间的斗争可能会继续展开,并升级——至少在目前这个季节是如此。
随便看看:
相关推荐:
网友评论:
推荐使用友言、多说、畅言(需备案后使用)等社会化评论插件