打开APP
中外科学家发出AI安全警告:我们正处人工智能“奥本海默时刻”
星球上的科学
2024-10-23 18:19:36

在很多人眼中, AI是一种可以和核武器相提并论的技术,AI也早已经走进我们的生活,成为我们生活的便利助手,但是同样的,关于AI的担忧也同时产生,AI的发展让我们困惑,AI创造出强大的智慧会不会有一天强大到控制人类,那我们会不会陷入生存困境中?

AI被冠上了危险的标签,人工智能专家Max Tegmark提出了 “人工智能的‘奥本海默时刻’”的说法,表示AI技术制造核弹也不再是遥远的事。显然,在很多人看来,AI的概念已经从一项技术变成了具有侵犯性的物种。

AI的威胁

为什么说AI是危险的,一方面,AI的强大力量如果被坏人利用,就会造成十分严重的后果,坏人利用AI技术施行不法之事,会给人们的生命财产安全造成威胁,更会给社会治安管理造成不必要得麻烦。另一方面,AI所谓危险还源自于其本身,AI是一种具有更高智慧更强大能力的存在,因为其功能的完备和丰富,已经可以称之为一个新的物种,一种算得上生命的概念,它拥有比大多数人更高的智慧或者某一项能力,因此它构成人的对手,并且因为其存在使得人类的生存环境发生变化,人类开始在一个新环境中和一个更聪明的新物种共存,而这样的生存状态一向是难以达成和谐的平衡的。

我们无法停止AI技术的继续

但是我们能停止AI技术的发展吗,如果我们截止到这里,那么一切都会被及时的制止,但是,没有一个国家会放弃发展AI,因为没有一个国家会放弃科技的发展,AI是科技能力的象征,是生产力的标识,是创新发展的必由之路,但是关于AI的威胁也是我们必须要考虑的问题,我们要发展AI,我们要发展的是更安全的AI。如何让AI更安全的发展,不追求发展的速度而是追求发展的安全性十分重要,安全的AI意味着更精细更严格的技术监督管理要有计划的发展不能让AI的发展失去控制,否则将会产生十分严重的后果。

正确看待危险,精准施策

发展科技最后的目的一定是为了人类更好的生活,对于AI技术,我们也不能一概而论,仅仅看到其威胁性的一面,AI的发展对于改善人类的生活是有着很大的力量的,但是一定是在正确的方法下,如果一个AI在诞生之初还没有对其性能有一个正确的评估,在运行之后发现不安全是一件十分可怕的事,因为可能十年的时间都无法再弄清楚这个问题,AI的智慧让它有反过来愚弄人类的能力,而接近一半的人会被愚弄,如果人类的智慧被AI压制,那人类就存在有被AI消灭掉的风险,这可能会成为一个更紧迫、更具威胁性的生存危机。

我们一定要有一个概念,一定要有一个解决方法,AI风险等级被区分为0-5级六个等级,通过这个等级区分可以看AI危险程度。三级意味着其感知和认知能力高于人类,四级意味着其具备自我意识,五级意味着其认知超越人类认知,神经结构、智力水平都超出了人类想象。就目前来看,AI技术的发展正在飞速上涨。

AI治理是燃眉之急,方法之一必然是全球合作,人工智能的风险是全球性问题,必须建立国际组织合作治理。其次,销售人工智能必须有规则规范,我国在这方面发挥了首当其冲影响力。最后,AI发展必须制定红线,我国也已经有相关规定,涉及自主复制或改进、权力寻求、协助武器制造、网络安全、欺骗五方面的内容严格禁止。AI治理任重而道远,我们必须坚定我们不能让世界被机器控制,AI只能是帮助我们建设美好世界的工具,并非威胁和武器。#创作挑战赛六期#

免责声明:本文由顶端号作者上传发布,仅代表作者观点,顶端新闻仅提供信息发布平台。如文章内容涉及侵权或其他问题,请30日内与本平台联系,反映情况属实我们将第一时间删除。
热评
暂无评论,去APP抢占沙发吧