AI四类技术风险惊人 全球再拉警报(图)

发表:2023-06-30 22:06
手机版 正体 打赏 0个留言 打印 特大

AI
AI的飞跃式发展令我们感到世界并“不正常”。(图片来源: Adobe stock)

【看中国2023年6月30日讯】(看中国记者程帆编译综合报导)人工智能(AI)“不可思议”的发展速度,令科技专家、亿万富翁和普通人都表示担心,其未来可能将失控并给人类带来毁灭性灾难。

近日,美国非营利组织人工智能安全中心(CAIS)发表了一篇关于“灭绝式AI风险”的文章并指出,历史的前进并非一成不变,今天出现了一种前所未有的AI革命“加速发展”模式。这种飞跃式速度令我们感到世界并“不正常”。

CAIS主任亨德里克斯(Dan hendricks)进一步表述,如果能安全开发和监管AI技术,它将造福世界。然而与AI巨大的进步相比,人类尚未解决诸多的基本安全问题。他将这种“强大技术”的风险划分为4个类别,即恶意使用、武器化、欺骗性AI和组织风险。

例如,AI模型很容易会被不法份子训练用于恶意目的,制造生物武器。根据最新研究,用现有人工智能技术进行的试验,仅在6小时内就识别出了4万种此类生物武器化学物质。

这就意味着,尽管它在发现并改善健康的化学组合和药物化合物方面具有强大能力,而且比人类快很多,但也可以用来制造潜在的致命物质。

此外,AI自动化网络攻击甚至可以控制核发射井。根据CAIS的研究,如果一个国家投资在武器化AI系统,这个国家的军备可能会迅速升级,并引发一场“大规模战争”。那么,其他国家也就会更有动力这样做。

亨德里克斯表示,人工智能不应该被用于军备竞赛。他打比方称,“想像一群人站在薄冰覆盖的海面上。当他们远眺看到了对面遥远海岸的金银财宝,有些人可能会想冲刺。但他们必须冒着破冰、跳到冰冷海水的风险。在这种情况下,即使是最自私的人也应该谨慎行事。”

不仅如此,研究人员还写道,“AI可能会将某些隐秘信息意外泄露给公众或被恶意行为者窃取。”因为有些机构可能没办法投资于安全研究、缺乏对人工智能安全性的了解,或者阻止风险的发生。

他们将人工智能潜在的组织泄漏与历史上的灾难进行了比较,例如切尔诺贝利、三哩岛和挑战者号航天飞机致命事故等。

除此之外,人们还可以通过AI行骗,来获得社会的普遍认可。亨德里克斯引用了大众汽车的例子,该公司曾声称自己的汽车是低碳排放、高性能。可实际上,他们在车里设计了一项编程功能,该功能可以使发动机只在被监控时减少排放。

CAIS呼吁专门建立AI研究领域,推动制定安全标准,来预防可能给社会带来的大规模灾难。

对于该机构的声明,英国现任首相苏纳克首先在个人社交平台上转发并表示,英国政府正在非常仔细地研究这一问题。他还透露,已经向各大企业重申了“设置防护”措施的必要性,以确保AI开发可靠。

据路透社的报导,欧盟委员会副主席乔罗娃(Vera Jourova)本月初公开提出,对抗虚假信息。她要求谷歌、微软、Meta、TikTok等几十家科企,检测文本、图片及视频,并明显标记所有AI生成的内容。

来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意