1. 首页 > 币圈资讯  > 2024年全球AI发展有哪些值得关注的趋势?

2024年全球AI发展有哪些值得关注的趋势?

广告 X
OK欧意app

欧意最新版本

欧意最新版本app是一款安全、稳定、可靠的数字货币交易平台。

APP下载  官网地址

预测总是很难的,尤其是在像人工智能这样发展迅速的行业。不过,在新的一年到来之际,我们不妨回顾一下人工智能在过去12个月中取得的进步,以及2024年的发展前景。

2023年无疑是人工智能的里程碑之年,但恐惧和猜测往往占据着头条新闻。

01.人工智能“末日论”

2023年见证了人工智能末日论者的崛起,Eliezer Yudkowsky等网络评论家因警告人工智能会给人类带来生存风险而声名鹊起。

科技行业的领袖们发表了一封备受瞩目的公开信,让这种悲观氛围更加浓重。公开信呼吁将最强大的人工智能研究暂停6个月,以便专家们能够评估风险并制定安全协议。

不管这些建议有什么好处,但让人工智能在短时间内踩刹车是不太可能的。即使在政治上能够阻止人工智能的发展,但这样做也不失为一种战略失误。

另外,即使是那些积极呼吁暂停的人好像也并不重视这一想法。签署这封信的人,比如埃隆·马斯克(Elon Musk),仍在不顾一切地推进自己的人工智能模型。马斯克的xAI公司开发的人工智能聊天机器人Grok就是最新的例子。

围绕末日论的气氛在很大程度上是由“有效利他主义”(EA)运动推动的,该运动在2023年获得了公众的广泛关注。然而,尽管该运动资金雄厚,在权力机构中的影响力也不断上升,但这几年它的日子并不好过。

OpenAI的CEO奥特曼被EA附属公司董事会解雇和重新聘用的无能行为,以及EA与Crypto诈骗犯Sam Bankman-Fried的密切关系,都表明该运动并不总是像宣传的那样有效或利他。

也就是说,末日论的兴衰并不取决于它与可疑的伪哲学之间的联系。毫无疑问,许多人工智能风险是真实存在的,无论如何都应该认真对待。尤其是人工智能对国家安全的影响可能是最令人担忧的领域。

人工智能将促成针对关键基础设施的新型网络战,还可能促使危险的生物和化学武器研发。此外,人工智能还将通过先进的宣传和深度造假,把信息战推向新的前沿。

换句话说,随着生物识别技术开始渗透到日常生活中,曾经是好莱坞幻想的问题正在迅速变成现实。人脸识别技术已经在机场开始普及,人工智能普遍用于执法部门,或许预示着大规模监控国家的到来

Netflix世界末日新片《断讯》描述了在全国性的神秘破坏技术面前社会的瓦解。艺术在模仿生活,生活又何尝不是艺术。

02.争议不断

未来一年的一个关键战场将是开放和封闭人工智能系统之间的较量

具有讽刺意味的是,OpenAI及其衍生产品Anthropic现在代表着封闭的黑盒模型,而Meta等公司则拥抱开放。监管将严重影响不透明的系统(如ChatGPT)或透明的系统(如Meta的LLaMa)最终盛行。

欧盟即将出台的《人工智能法案》暴露了政策制定者在平衡监管与创新之间所面临的取舍。过度监管可能会巩固硅谷科技巨头的地位,但同时也伤害了初创企业和开源竞争者。

欧洲要想在人工智能领域实现自我创新,就必须培育一个竞争激烈的市场,让法国Mistral AI公司这样的后起之秀能够茁壮成长。相反,欧盟的相关立法也可能让这些有前途的公司消失。

至于美国,总统拜登最近关于人工智能的行政命令,大多推迟具体细节,但已制定的法规将于2024年实施,这肯定会动摇美国的人工智能政策格局。

围绕一些问题(如偏见和歧视)的辩论可能会沿着可预见的党派路线展开,但围绕版权和知识产权的棘手问题更为复杂。

《纽约时报》对OpenAI及其合作伙伴微软提起了首个版权诉讼,这可能是一个具有开创性的案件

该诉讼是关于使用该报纸的文章来训练人工智能算法,《纽约时报》认为这侵犯了版权。预计在这个问题得到解决之前,将会有一年的时间进行激烈的法律和监管角力。

另一个争议将围绕该行业日益增长的能源使用量而产生,因为人工智能模型需要庞大的数据中心为其提供动力,而这些数据中心需要消耗大量电力。

关于人工智能能源使用的争论很可能与围绕Crypto资产mining造成的环境损失的争论密切相关。随着对“计算”的竞争达到新的高度,这个问题的分歧只会越来越大。

03.未来展望

尽管存在这些争议,但2024年仍将有望成为理性和细致重新占据人工智能政策中心位置的一年

美国和欧洲仍然可以制定审慎的治理战略,在保护自由的同时确保人工智能的好处。但要做到这一点,领导人需要将讨论建立在事实和证据之上,而不是毫无根据的情绪之上。

盲目的乐观和严重的悲观都会阻碍深思熟虑的解决方案。风险是巨大的,但可能性也是惊人的。2024年有望成为社会应对人工智能这把双刃剑的关键一年。

原文由James Broughel撰写,中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。