签名支持全球管控,AI 三巨头侧漏「求生欲」

Foresight · 2023-06-01 11:10

Similarweb

LinkedIn

Alongside

OpenAI、谷歌 DeepMind 和 Anthropic 的 CEO 都签了名。 


撰文:凯蒂

 

又一封「群星云集」警示 AI 风险的公开信来了,这封信的内容简短但措辞炸裂:减轻 AI 带来的灭绝风险,应该与管控流行病和核战争等其他社会级规模的风险一样,成为一项全球优先事项。

 

5 月 30 日,这纸原文只有 22 个单词的声明,出现在美国非营利组织「人工智能安全中心(Center for AI Safety)」的官网上,超过 350 名 AI 领域的企业界和学界名流为之签名。

 

与 2 个半月前「生命未来研究所」发出的、上千名人签名呼吁「暂停训练大模型 6 个月」的那封公开信相比,最令人瞩目的是,这次,OpenAI、谷歌 DeepMind 和 Anthropic 的 CEO 都签了名。

 

值得注意的是,在签署「22 字声明」前,OpenAI、谷歌、Anthropic 三家公司的负责人都出席了 5 月 4 日白宫发起的 AI 风险治理会议。面对风险管理,AI 三巨头近段时间显得比政府还着急。

 

最近,这三家公司 CEO 频繁地与欧洲多国首脑会晤,试图影响正在推进中的欧盟《人工智能法案》,这项法案很可能影响 OpenAI 等公司的生成式大模型进入欧洲市场,而那里是流量新神话缔造者 OpenAI 都暂未拿下的「处女地」。

 

求管控 AI 风险的背后,是 AI 公司们满满的市场「求生欲」。

 

三巨头留名最新 AI 风险声明

 

「Mitigating the risk of extinction from AIshould be a global priority alongside other societal-scale risks such aspandemics and nuclear war.」

 

22 个单词组成了一纸《人工智能风险声明》,将 AI 带来的风险直接以「灭绝(extinction)」措辞,严重程度堪比「流行病(pandemics)」和「核战争(nuclear war)」,管控紧迫度被表述为「应该成为全球优先事项」。

 

5 月 30 日,在非营利组织「人工智能安全中心(Center for AI Safety)」官网晒出的这纸声明下,有包括科学家、企业领导人在内的 350 多人签了自己的名字。

 

AI 三巨头的 CEO 的名字出现在名单中

 

「我们必须让这个问题上公开化,因为许多人只在彼此之间默默地交谈。」人工智能安全中心的执行主任丹·亨德里克斯(Dan Hendrycks)在谈到声明的目的时表示,一句话声明的简明扼要是特意为之,目的是让更多的科学家建立「广泛联盟」,因为一些科学家可能还没有就 AI 有哪些风险以及预防风险的最佳解决方案达成一致。

 

350 个签名中,打头的两位是图灵奖得主杰弗里·辛顿 (Geoffrey Hinton) 和约书亚·本希奥(Youshua Bengio),紧跟着出现了戴米斯·哈萨比斯(Demis Hassabis)、山姆·奥特曼(Sam Altman)和达里奥·阿莫迪(Dario Amodei)三位,他们分别为谷歌 DeepMind、OpenAI 和 Anthropic 三家全球知名人工智能开发公司的 CEO。

 

一些中国知名学者也签了名,如清华大学智能产业研究院院长张亚勤、中科院自动化研究所的曾毅教授、清华智能产业研究院的副教授詹仙园。

 

如果把「用知识服务人类」视作知识分子的社会责任,专家、学者的签名很好理解,被誉为「AI 教父」的辛顿今年 4 月从谷歌辞职,此后一直在公开场域表达对人工智能失控的担忧;本希奥曾在今年 3 月非营利组织「未来生命研究所(Future of Life Institute)」发表的那一封「暂停巨型 AI 实验」公开信上签过字。

 

但在 2 个月前的那封信上,谷歌 DeepMind、OpenAI 和 Anthropic 这三家公司的负责人并没有签名,相比这次的「22 字声明」,那封信还详细阐述了 AI 可能带来的各种具体风险,甚至给出了明确的风险管理原则,至今已积累收集到 31810 个签名。

 

上次那封信引发的 AI 圈内的明显分歧是:到底应不应该为了风险而暂停 AI 实验。

 

当时,人工智能领域的学者吴恩达当时在 LinkedIn 上表示,全面暂停 AI 训练 6 个月的想法是一个糟糕、不切实际的想法。后来,OpenAI CEO 山姆·奥特曼 SamAltman 更直观地表达了暂停的无意义,「我们暂停 6 个月,然后呢?我们再暂停 6 个月?」

 

但这次,AI 企业三巨头领导者带头签了这个风险阐述模糊但措辞严峻的「22 字声明」从他们表态对声明的认同中,透露出管控 AI 风险的紧迫性。

 

短短的两个月半内,是什么致使 AI 公司们都转变了态度?

 

OpenAI 访问量增速放缓

 

现在,人类即便没有被 AI 灭绝,但生成式 AI 在作恶者的驱使下露出了「黑暗面」。

 

比如,AI 的仿声仿貌功能正在被用作诈骗工具,AI 生成图片、文字的能力不仅被用来造假新闻,造出的「黄谣」直接伤害到普通个体的声誉。

 

相比生成式 AI 对常识「胡说八道」、会陷入逻辑陷阱、解数学题不太行、数据隐私安全等缺陷,受害案例显示出的 AI 破坏力更具体、更直观地呈现在公众眼前。对 AI 开发公司来说,最直接的影响是那些刚刚开放 AI 应用给公众的开发公司,还能在负面舆论中的获得多少增量市场?

 

以访问量规模增长最快的、提供文本生成应用 ChatGPT 的 OpenAI 为例,其网页访问量从去年秋季的每月约 2000 万次增长到 2023 年 4 月的 18 亿次,刷新了互联网流量增长神话。但从网络分析公司 SimilarWeb 收集的数据看,OpenAI 的网页访问量增速在放缓。

 

OpenAI 的网页访问量增速放缓

 

OpenAI 网页的流量贡献主要来自于美国本土,份额能占到 10.25%,其次是印度(8.82%)、日本(7.48%)、印尼(3.84%)、加拿大(3.06%),每月的增量也来自这些国家,其中从日本获得访问增量最多,打到 28.86%。而俄罗斯、中国及欧洲各国基本没有为之贡献明面的流量,这些国家和地区的网民访问 OpenAI 是受限的。

 

OpenAI 自己切断了这些市场,最大的原因是各国对互联网的管理政策不一。相比俄罗斯和中国,欧洲似乎是更令人工智能公司们渴望的市场,然而,欧盟已经明确了针对人工智能立法。

 

此后,OpenAI、DeepMind、Anthropic 三家公司的 CEO 都出现在欧洲。

 

 三位 CEO 在欧盟立法前齐现欧洲

 

4 月 27 日,欧洲议会成员已经就《人工智能法案(Artificial Intelligence Act)》提案达成临时政治协议。5 月 11 日,欧洲议会两个委员会通过了对《人工智能法案》(以下简称《法案》)提案的谈判授权草案。这一草案将于 6 月 12 日到 15 日提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。

 

《法案》的立法者根据风险级别对不同的人工智能工具进行分类,从最低到有限、高和不可接受。使用这些工具的政府机构和企业将根据风险级别承担不同的义务。《法案》还将严格禁止「对人类安全造成不可接受风险的人工智能系统」,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。

 

如果《法案》顺利颁布,这将是人类历史上首部针对人工智能的法律。由于《法案》适用于在欧盟区内运行的所有人工智能系统,领导 AI 技术的美国企业如若想到打入欧洲市场,显然将会受到制约。

 

比如,《法案》要求,开发生成式 AI 工具的公司必须披露他们是否在系统中使用了受版权保护的材料。对于用各种来源的海量数据训练大模型的 AI 公司而言,这个要求将直接把他们拦在欧洲之外。

 

OpenAI、DeepMind、Anthropic 都开始关注欧洲动向。

 

5 月下旬,OpenAI CEO 山姆·奥特曼多次前往欧洲,分别与西班牙、波兰、法国和英国的政府首脑进行了会谈,讨论人工智能的发展潜力、威胁以及监管等问题。DeepMind 的 CEO 德米斯·哈萨比斯、Anthropic 的 CEO 达里奥·阿莫迪也与英国首相苏纳克会过面。

 

英国首相苏纳克会见 AI 三巨头的 CEO

 

与欧洲各国首脑交流,AI 科技公司们试图以此影响《法案》进程。不止如此,山姆·奥特曼还用演讲、采访等各种方式面向欧洲大众发声,希望「民意」与他们站在一起。

 

在伦敦大学学院的演讲中,奥特曼坚持着他的观点:人们对 AI 的种种担心有道理,但 AI 的潜在好处要大得多。谈到 AI 监管,奥特曼表示 OpenAI 欢迎监管,但需要「正确的监管方式」,因为「过度监管可能会损害小公司和开源运动」。

 

5 月 25 日,奥特曼对英国媒体表达他对《法案》的看法,「很多措辞是不恰当的,」他认为,目前的欧盟 AI 法案草案将会造成过度监管的情况,「但我们听说它将调整,他们还在谈论这件事。」

 

距离《法案》的最终表决还有不到半个月时间,奥特曼的「游说之旅」还在继续。公开消息显示,奥特曼接下来会与欧盟产业主管埃里·布雷顿(Thierry Breton)会面,讨论欧盟应如何实施在人工智能方面全球领先的规则。

 

一系列的欧洲行之后,AI 三巨头的三位 CEO 在「22 字声明」下签字,认同声明中所述的全球优先管控 AI 风险之论。姿态背后是 AI 公司们试图在管控下扩大市场的「求生欲」。

免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代表Bi123的观点或立场

相关推荐

上一篇:Bankless:Terra 崩溃后 1 年稳定币的状况

下一篇:速览 LSD 协议 Swell 数据表现

扫码下载APP添加官方微信
行情机会交流