为“评估测试最有能力的 AI 模型”,微软联合 OpenAI、谷歌等公司设立 1000 万美元安全基金

10 月 26 日消息,据 OpenAI 官网新闻稿,目前微软联合 OpenAI、谷歌、Anthropic 公司发布联合声明,设立 1000 万美元(备注:当前约 7320 万元人民币)的 AI 安全基金,主要用于推动 AI 评估研究,帮助社会能够有效地测试和评估“最有能力的 AI 模型”

▲ 图源 OpenAI

从公告中得知,这一 AI 安全基金将支持来自世界各地附属于学术机构、研究机构和初创公司的研究人员。初始资金来自 Anthropic、谷歌、微软和 OpenAI,以及其他慈善合作伙伴。

这项安全基金旨在支持外界开发新的模型评估技术, “我们相信,增加该领域的资金将有助于提高安全标准,并为行业、相关部门和民间社会应对 AI 系统带来的挑战所需的缓解和控制提供见解。 ”

外媒 TechCrunch 表示,1000 万美元不算小数目,但在 AI 安全研究的背景下这一数目就 “显得相当保守了”。仅今年一年,Anthropic 就从亚马逊筹集了数十亿美元,用于开发下一代 AI 助手。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注