新浪科技讯 北京时间10月25日晚间消息,据报道,微软(340.7701, 10.24, 3.10%)、谷歌(126.6, -13.52, -9.65%)、人工智能初创企业OpenAI和Anthropic正加紧推进人工智能(AI)安全标准的制定工作,并于今日任命了一名董事,以期填补全球监管方面的空白。
今年夏天,这四家科技巨头联合成立了新的产业组织“前沿模型论坛”(Frontier Model Forum),致力于安全和负责任地开发AI模型。今日,他们又任命美国智库布鲁金斯学会(Brookings Institution)的人工智能主管Chris Meserole担任该组织的执行董事。
此外,前沿模型论坛还表示,计划向一个人工智能安全基金投资1000万美元。
Meserole对此表示:“我们距离真正的监管可能还有一段路要走。在此期间,我们希望确保这些系统(监管规则)尽可能安全。”
在过去的几个月里,人们越来越担心日益强大的人工智能有可能取代人类工作岗位,创造和传播错误信息,或者最终超过人类智能。
Meserole表示,该论坛将寻求对任何官方法规进行“补充”。据预计,欧盟的人工智能法案将在明年初敲定。与此同时,英国将于下周主办首届全球人工智能安全峰会,各国领导人和主要科技高管将受邀讨论相关的合作。
Meserole还称,论坛最初将重点关注风险,包括人工智能帮助设计生物武器的能力,以及生成可用于促进关键系统黑客攻击的计算机代码的能力。