首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|低空经济|智能汽车|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片|报告|智慧城市|移动互联网|会展
首页 >> 人工智能 >> 正文

博鳌声音 |AI 时代最大安全漏洞是认知漏洞

2025年3月31日 07:20  第一财经  

从生成式AI走向智能体,从预训练走向推理,从信息智能走向物理智能和生物智能,AI技术在迅速迭代的同时也带来了更多的安全和治理问题。

在博鳌亚洲论坛2025年年会上,与会专家围绕技术应用与风险平衡、伦理规范、国际合作等方向展开了深度讨论。有观点认为,过度严格的治理措施可能会抑制创新,使企业和研究机构在开发AI技术时受到过多限制,影响技术的发展速度和应用效果。但也有专家认为,如果只注重创新而忽视治理,可能导致更大的技术失控。

“比起‘黑天鹅’事件,我们更要避免‘灰犀牛’事件的发生。”博鳌期间,一位参会代表对第一财经记者表示,黑天鹅事件,因其难以预料只能尽力应对,但灰犀牛事件不同,大家清楚存在的风险,所以应该竭尽全力将灰犀牛事件发生及爆发的可能性降至最低,此时共建一个透明、可理解、可信的、负责任的AI生态尤为重要。

AI中的认知漏洞

“AI时代最大的安全漏洞是认知漏洞,如何平衡治理与创新,如何在全社会形成共识,是比技术更根本的挑战。”vivo首席安全官鲁京辉在博鳌期间对记者表示,AI时代的安全已从“Security”转向“Safety”,不仅要防攻击,更要考虑伦理影响和社会系统性风险,如虚假内容、深度伪造、恶意引导等新型威胁。

在他看来,当前,业界正从技术、管理、伦理等维度,努力让基于大模型的通用人工智能变得更具可解释性。然而这一工作极为复杂,原因在于技术持续演进变化巨大,而这些变化背后潜藏着诸多不确定的风险因素。

“尽管我们有将风险置于可控框架内运作的大致概念,但挑战在于它不仅涉及技术层面,更关键的是认知层面的问题。这需要全社会共同参与,包括人工智能及生成式人工智能的研究者、开发者、政策制定者,乃至最终用户大家必须形成共识,只有通过这种共识机制,才能切实保障人工智能系统健康、透明、负责任地发展。”鲁京辉对记者说。

在博鳌的一场分论坛中,中国科学院自动化研究所研究员曾毅也谈到了类似观点。他表示,AI的伦理安全应该成为技术发展的基因,确保其与人类价值观保持一致。他建议,将伦理安全融入AI开发的底层设计,并视为“第一性原则”,不可删除、不可违背。

“有责任地发展人工智能,意味着人类开发者和部署者需要承担责任。飞机、高铁都能无人驾驶,但驾驶员仍在岗位。人工智能高速发展,但人类始终应该做自己和AI的守护者。”曾毅对记者表示,智能体的安全问题,一定要让决策权力掌握在人类手中。

在中国工程院院士、清华大学智能产业研究院院长张亚勤看来,就可能存在的风险而言,设定AI技术红线与边界是关键。

“AI风险可以分解为可信度与可控性两个层面。前者要求AI在执行任务时遵循人类期望、伦理规范和国家法律,不产生误导性、有害或不公平的结果,后者则确保人类能有效监控、干预和纠正AI行为,避免失控或不可预测的后果。”张亚勤说。

值得一提的是,为了规范人工智能生成合成内容标识,今年3月14日,国家网信办、工信部、公安部、国家广电总局联合发布《人工智能生成合成内容标识办法》,要求对生成合成内容添加显式标识,并规范生成合成内容传播活动,自9月1日起施行。

藏在“冰山下”的风险

如何做到应用与治理的平衡推进,让数据不再裸奔?目前产业、学界、监管各方仍有不同的答案。不过对于与会嘉宾来说,多方协作、动态治理、伦理优先、技术透明是共识所在。

但在产业实践之中,各行各业所面临的AI问题并不相同。以手机行业为例,伴随AI智能体“接管”手机屏幕,数据安全和隐私保护问题正变得更加复杂。

“比如,AI智能体打破了原有操作系统技术架构,产生了新交互方式和行为,这涉及到权限管理和数据流转的根本性变革,需要重新定义技术基线。”鲁京辉对记者表示,作为商业企业,既会重视技术的商业价值,但也会坚守底线与红线思维,投入资源从内部多维度构建AI安全治理体系的同时,也对外参与行业标准制定,通过行业联盟达成AI治理的效果。

在他看来,手机厂商在AI治理与安全方面,从实施层面有两个维度,分别是数据生命周期和业务生命周期。在数据生命周期,要保证数据高质量,防止低质量或恶意数据污染大模型,确保数据安全。而从业务生命周期,大模型本身要考虑算法安全性,防范训练中的恶意攻击,部署时兼顾传统与AI业务防护手段,干预大模型不可解释性及AI幻觉问题。

“其实核心的底线就是要做好数据安全和隐私保护,但是坦白说,这个保护是冰山下的,很多是看不到的,风险来自于外部环境的变化,我们尽量把灰犀牛的事件发生可能性降到最低,内部组织上也会设立专门的攻防团队来在各个业务部门做部署。”鲁京辉说。

不过,正因为智能体的广泛运用,这种“未知的、藏在冰山下”的AI风险在张亚勤看来正在快速提升。

“风险至少上升一倍。”张亚勤认为,智能体具有自我规划、学习、试点并达到自己目的的能力,是强大的技术工具,但在其运行过程中,里面有很多未知的因素,中间路径不可控。智能算法并不完全是黑盒子,但是很多东西并不清楚机理,所以带来很大风险。一种是可控风险,一种是被坏人所利用的风险。因此,使用智能体的时候需要做一些标准,比如限制智能体自我复制,以降低失控风险。

针对通过制定标准能否解决人工智能的安全性问题,鲁京辉表示,安全性问题不能简单地通过制定法律或规则解决,全球对“安全性”定义也尚未统一。

“欧洲重合规,美国重发展,中国求平衡,到底哪一种是标准答案,还需要实践来证明。”在他看来,安全没有标准答案,但企业必须有标准动作,企业需要一种更动态的、更敏捷地平衡于发展和安全之间的新的治理模式,既不做保守的防守者,也不做野蛮的开拓者。

编 辑:高靖宇
飞象网版权及免责声明:
1.本网刊载内容,凡注明来源为“飞象网”和“飞象原创”皆属飞象网版权所有,未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载,请必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和飞象网来源。
2.凡注明“来源:XXXX”的作品,均转载自其它媒体,在于传播更多行业信息,并不代表本网赞同其观点和对其真实性负责。
3.如因作品内容、版权和其它问题,请在相关作品刊发之日起30日内与本网联系,我们将第一时间予以处理。
本站联系电话为86-010-87765777,邮件后缀为cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
中兴通讯董事长李自学:算力筑基、 AI 启智,共迎数智化新纪元
精彩专题
3·15权益日 | 共筑满意消费 守护信息通信安全防线
聚焦2025全国两会
2025年世界移动通信大会
低空经济2025:助力中国经济腾飞,成就高质量发展
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像