首页|必读|视频|专访|运营|制造|监管|大数据|物联网|量子|元宇宙|博客|特约记者
手机|互联网|IT|5G|光通信|人工智能|云计算|芯片报告|智慧城市|移动互联网|会展
首页 >> 人工智能 >> 正文

AI教父:人工智能可能会重写自己的代码来“逃脱控制”

2023年10月12日 07:37  财联社  

财联社

在业内有“人工智能教父”之称的计算机科学家杰弗里·辛顿(Geoffrey Hinton)表示,如果人类不小心的话,人工智能“可能会接管一切”。

现年75岁的辛顿近日在接受媒体采访时表示,快速发展的人工智能技术可能在“五年内”获得比人类更聪明的能力。他补充说,如果这种情况发生,人工智能可能会进化到人类无法控制的程度。

辛顿指出,人工智能系统可能逃脱控制的方法之一是自己编写“自己的计算机代码”,这是我们需要认真担心的事情。

辛顿的工作被认为对当代人工智能系统的发展至关重要。1986年,他与人合著了一篇开创性的论文《通过反向传播误差来学习表征》,这是人工智能技术基础神经网络发展的一个里程碑。2018年,他被授予图灵奖,以表彰他的研究突破。

今年4月,在谷歌工作了10年之后,辛顿辞去了副总裁兼工程研究员的职位,这样他就可以自由地谈论人工智能带来的风险。在离职后,辛顿声称对自己在开发人工智能这项技术中的角色感到遗憾。

他特别强调,人类,包括像他这样构建人工智能系统的顶尖科学家,仍然没有完全理解这项技术是如何工作和发展的。

许多人工智能研究人员也坦率地承认对此缺乏理解。今年4月份,谷歌首席执行官桑达尔·皮查伊将其称为人工智能的“黑匣子”问题。

正如辛顿所描述的那样,科学家为人工智能系统设计算法,从“数据集”中提取信息,比如互联网。他说:“当这种学习算法与数据产生交互时,它会产生擅长做某些事情的复杂神经网络。但说实话,我们并不真正了解它们是如何做到这些的。”

皮查伊和其他人工智能专家似乎并不像辛顿那样担心机器失控的问题。另一位图灵奖得主Yann LeCun称,任何有关人工智能可能取代人类的警告都是“荒谬可笑的”,因为人类总是可以阻止任何变得过于危险的技术。

但辛顿认为,最坏的情况并不确定,医疗保健等行业已经从人工智能中受益匪浅。

此外,人工智能制造的错误信息、假照片和视频在网上广泛传播。他呼吁进行更多的研究来了解人工智能,政府应该出台法规来控制这项技术,并在全球范围内禁止人工智能军用机器人(12.530, 0.10, 0.80%)。

在上个月,美国科技大佬齐聚国会山,参加了由参议院多数党领袖舒默举办的人工智能峰会,商讨未来人工智能的监管方式。尽管科技巨头呼吁美国国会通过立法加强对人工智能的监管,但在如何进行监管上,各科技公司仍然存在分歧。

辛顿指出,无论人工智能护栏是由科技公司,还是在美国联邦政府的强制要求下实施的,都需要尽快出台相关的监管措施。

他认为,人类可能正处于“某种转折点”,接下来会发生什么存在巨大的不确定性。并补充说,科技圈和政府领导人必须决定“是否进一步发展这些东西,以及如果他们这样做该如何保护自己。”

编 辑:魏德龄
声明:刊载本文目的在于传播更多行业信息,本站只提供参考并不构成任何投资及应用建议。如网站内容涉及作品版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容。本站联系电话为86-010-87765777,邮件后缀为#cctime.com,冒充本站员工以任何其他联系方式,进行的“内容核实”、“商务联系”等行为,均不能代表本站。本站拥有对此声明的最终解释权。
相关新闻              
 
人物
工信部张云明:大部分国家新划分了中频段6G频谱资源
精彩专题
专题丨“汛”速出动 共筑信息保障堤坝
2023MWC上海世界移动通信大会
中国5G商用四周年
2023年中国国际信息通信展览会
CCTIME推荐
关于我们 | 广告报价 | 联系我们 | 隐私声明 | 本站地图
CCTIME飞象网 CopyRight © 2007-2024 By CCTIME.COM
京ICP备08004280号-1  电信与信息服务业务经营许可证080234号 京公网安备110105000771号
公司名称: 北京飞象互动文化传媒有限公司
未经书面许可,禁止转载、摘编、复制、镜像