清华大学张亚勤:大模型应分级监管 一边发展一边治理

首页 > 科技

清华大学张亚勤:大模型应分级监管 一边发展一边治理

来源:宠物养成 发布时间:2024-03-25 22:53

清华大学张亚勤:大模型应分级监管 一边发展一边治理

文/夏宾、王立广

中国发展高层论坛2024年年会3月24日至25日召开,年会主题为“持续发展的中国”。在人工智能发展与治理专题研讨会上,清华大学智能产业研究院院长、中国工程院院士张亚勤总结了当前AI发展趋势,并就风险治理给出看法和建议。

针对现在的AI浪潮,张亚勤总结了大模型发展的六大趋势:

一是多模态、多尺度、跨模态新的智能。

二是架构突破。未来五年内AI架构需要有重大突破,当前的Transformer模型虽然强大,但效率低下,在推理、训练方面需要多个数量级的改善。技术正在发展,未来可能出现新的架构模式。

三是智能边缘化。智能技术正在向边缘设备转移,如智能手机和AI PC等。

四是自主智能。它可以定义任务、规划路径,自我升级、自我编码,做到完全自主,但也会带来风险。

五是走向物理世界。现在的智能大部分是信息式智能,未来大模型将走向物理世界,和无人机、低空经济、机器人等连接起来。

六是生物智能,即大模型与大脑和生物连接。

张亚勤表示,Sora能量很大,但才刚刚开始。未来5年会看到相关技术在各个领域大规模应用,会带来很多风险。一是信息世界的风险,比如错误、虚假的信息。二是大模型里独有的幻觉,当信息智能延伸到物理智能、生物智能,当生物体、脑机接口开始被应用,这时风险会呈规模化。三是大模型连接到经济体系、金融体系后,一旦被坏人所利用,会产生风险。

具体怎样防范人工智能带来的风险?张亚勤提出了五个建议。

一是标识AI产物,将数字人等AI产物打上标识,明确其是AI产生的。

二是建立映射和注册机制。机器人本身是一个从属体,不是主体,必须要映射到主体,即一个公司或一个法定实体。如果机器人犯了错误,一定要能够追溯是哪个人或者机构的责任。

三是建立分级体制。无人驾驶汽车有L0到L5六个等级,大模型也应该有不同分级。对于一般规模的模型监管可以少一点;对于万亿级参数的前沿大模型,尤其应用到物理世界、金融系统、生物系统的,监管要多一些。

四是投入研究经费。我呼吁把10%的经费投入大模型风险研究中去,这个研究不仅是政策研究,还有很多算法、技术的研究。政策制定者、科学家、技术从业者、企业家,都要参与进来,一边发展、一边治理。

五是制定红线。人工智能发展到了大模型,一定不要跨越红线。红线在不同时间可能会不一样,但我们需要这条红线,需要全球一起合作。

清华大学张亚勤:大模型应分级监管 一边发展一边治理

文/夏宾、王立广

中国发展高层论坛2024年年会3月24日至25日召开,年会主题为“持续发展的中国”。在人工智能发展与治理专题研讨会上,清华大学智能产业研究院院长、中国工程院院士张亚勤总结了当前AI发展趋势,并就风险治理给出看法和建议。

针对现在的AI浪潮,张亚勤总结了大模型发展的六大趋势:

一是多模态、多尺度、跨模态新的智能。

二是架构突破。未来五年内AI架构需要有重大突破,当前的Transformer模型虽然强大,但效率低下,在推理、训练方面需要多个数量级的改善。技术正在发展,未来可能出现新的架构模式。

三是智能边缘化。智能技术正在向边缘设备转移,如智能手机和AI PC等。

四是自主智能。它可以定义任务、规划路径,自我升级、自我编码,做到完全自主,但也会带来风险。

五是走向物理世界。现在的智能大部分是信息式智能,未来大模型将走向物理世界,和无人机、低空经济、机器人等连接起来。

六是生物智能,即大模型与大脑和生物连接。

张亚勤表示,Sora能量很大,但才刚刚开始。未来5年会看到相关技术在各个领域大规模应用,会带来很多风险。一是信息世界的风险,比如错误、虚假的信息。二是大模型里独有的幻觉,当信息智能延伸到物理智能、生物智能,当生物体、脑机接口开始被应用,这时风险会呈规模化。三是大模型连接到经济体系、金融体系后,一旦被坏人所利用,会产生风险。

清华大学张亚勤:大模型应分级监管 一边发展一边治理

文/夏宾、王立广

中国发展高层论坛2024年年会3月24日至25日召开,年会主题为“持续发展的中国”。在人工智能发展与治理专题研讨会上,清华大学智能产业研究院院长、中国工程院院士张亚勤总结了当前AI发展趋势,并就风险治理给出看法和建议。

针对现在的AI浪潮,张亚勤总结了大模型发展的六大趋势:

一是多模态、多尺度、跨模态新的智能。

二是架构突破。未来五年内AI架构需要有重大突破,当前的Transformer模型虽然强大,但效率低下,在推理、训练方面需要多个数量级的改善。技术正在发展,未来可能出现新的架构模式。

三是智能边缘化。智能技术正在向边缘设备转移,如智能手机和AI PC等。

四是自主智能。它可以定义任务、规划路径,自我升级、自我编码,做到完全自主,但也会带来风险。

五是走向物理世界。现在的智能大部分是信息式智能,未来大模型将走向物理世界,和无人机、低空经济、机器人等连接起来。

六是生物智能,即大模型与大脑和生物连接。

张亚勤表示,Sora能量很大,但才刚刚开始。未来5年会看到相关技术在各个领域大规模应用,会带来很多风险。一是信息世界的风险,比如错误、虚假的信息。二是大模型里独有的幻觉,当信息智能延伸到物理智能、生物智能,当生物体、脑机接口开始被应用,这时风险会呈规模化。三是大模型连接到经济体系、金融体系后,一旦被坏人所利用,会产生风险。

清华大学张亚勤:大模型应分级监管 一边发展一边治理

文/夏宾、王立广

中国发展高层论坛2024年年会3月24日至25日召开,年会主题为“持续发展的中国”。在人工智能发展与治理专题研讨会上,清华大学智能产业研究院院长、中国工程院院士张亚勤总结了当前AI发展趋势,并就风险治理给出看法和建议。

针对现在的AI浪潮,张亚勤总结了大模型发展的六大趋势:

一是多模态、多尺度、跨模态新的智能。

二是架构突破。未来五年内AI架构需要有重大突破,当前的Transformer模型虽然强大,但效率低下,在推理、训练方面需要多个数量级的改善。技术正在发展,未来可能出现新的架构模式。

三是智能边缘化。智能技术正在向边缘设备转移,如智能手机和AI PC等。

四是自主智能。它可以定义任务、规划路径,自我升级、自我编码,做到完全自主,但也会带来风险。

五是走向物理世界。现在的智能大部分是信息式智能,未来大模型将走向物理世界,和无人机、低空经济、机器人等连接起来。

六是生物智能,即大模型与大脑和生物连接。

张亚勤表示,Sora能量很大,但才刚刚开始。未来5年会看到相关技术在各个领域大规模应用,会带来很多风险。一是信息世界的风险,比如错误、虚假的信息。二是大模型里独有的幻觉,当信息智能延伸到物理智能、生物智能,当生物体、脑机接口开始被应用,这时风险会呈规模化。三是大模型连接到经济体系、金融体系后,一旦被坏人所利用,会产生风险。

上一篇:欧盟就苹果、... 下一篇:缺碘导致的甲...
猜你喜欢
热门阅读
同类推荐