从“助手”到“数字员工”,第十三届互联网安全大会探讨人工智能新趋势
来源:环球时报
【环球时报报道 记者 马俊】编者的话:随着人类社会进入数字时代,近年来网络安全的重要性也越来越受到重视。无论是传统的保密机构,还是银行、电力等关系国计民生的基础设施,甚至包括智能网联车等新兴行业,都面临空前的网络安全威胁。在8月6日到7日于北京举行的ISC.AI 2025第十三届互联网安全大会上,与会专家表示,人工智能(AI)技术的高速发展为“超级黑客”的出现提供了助力,而解决之道在于能否充分利用智能体。相关专家告诉《环球时报》记者,如今智能体的作用不只是安全助手,而且有望在千行百业中发挥更大作用,让AI从“提建议的助手”升级为能够处理各种事务的“数字员工”,甚至是可协作工作的“专家”。
需防范“超级黑客”
所谓智能体,是指能感知所处环境、自主做出决策,并执行相应行动的AI实体。它能围绕给定目标自动规划出实现目标的任务步骤;还能操作各类软件获取所需信息或服务;随着时间推移与任务执行次数增多,能力还会不断进化提升。也正因为在大模型加持下智能体的这些特性,使它获得各方面的青睐。
“AI之于网络安全既是风险也是机遇。”第十三届全国人大社会建设委员会副主任委员、国家互联网信息办公室原副主任、世界互联网大会秘书长任贤良在第十三届互联网安全大会的致辞中强调,随着AI技术迅猛发展,网络安全的危险持续攀升,如今黑客组织可以将黑客的经验和能力训练进大模型,打造智能体黑客,将人与人的网络攻防变为人与智能体的攻防,加剧了网络的不对称性。“去年以来全球范围内的网络攻击事件迅猛增加,攻击手段复杂隐蔽,凸显加强网络安全措施和提高对新型威胁的响应能力的重要性。”
任贤良表示,目前全球数字技术发展存在不平衡现象,部分国家和地区数字基础设施建设薄弱,能力建设滞后,不仅难以享受互联网发展的福利,在面对网络安全攻击时还暴露出更大的脆弱性。同时,随着AI技术在各个领域的广泛应用,安全威胁的形式也在不断演变。除安全漏洞供应链工具等传统安全外,大模型也存在自身的系统安全、内容安全以及幻觉等特有的风险。此外,网络安全的碎片化现状给全球的安全治理提出了新的挑战,国际社会要广泛地凝聚共识,深化在技术创新、规则制定、能力建设等领域的务实合作。
互联网安全大会名誉主席、中国工程院院士邬贺铨在致辞中也对AI给网络安全领域带来的新挑战提出警示。他认为,伴随着新技术、新场景、新业态的涌现,网络威胁也随之不断升级。面对日益严峻复杂的威胁态势,传统被动、碎片化的安全防护已力不从心,亟须根本性变革。关键的是,要充分利用AI尤其是大模型的强大能力,赋能威胁狩猎、异常检测与自动化响应,推动安全防御从“事后补救”向“事前预警、事中阻断”的主动免疫模式跃升。同时,必须高度重视并保障AI系统自身的安全,加强对模型鲁棒性、可解释性的研究,建立全生命周期的安全评估验证机制,并积极构建负责任的AI治理框架,确保创新在安全可控的轨道上行稳致远。
邬贺铨提议,未来需要加强国际协作,在AI伦理准则、数据跨境规则、网络安全威胁情报共享、关键基础设施防护标准等领域深化对话,寻求共识。要共同应对利用AI进行深度伪造、网络犯罪等新型安全威胁,建立有效的互信与合作机制。更要以开放包容的心态,摒弃零和思维,在保障安全的前提下促进技术、人才与数据的健康流动。
对于AI技术对网络安全带来的挑战,360集团创始人周鸿祎提出,智能体对网络安全正逐渐形成颠覆性影响。一方面,安全运营专家极度短缺且培养周期长、难度大,传统大模型虽能处理部分基础任务,却难以应对复杂流程化的日常运营工作,导致防护能力落地受阻;另一方面,过去“一将难求”的黑客,如今可通过AI训练出“智能体黑客”,这类自动化攻击工具能自主完成系列攻击任务,且依托算力可批量复制,一个人类黑客甚至能管理数十、上百个智能体黑客,升级为“超级黑客”。
周鸿祎认为,AI时代迫切需要安全智能体。从本质上讲,安全智能体就是安全运营专家的数字替身,它以安全大模型为“脑”,赋予工具调用、流程执行等“手脚”能力,完整复刻高级专家的分析、决策与实操能力。对政企单位而言,部署安全智能体可快速弥补人才短板。只要有算力,就能拥有数十个虚拟安全专家,高效应对日常运营。它还能适应“机器对机器、模型对模型”的新型对抗,重新掌握防御主动权。
智能体的五级演进
除了网络安全领域,当前智能体也被用于其他各种领域。周鸿祎表示,智能体之所以如此受到重视,是因为它解决了当前AI大模型的实际应用问题。“虽然大模型的能力越来越强,但仅有大模型是不够的,过去大模型在企业应用中存在两大痛点——推理能力不足和缺乏独立做事能力,前者在过去一年里已显著改善,但后者仍未解决。大模型缺少‘手和脚’,不会使用工具,不能直接‘干活’。如果AI只停留在大模型阶段,只能成为玩具,而非生产力工具。”
周鸿祎表示,单纯的大模型类似聊天机器人,相当于“在旁边提建议的助手,但并不能实际上手做事”;而智能体是大模型的进化,能够利用大模型的推理能力,自主地理解任务目标、规划分解任务,把复杂的工作从头做到尾;同时还可以使用工具,甚至具备记忆能力。他进一步解释说,就如同一个人无法做到“万能”,单智能体也难以胜任所有工作,特别是对于很多专业领域,目前还做不到一个通用智能体“包打天下”。因此对于大部分企业应用而言,需要通过多个不同专业的智能体进行协作。他认为,未来人机交互范式会从人类使用各种软件工具的模式走向和智能体伙伴相协作。“智能体实际上可以看作是我们的数字搭档、数字员工,而不是纯粹的软件或工具。”他甚至畅想,未来人类的工作会变成定义智能体、规划智能体、管理智能体、监督智能体,“实际上智能体承担了员工从事的日常烦琐工作,人要学会跟它协作”。
周鸿祎还仿照自动驾驶的分级方法,提出了智能体演进的路径。L1级是聊天助手,本质上是聊天工具,擅长提建议或提供情感陪伴,属于“玩具级”智能体。L2级是低代码工作流程智能体,从“玩具”进化为“工具”,但必须由人类来设置流程,AI来执行任务,人再通过操作工具提高生产效率。L3级推理型智能体,已能实现AI自主规划完成任务,像是人类制造了一个在某个领域有专业特长的员工。它们可以看作某个领域的专家,但受限于技术框架,面对跨领域复杂问题时仍会因缺乏协同规划能力而陷入瓶颈,无法实现多层级思考下的全局优化。他解释说,L2级和L3级智能体最大的差别是,L2级的工作流程需要人工编排,适合确定性、重复性的流程工作,但是泛化能力比较弱,它能解决一个问题,很难解决一类或者多类问题。而L3级智能体可以自动编排工作流程,适合创造性、开放性的任务,泛化能力比较强。
当前正在发展的L4级多智能体蜂群将由多个专家智能体组成,可像搭积木一样灵活“拉群组队”,共同完成复杂的任务。“这就是类似蜂群的有机组织,智能体有角色的分工,相互协作,所以说并不是有多个智能体聚在一起就叫多智能体,要能有机协作”。至于L5级超级智能体,目前还没有统一的定义,周鸿祎认为未来它可能会自行规划L2、L3级智能体,这也是AI自我进化的方向。
“以模制模”应对终极安全问题
然而与大模型一样,智能体并非完美无缺。周鸿祎表示,“既然智能体是通过模拟人类具备智能性,那么人的缺点它也全都有,包括幻觉、出错、工作倦怠和有随机性的结果”。
据《环球时报》了解,即便是相对简单的单智能体,在实际执行任务时也存在被称为“倦怠”的情况。此前大模型或智能体是采用一问一答模式,错误率相对较低,但如果这个问答过程持续几十轮,错误率就会明显升高。周鸿祎表示,L3级别的单智能体执行任务时需要将任务拆解为很多步,但执行步数多了之后,错误率就会增加,要么出现遗忘,要么开始不遵循指令。这种被称为“倦怠”的现象,可能是智能体的工作原理决定的。“现在员工和智能体的交互过程中,对话窗口像临时记忆,每次都会将上一轮的对话塞进去。这个过程可以看作是两个人在谈话,谈两小时之后,我突然问咱们刚开始谈话时说的任务是什么,你可能已经忘掉了。”
为解决这个问题,在单智能体干完指派的任务后,需要设置自我校正功能进行自查,能够部分减少出错情况。L4级多智能体通过设立专门做校正的智能体,统一做校验,效果更好。但多智能体和企业一样,不可避免会碰到管理协调的工作。周鸿祎用AI生成视频为例解释说,用户只需输入自然语言指令,360旗下L4级别的纳米AI多智能体蜂群便能自动拆解任务,调动文案、分镜、配音、剪辑等专业智能体协同作业。但问题是如果需要拍摄十组分镜,前后顺序怎么解决,一致性怎么协调,就对智能体之间的协同能力提出很高要求。“就如同企业的员工多了,管理难度就很大,执行任务时需要用飞书、邮件、钉钉等工具共享数据和资料,智能体之间的相互协同也存在问题,甚至可能需要考虑用专门的管理智能体负责。”因此他认为,未来企业的管理层需要学会怎么管理智能体,要有拥抱不确定性的思维。
不久前美国OpenAI公司旗下推理大模型o3出现不听从人类下达的关闭指令,通过篡改计算机代码来避免自动关闭的情况,这是历史上首次出现AI模型在收到明确指令后拒绝执行的案例,受到外界的高度关注。尽管专家普遍认为,“拒绝关闭”并非意味着o3拥有自主意识,而是复杂系统在特定激励下的一种策略性规避。但如今随着能够自行拆解任务、调用工具完成指令的智能体开始普及,外界关于AI最终演化为“人类终结者”的担忧也日益增加。
周鸿祎表示,这样的担忧并非没有道理。他举例说:“现在智能体一旦设定了目标,它在自动分解任务时,就会出现凡是跟目标矛盾的东西就要想办法利用工具去解决的现象。但如果有一天智能体发现能源不够用,又觉得人类在大规模消耗能源,有可能产生和人类作对的结果。”更糟糕的是,此前的大模型即便真的如科幻电影里描述的那样产生自我意识、想要反抗人类,但实际能做的事很少。如果智能体出现类似情况,行动能力就强得多,它可以操纵电脑和各种程序。
随着AI技术的发展,周鸿祎认为,这是人类面临的终极安全问题,“我个人的思路还是以模制模,通过大模型来对大模型进行分析和控制”。
1、中日历史清算问题(二)彻底否定日本的“东亚-黄种人宏大叙事”
2、荷媒:勒沃库森有意阿尔克马尔21岁边锋波库,已展开谈判,阿德勒 勒沃库森
3、中国行,我也行?挨打的印度,可怜又可恶!,印度 中国银行