News

Guangdong BAIDU Special Cement Building Materials Co.,Ltd
— 新闻中心 —

AI是破坏网络安全性的长矛吗?还是保护网络安全

9月21日,中国新闻服务(记者吴Jiju)是AI是否会破坏网络安全性?还是保护网络安全性的盾牌?最近,2025年国家网络安全宣传周在库明开业。许多网络安全专家在接受《中国新闻服务》采访时谈到了AI给网络安全带来的新危险和机遇。 360数字安全小组总裁Hu Zhenquan认为,AI安全问题非常复杂,与传统的网络安全问题非常不同,包括:AI生成的内容本身的安全性,AI幻觉,对单词注入的立即攻击等。通过传统网络安全方法解决。张博,天毒素T的助理总裁Echnology Group表示,现在有一些大型模型受到攻击,并且大型算法或数据模型的泄漏已经暴露出来,大型模型具有训练,扩展和使用阶段的一定安全风险。同时,AI降低了网络攻击的阈值,许多攻击将使用AI来提高攻击的频率,强度和效率。 Qi'anxin Group副总裁Li Hu还表示,许多用于攻击的AI特工出现并开始在世界以外提供服务。如果黑客组织使用AI发起攻击,它将更便宜,更不可控制。到目前为止,大型Modselo的应用变得越来越广泛,涉及社会生活的各个方面。如果AI安全性存在问题,它将造成重大损害。据中国南部电力网络公司数字化部门副总经理徐梁说,AI需要慢速发展。在培养过程中,如果存在数据问题,一方面,这可能会导致AI代理的响应速度,另一方面,这可能会导致AI犯的判断错误,这对网格公司和新的电气系统是致命的。在AI期间,如何应对网络安全挑战?张博说,AI目前提供网络安全性,这是行业研究的非常重要的方向。许多家庭安全公司和海外与AI和安全技术结合探索。例如,包括大型安全设备模型,它链接到安全平台和云安全服务,并基于与端侧云合作的大型模型生成智能操作系统。 “传统的网络安全软件是由人类撰写的,大型模型的智能大于人类的智能。因此,应该是'模型',也就是说,使用大型模型来解决大型模型的安全问题。”胡·Zhenquan(Hu Zhenquan)认为,应该有一个大型模型特别负责安全管理大型业务运营模型,并处理他们在业务流程中遇到的一系列安全问题。大型模型的发展应遵循“安全,良好,信誉和控制”的原则。从李胡(Li Hu)角度来看,我们可以为大型模型建立安全性的“红色场”,包括所有链接,例如大型模型培训,正确维修以及对统一的红色田野中心管理的应用,然后进行分区管理,划分和征服每个区域,并缩小风险界限。同时,我们需要监视和突出大型模型的直接单词,标签数据,知识库数据等。 Xu Lianga指出,为了防止AI偏离应用程序级别,有必要拥有良好的数据管理基础并形成高质量的数据集。同时,需要一个专门的团队来监视AI并开发跟踪机制,以朝着我们的方向生产AI预计。 (超过) [收费编辑:Wu Jiang]
Tel
Mail
Map
Share
Contact