AI安全监管势在必行 安恒信息深度探索“AI+网络安全”

最新信息

AI安全监管势在必行 安恒信息深度探索“AI+网络安全”
2023-07-14 14:47:00
K图 688023_0
  近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》(以下称《办法》),自2023年8月15日起施行。《办法》的出台旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
  以ChatGPT为代表的大模型正在引领新一轮全球人工智能技术发展浪潮,深度改变行业生产力,也为网安行业带来了新变量。
  安恒信息表示,将牢牢把握时代发展机遇,专注于人工智能结合网络安全的研究,以创新方式拥抱AI变化,积极推动产品AI智能化,推进“服务+AI”“治理+AI”“产业+AI”等应用场景安全升级,为数字经济发展注入源源不断的安全动能。
  安全矛与盾:大模型的两面性
  安恒信息高级副总裁、中央研究院院长王欣认为,在人工智能时代下,大模型技术存在着“矛”与“盾”的两面性。一方面,AI和大模型技术如“利刃”打破原有安全壁垒,安全需求与应用场景发生重大变革。
  在与生成式人工智能交互的过程中,用户常常无意识暴露个人信息、商业机密等隐私数据,得到的却是暗藏平台价值判断的内容反馈。个体在认知判断、行为决策以及价值取向等多个方面,很可能会受到单一算法的不良影响。
  因此,《办法》第三条、第四条在鼓励支持人工智能创新的同时,也强调了制定相应的分类分级监管规则或者指引的必要性。通过约束数据来源合法性、模型算法公平性、生成内容可靠性,引导AI持续向善。
  从世界范围来看,为打造一个可信的人工智能生态系统,美国、欧盟同样在探索人工智能治理之道,并通过法律法规来约束人工智能发展。
  另一方面,AI和大模型技术也促进了安全产品和服务革新,有助于网络安全防护“盾”优化升级。生成式人工智能能极大提高风险识别效率,在一定程度上弥补现有网络人才缺口,让威胁分析更准确、安全运营更高效、安全防护更智能。
  AI与安全同行
  日前,安恒信息高级副总裁、首席科学家刘博在参加2023世界人工智能大会时表示:“安全技术要和AI大模型自身的智能技术同步进行,才能有效保障人工智能更可靠、更安全地服务于企业。”
  为促进生成式人工智能健康发展,规范数据处理是根本。一个稳健的大模型离不开数据、算力和算法,而在本次《办法》中,数据是第一高频词,出现次数高达18次,数据安全重要性可见一斑。
  企业用户在使用AI大模型过程中,可能会不小心造成数据泄露,或是在训练模型过程中,存在那些包含了隐私相关或是产权相关的知识归属问题。
  据了解,针对此类数据合规风险,安恒信息已将已将类大模型应用与智能数据分类分级结合,并对算法模型内生的可靠性与稳健性、透明性与可解释性、准确性与公平性等风险进行持续性研究。
(文章来源:证券日报)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

AI安全监管势在必行 安恒信息深度探索“AI+网络安全”

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml