谈行业变化:
法规条例日益完善,人才培养更受重视
这些年国家出台了一系列政策和法律法规。比如《网络安全法》,明确了什么叫网络安全,网络安全的义务、责任、主体,违法的连带责任。《等级保护条例》升级到了2.0版本,更加注重实战化对抗;为了检验落地情况,有关部门还专门组织了攻防演练活动,公司要实际参与这种攻防检验,看是否的确防住了,我觉得这是很落地的一个策略。不仅是《网络安全法》和《等级保护条例》,现在还有《密码法》,也成立了一系列的密码评估单位。
这些法律的颁布和落地,是特别大的国家层面的推动。国家给了网络安全企业很多政策,比如有些地方建立网络安全产业园,有些地方网络安全企业创业会给政府扶持基金,催生了一系列网络安全行业企业。
近年来国家支持高校设立网络安全专业,样就让很多学校都成立了网络安全专业教育,很多学生也愿意去考这个专业。而且政府在各种宣传活动上,包括网络安全宣传周等大型的宣传活动,也能调动民间的积极性。
学生愿意就读网络安全专业,高校愿意开展这门课程,很多企业愿意吸收这些人才,并且在各个地方办安全企业,各地方政府也愿意给出产业园区,给出免税或者免租金等优惠政策,整个产业就欣欣向荣地发展起来了。
人才培养现在是比较好的一个方面。知道创宇在早期招聘中,一般都招计算机系的学生,公司再进行培养,人才从毕业到真正能够熟悉业务,大概要1年以上,甚至更长时间。而现在从信息安全专业招人、从培训机构招人,基本上2个月就可以很熟练了。
国家多个部委联合推出了信息安全测试员、网络安全运维人员等新职业,有这些职业体系支撑,相当于国家各个部委也在鼓励人才通过自学或培训提升自己,考到相应的职称,所以这个人才体系是一个全方位的体系。现在很多人对网络安全专业越来越有兴趣,也是因为这个大的人才体系,由国家在底层做了支撑。
谈产业发展:
供给侧、需求侧两端发力,产业体系实现良性循环
对一个企业的发展而言,主要有两个方面。第一个是需求端,需求是否旺盛,取决于甲方需求,就是大量的企业是否真正重视安全。
很多企业都存了很多公民的个人隐私数据,现在从法律要求出发,首先企业只被允许收集有限数据,收集了必须保护好,保护不好的话要承受很大法律风险,那么企业就必然加强人员、设备或资金来提升安全建设。
需求多了,另一方面企业还能接得住,这就取决于有没有足够的人才,能不能快速招到人才,快速构建业务。
从这两个方面,国家做得特别好的就是在需求侧通过法律法规牵引落地,在基础层面通过人才培养牵引夯实。这样的话,企业在中间把人才招回来、组织起来,去服务甲方的需求。我觉得这个体系,现在越做越好了。
谈未来趋势:
云端网络边界线渐趋模糊,“零信任”安全成新方向
随着云上的业务越来越多,很多重要的数据和重要的业务都在云上,这也催生了一个问题,云上的业务怎么防御?因为云上是的虚拟化的,传统设备有些可以做到虚拟化,还有很多设备是无法做到虚拟化的,所以上云的业务面临的第一个问题就是防御薄弱了。
第二个问题是,“云”的厂商他们自身的安全措施是否就够了?我们现在的看法是,应该有一个第三方的安全云来保卫云上的业务安全。
我们知道传统Windows是分散的,Windows操作系本身就是资源调度,但现在业务都在一个大“云”上,其实这个大“云”本身就是下一代操作系统——云操作系统。云操作系统就像微软的Windows系统一样,它本身就要提高安全性、提供安全工具,所以云操作系统、云平台也要提高安全性,这是基础。但是真正要保证安全的话,安全工具应该使用第三方的。
还有一个问题是未来家庭办公会越来越多,家庭办公远程也可以访问公司的内网业务系统。传统网络安全会通过网络边界、内外网边界做一个网络隔离,但现在大家居家远程办公了,都需要访问内网,我们会发现网络的边界就逐渐模糊化了。
基于零信任理念的话,应该在内网及外网对谁都不信任,必须要通过信任机制来实施安全保护的健全,所以零信任我认为是未来一个重要的发展方向。
在零信任之上,其实还有一种新的机制叫SASE(安全访问服务边缘)。SASE是构建出虚拟的网络,并且在这种网络中直接打破了各个分支机构的界限,打通了到家庭的界限,甚至打通了“云”上资源的界限。
通过互联网类似SD-WAN的技术快速组网,组成一个企业内部跨云、跨家庭、跨分支机构的网络,在SASE侧提供一系列的安全措施,相当于把传统安全的边界防御系统也SaaS化,所有用户一起分摊安全设备的成本,我认为这是一个重要的发展方向。
监制:张宁、李政葳
采访:孔繁鑫
拍摄:雷渺鑫
后期:孔繁鑫、雷渺鑫
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)