[translate]实现信息分类以增强数据治理和保护


=Start=

缘由:

此篇文章是对Gartner文档「Implement Information Classification to Enhance Data Governance and Protection」做的一些翻译,以加强我在数据安全方向上的学习和理解。

正文:

信息分类是支持数据治理和安全实践的强大工具。实施信息分类计划需要集成适当的程序和技术控制,并转换组织行为以确保数据隐私和安全。

参考解答:
重要发现(Key Findings)
信息分类程序是支持广泛的数据治理和安全实践的强大工具。识别和分类数据有助于手工和自动处理企业数据,可以转换为降低存储成本,甚至可以突出访问控制问题。
信息分类程序的不成熟在组织认为他们应该做什么、他们认为他们需要什么程序和技术控制以及供应商提供什么之间造成了系统的脱节。供应商空间是不平衡和不一致的,这导致组织使用“挑选和选择”的方法拼凑出满足他们当前需求的解决方案,而不考虑长期目标。
成功地定位和分类数据的组织似乎由于害怕进入补救阶段和删除可消耗的遗留数据而陷于瘫痪。
建议(Recommendations)
确定短期和长期目标。实现“轻松取胜”,例如创建策略并开始应用分类标签,并根据实际的分类方案寻求合并更全面的编程和技术控制。
开发一个全面的信息分类程序,授权最终用户对他们工作的数据进行定期分类,并将分类与处理指南、程序和技术控制相关联。
确保信息分类程序在继续创建数据时能够主动地对数据进行分类和重新分类,同时也能够追溯处理遗留缓存。
目录(Table of Contents)
分析(Analysis)
基础(The Basics)
清晰的词汇(Clarity of Vocabulary)
信息分类是如何工作的(How Information Classification Works)
开发一个程序(Developing a Program)
删除的动机(Motivation to Delete)
成功程序的要素(Elements of a Successful Program)
追溯性和主动性的处理数据(Address Data Retroactively and Proactively)
需要管理层和最终用户的参与(Executive Buy-In and End-User Involvement Required)
理解短期和长期目标(Understanding Short-Term and Long-Term Goals)
从定位到补救(Moving from Locate to Remediate)
信息分类的新范式(A New Paradigm for Information Classification)
程序崩溃(Program Breakdown)
信息分类框架(Information Classification Framework)
扩展框架(Expanding the Framework)
将隐私考虑在内(Incorporating Privacy)
支持标识和访问管理(Supporting Identity and Access Management)
供应商情况(The Vendor Landscape)
功能和特性(Features and Functionality)
面临的挑战(Ongoing Challenges)
度量和成功度量(Metrics and Measuring Success)
重新分类(Reclassification)
移动化和云化(Mobile and Cloud)
优势(Strengths)
弱点(Weaknesses)
指南(Guidance)
Gartner推荐阅读(Gartner Recommended Reading)
# 分析
信息分类,也称为数据分类,是对一项信息进行分析,以确定它属于预定义的一组类别中的哪一个。传统上,这涉及到对数据应用某种标签。然后,可以将标签与各种后续过程或需求相关联,例如如何处理数据、谁可以访问数据或应该存储数据的位置。
信息分类本身通过对数据的识别和分类提供了价值。然而,它的用处可以远远超出这一范围。有效的数据治理基于组织对整个企业中数据的类型、价值和敏感性的认识,以及对其适当的访问、处理和存储的认识。可以利用信息分类来提供这种认识,并支持许多其他企业范围内的安全性、合规性和风险缓解计划。信息分类对安全程序的价值将在”Information Classification: An Essential Security Thing You’re (Still) Not Doing”中详细讨论。
这个评估探讨了信息分类的两个主要子组件:程序和工具。本文的重点是引导组织认为其程序是成功的编程元素和可用的技术工具,包括对将自己推销为信息分类供应商的供应商的高级讨论。事实上,许多信息分类供应商是具有内容意识的数据丢失预防(DLP)供应商。本文档没有深入介绍DLP的工作原理或其他工具,如加密、数据屏蔽或数据令牌化,这些工具在数据被分类为需要这种级别的处理后即可实现。“企业内容感知的DLP体系结构和操作实践”进一步解释了DLP。在“选择数据屏蔽方法和体系结构”中提供了关于数据屏蔽的指导。
# 基本原则(The Basics)
信息分类一直是令人沮丧的根源,这是有原因的。信息分类的概念缺乏明确性、词汇的内聚性和规范性。这个领域的供应商和工具不仅在它们的特性和功能上有很大的不同,而且在它们试图解决的问题上也有很大的不同。
然而,并非所有的希望都破灭了。信息分类可以是简单的,也可以是复杂的,这取决于组织的意愿。事实上,构建一个非常成功的分类程序有很大的灵活性。从程序的角度来看,需要一些关键元素,但是是否实现工具和技术控件提供了丰富的选项菜单。
信息分类听起来非常简单,并不是一个新的或新颖的概念。从编程的角度来看,信息分类空间并没有发生很大的演变。一些组织和政府已经建立了分类方案、政策和方案,尽管有时这些方案正在逐渐消失。但很少有人知道如何将建立信息分类程序与教育用户基础和创建合规文化联系起来。
# 清晰的词汇(Clarity of Vocabulary)
数据分类 或 信息分类
标签 或 标记
# 信息分类是如何起作用的
可以手工创建信息分类策略、终端用户意识和培训,并将程序与处理实践连接起来。然而,实现一个(或多个)工具可以极大地增强信息分类程序。信息分类工具的一些功能包括:
  • 贴标签:支持终端用户贴标签工作,其功能可以直接嵌入电子邮件、文档或文件,尤其是Microsoft Office。
  • 扫描:扫描非结构化和结构化数据存储库,以定位受监管的数据,并自动对数据进行分类和应用技术控制。
  • 处理:读取手动应用的标签或标识特定的数据类型,并限制使用或传输。
# 创建一个程序
创建信息分类程序的动力可以从各种来源获得。在研究这篇文档时,Gartner了解到组织发起信息分类计划的原因包括:
  • 识别和定位敏感数据,特别是在数据泄漏之后
  • 提高组织对数据处理需求的认识
  • 消除不必要的遗留数据缓存,以最小化存储成本
  • 了解谁在访问敏感数据
  • 遵守出口管制、HIPAA、国际武器贩运条例(ITAR)和支付卡行业(PCI)标准等法律和法规要求和限制
  • 保护知识产权
信息分类方案也由组织内的不同单位驱动,包括:
  • 信息安全
  • 合规
  • 法律
  • 风险
  • IT
# 指导方针
建立一个信息分类程序需要时间和耐心。鉴于企业文化、高管支持和预算,企业将需要了解自己的目标,以及如何最好地实现这些目标。在开发和实现信息分类程序时,有一些关键的事情需要记住:
  • 创建一个信息分类策略:该策略构成了整个信息分类程序的基础。为组织的分类方案确定适当的层数。确保政策得到所有需要的缔约方的正式批准。
  • 广泛地绘制信息分类路线图:要使信息分类计划起步,不要关注细节,而是要非常广泛地理解短期和长期计划。路线图可以而且应该是有抱负的,详细说明程序的哪些部分将是手工的,而哪些部分将是自动化的。具体的编程和技术控制不需要详细说明,但是应该包括使用一个或两个控件的意图。确保路线图有追溯组件来识别和分类遗留数据,以及在创建时有主动组件来分类数据。
  • 将要识别和分类的数据按优先级排序:某些类型的数据会比其他类型的数据带来更多的风险。一些终端用户会比其他用户带来更多的风险。实施一个或多个试点项目,重点关注已知的高风险数据或访问。这可以导致局部的合规性,同时这也可以动员其他领域和业务单位效仿。
  • 识别谁是你的支持者:拥有强有力的合作伙伴是至关重要的。通常,Gartner建议将构建团队作为理解关键涉众的起点。成功地进行信息分类,与其说是建立一个团队,不如说是找到支持这一事业的啦啦队长。这些啦啦队员将帮助支持信息分类工作,自愿让他们的部门尽早参与项目,并向最终用户传达项目的价值。
  • 绝对地、积极地做任何有必要让最终用户参与的事情:最终用户是有效信息分类计划的参与者。他们定期处理数据,并了解如何在业务流程中使用数据。即使他们不完全理解他们的数据属于哪个分类层,他们也知道企业中存在哪些数据。有许多方法可以让终端用户参与进来,但程序所有者必须找到他们,并对他们进行教育,无论是通过电子邮件爆炸、企业内部网上的通知,还是在走廊和餐厅里设置带有基于信息分类的游戏和奖品的桌子。
  • 加快程序的推出:不要试图同时追溯和预先识别和分类数据。不要试图将其他计划和计划与信息分类结合起来,而是要利用信息分类来实现其他目标,例如记录保留。一家生物技术公司计划同时实施标签和DLP解决方案。在发布之前,他们放弃了DLP组件,因为他们发现它太重了。他们发现,他们“没有资源或标准化的环境来推出像DLP解决方案那样具有侵入性的东西”。信息分类程序的其他部分可以稍后合并。
  • 纠正可消耗的过时和遗留数据:一旦追溯性地识别和分类了数据,工作就没有完成。必须处理过时的和遗留的数据,特别是如果这些数据是敏感数据,它们的存在可能会带来风险。尽可能有效地从识别过渡到补救。

Gartner建议的信息分类指导方针,总结一下,就是:

1、(信息分类)政策先行,因为这是基础(确定信息分类方案的大体框架和指导方针);
2、(在深入理解短期和长期目标的基础上)绘制路线图,不必关注细节,但大方向和里程碑要明确;
3、(对要实现分类的数据)按优先级排序,先抓已知的重点,一方面是可以快速有产出,另一方面是可以起到模板和示范作用;
4、(识别并拥有)强有力的合作伙伴,找到你的合作伙伴/支持者,让他们帮忙在他们周围进行动员和宣传;
5、(一定要积极地)影响最终用户,因为他们是有效信息分类计划的参与者,他们清楚企业中存在哪些数据,但前提是找到和识别他们;
6、(不要期望一步到位),而应该加快程序功能的迭代;
7、(逐步的从识别敏感数据过渡到纠正和处理)有些遗留的敏感数据,它们仅仅是存在就可能导致风险,需要不断的纠正和处理。
参考链接:

=END=


《 “[translate]实现信息分类以增强数据治理和保护” 》 有 7 条评论

  1. 数据资产治理-元数据采集那点事
    https://mp.weixin.qq.com/s/JqKIPBu9zLCq9ziczaTrWw
    `
    一、介绍
    数据资产治理的前提要有数据。它要求数据类型全、量大,并尽可能多地覆盖数据流转的各个环节。元数据采集就变得尤其重要,它是数据资产治理的核心底座。

    在早期的采集系统,我们主要面向数仓,通过“API直连方式”采集Hive/Mysql表的元数据。随着业务的快速发展,数据运营、成本治理的需求越来越强烈。元数据需要覆盖到数据全链路,包括离线计算平台、实时计算平台、内部工具,任务元数据等。采集元数据的过程中,我们遇到以下困难:
    * 数据类别多
    需要采集组件的基础元数据、趋势数据、资源数据、任务数据和血缘数据。

    * 平台组件多
    大数据平台组件:Hive/Hbase/Kafka/Druid/Flume/Flink/Presto,内部工具:BI报表系统/指标库/OneService等。

    * 采集周期长
    接入新的数据类型周期长,需要经过需求评审、开发、测试、联调、数据核对、上线。

    * 接入效率低,采集稳定性
    接入每种数据类型需要和业务方对接,效率不高,采集过程出现异常中断,不能及时感知到。

    本文主要从元数据的含义、提取、采集、监控告警几个方面,介绍我们做的一些事情。

    二、元数据
    2.1 什么是元数据
    2.2 采集了哪些元数据

    * 基础元数据
    表名称、备注、字段列表、责任人、业务域、表所在集群、项目等信息。

    * 趋势数据
    表的大小、行数、文件数、分区数、任务调度时长、产出时间等信息。

    * 资源数据
    集群的吞吐量、QPS、调度任务消耗Cpu、内存大小等信息。

    * 血缘数据
    表/字段级别的上下游依赖关系、任务的输入输出表依赖关系。

    * 任务数据
    离线/实时计算任务的名称、责任人、deadline告警时间、脚本、任务配置等信息。

    三、元数据提取
    3.1 离线平台
    3.2 实时平台
    3.3 内部工具
    3.4 任务元数据

    四、数据采集
    4.1 采集方式
    4.2 采集SDK设计
    4.3 触发采集
    4.4 数据存储,更新

    五、监控预警
    5.1 采集链路监控告警
    5.1.1 接口监控
    5.1.2 采集过程监控
    5.1.3 kafka消息积压告警
    5.2 结果数据比对
    5.3 项目迭代机制,采集问题收敛

    六、总结和展望
    6.1 总结
    6.2 展望
    数据采集的过程中我们也遇到很多的问题,在后续的工作中需要不断的优化和功能迭代,包括但不限于:
    * 自动化采集
    目前接入新的数据类型,需要和接入方确认数据上报格式,编写数据适配器。后续考虑自动化采集,减少人工介入。接入工单系统,接入方发起工单申请,填报基础的元数据信息,管理员审批后,能够根据工单信息自动生成数据适配器,完成数据的上报。
    * 采集任务管理
    目前接入了各种组件的元数据,采集任务数25+,新增采集任务或任务下线,需要走阿波罗配置系统。采集任务管理、搜索、任务启停需求越来越强烈。
    * 提升元数据质量
    接入的元数据类型、元数据服务越来越多,对元数据的质量提出了更高的要求。如何保障数据的准确性、可用性,是后续重点要考虑的事情。·
    * 支持业务元数据接入
    目前主要接入了数据平台组件的元数据,业务方元数据占比较小,后续考虑支持快速接入业务数据,支持非结构化数据的采集和存储。
    `

  2. 干货|字节跳动数据血缘图谱升级方案设计与实现
    https://mp.weixin.qq.com/s/zisz08iuaxAkYpBAI-Jqpw
    `
    # 数据血缘图谱介绍
    字节的数据可分为端数据和业务数据,这些记录往往需要通过加工处理才能产生业务价值。数据加工处理的流程一般是读取原始数据,进行数据清洗,再经过多种计算和存储,最终汇入指标、报表和数据服务系统。数据血缘描述了数据的来源和去向,以及数据在多个处理过程中的转换,是组织内使数据发挥价值的重要基础能力。

    数据地图平台在 2021 年接入了全链路核心元数据,包括但不限于:Hive、Clickhouse、Kafka、BI 报表、BI 数据集、画像、埋点、MySQL、Abase。这些数据全部要通过数据血缘连接起来,进而可以进行影响分析、内部审计、SLA保障、归因分析、理解和查找数据、自动化推荐等操作。

    随着内部数据不断膨胀,简单的数据血缘图谱已经无法满足万级表血缘的关系展示。一些突出的问题包括看不清单个表的直接上下游,看不清数据链路,整体情况等等。因此需要重构一种更清晰、灵活、便利的方式。

    在新版血缘图谱中,我们可以直接清晰的看到每个表的多层上下游依赖关系,甚至可以直接看到一些特殊场景下用户关注的表属性,通过点击节点高亮查看数据链路,更可以看清每层的统计信息。在下文中我们将详细拆解优化的全过程。

    # 需求发现

    要做出一个能满足用户需求的图产品,首先是要清楚用户想从图中获取什么信息,从而有针对性的将这些信息展示出来。从血缘图谱的背景本身可以推断出用户希望在图谱中查看表之间的关系,查看关系链路,而更多的使用场景待发掘。因此我们对内部重度用户进行了访谈,整理得出了以下不同用户角色使用数据血缘图谱的用户场景。

    结合访谈结果和用户的日常反馈,抽象出几个主要需求即为:
    1. 表血缘关系查看:能从图中清楚的浏览用户关注的表的上下游血缘关系,最好还能便捷的查看一些场景相关的表属性。
    2. 表血缘链路查看:能清晰的查看到某个上游/下游表到用户关注表的链路情况。
    3. 按关键指标分组查看:例如当表数据发生变更时,分组查看所有下游表的负责人以便通知变更。
    4. 筛选关键信息查看:例如用户找数据指标的时候,仅看相关的报表更高效。

    # 问题分析

    其实上述需求旧版血缘图谱都有一定程度上的满足,我们需要去找出旧版血缘图谱提供的功能为什么不满足用户需求,有哪些问题需要在新版中注意避免。

    概览:在数据量较小的情况下可用,在数据量大的时候完全不可用。看不清每层有多少个节点,层级关系是怎么样的,且链路查看困难。

    旧版血缘图谱中功能细节粗糙:
    * 用户无法直观的区分节点:旧版节点上显示了表类型、库名、表名。因此表名只能显示几个字符,不具备辨识度。
    * 无法知晓表到表之间的任务:旧版血缘图谱仅在侧边栏列出了与当前表相关的任务有哪些并未列出加工逻辑的对应关系,归因分析困难。
    * 分组结构不清晰:旧版是在原图中框出节点来展示分组的。一方面是空间利用率更低,另一方面是看节点时难定位到所属分组,看分组时则无法看清包含的节点。
    * 筛选功能不直观:符合筛选条件的节点高亮展示,而被筛掉的表仍在图中,无法有效提升用户浏览效率。

    # 总结

    以上就是数据血缘图谱的整个优化过程。在这个过程中,我总结起来就是在了解用户诉求的前提下,克制地表达关系图中的信息,在合适的场景下突出核心的内容。做图分析产品时不需要拘泥于某种形式,而是真正的从用户需求出发,为用户服务。
    `

  3. 腾讯内部数据治理实践
    https://zhuanlan.zhihu.com/p/600539032
    `
    导读:本文主要介绍目前腾讯数据治理的所在阶段和实践经验,以及基于目前的经验所沉淀的数据治理平台:WeData。

    今天的介绍会围绕下面三方面展开:
    * 数据治理挑战
    * 腾讯内部数据治理实践
    * WeData 数据治理平台能力

    01/ 数据治理挑战
    1. 数据治理的挑战
    2. 数据治理**“马斯洛的需求层次理论”**

    02/ 腾讯内部数据治理实践
    1. 腾讯内部业务现状
    2. 腾讯数据治理三阶段
    3. 腾讯内部实践:腾讯新闻数据资产化
    4. 腾讯内部实践:PGC(平台与内容事业群)数据成本治理
    5. 腾讯内部实践:治理平台化推动业务治理落地

    03/ WeData 数据治理平台能力
    1. 腾讯内部大数据能力的对外商业化输出——WeData
    2. WeData 数据治理服务
    3. WeData数据治理——规范工具
    4. WeData数据治理——质量工具
    5. WeData 数据治理——安全工具
    6. WeData 数据治理——元数据资产管理工具
    7. WeData 数据治理——治理实践落地
    ==

    在数据治理的过程中会遇到很多问题,我们简单分成三类:

    1.管理类挑战:数据信息分散在不同的业务部门的业务库中,数据上报也分散在不同的位置,难以对这些分散的数据进行统一的管理。随着数据量的不断增大,如何投入更少的人力去进行数据信息的维护也是一大难题。
    2.技术类挑战:我们的数据工程师在收集到数据后,数据的质量该怎么保证?如果数据本身质量不过关,可能带来负面的业务效果。
    3.业务类挑战:在所有的数据上报之后,底层的业务元信息缺失,无法进行统一的审计或者度量。

    数据治理“马斯洛的需求层次理论”–数据治理对于不同企业,或者是一个企业在不同的发展阶段,所面临的问题是不一样的,这里进行了一个简单分类:

    1. 时效性:数据采集上来后,我们会关注数据产出的及时性,因为如果数据发生的时效性没有达标的话,对当前的业务判断来讲价值就会降低。
    2. 质量性:在数据已经有了一些闭环应用的基础上,还需要有准确性,完整性,有效性,如此才能保证在数据应用上能达成期望的效果。
    3. 可用性:如果数据是不可用的,则数据对我们的价值就降低。
    4. 安全性:在数据量很大之后,我们会更多地去关注数据共享或者数据应用,在这个过程中,我们的数据安全如何保障。
    5. 成本:解决问题过程中可能耗费大量人力、物力以及计算资源,我们是否能在解决问题的同时降低成本。
    `

  4. 国家标准《个人信息安全规范》2020版正式发布 (附下载)
    https://www.secrss.com/articles/17713
    `
    GB/T 35273-2020《信息安全技术 个人信息安全规范》正式发布,实施日期为2020年10月1日。
    `
    标准号:GB/T 35273-2020
    https://openstd.samr.gov.cn/bzgk/gb/newGbInfo?hcno=4568F276E0F8346EB0FBA097AA0CE05E
    http://c.gb688.cn/bzgk/gb/showGb?type=online&hcno=4568F276E0F8346EB0FBA097AA0CE05E
    `
    # 个人信息举例

    # 个人敏感信息举例

    ## 个人财产信息
    银行账户、鉴别信息(口令)、存款信息(包括资金数量、支付收款记录等)、房产信息、信贷记录、征信信息、交易和消费记录、流水记录等,以及虚拟货币、虚拟交易、游戏类兑换码等虚拟财产信息

    ## 个人健康生理信息
    个人因生病医治等产生的相关记录,如病症、住院志、医嘱单、检验报告、手术及麻醉记录、护理记录、用药记录、药物食物过敏信息、生育信息、以往病史、诊治情况、家族病史、现病史、传染病史等

    ## 个人生物识别信息
    个人基因、指纹、声纹、掌纹、耳廓、虹膜、面部识别特征等

    ## 个人身份信息
    身份证、军官证、护照、驾驶证、工作证、社保卡、居住证等

    ## 其他信息
    性取向、婚史、宗教信仰、未公开的违法犯罪记录、通信记录和内容、通讯录、好友列表、群组列表、行踪轨迹、网页浏览记录、住宿信息、精准定位信息等
    `

  5. 数据防泄密DLP 学习笔记
    https://www.cnblogs.com/LittleHann/p/17244299.html
    `
    如果不能对敏感数据检测事件作出适当响应,那么就不能体现 DLP 系统的价值,因为DLP 系统主要的价值是改变用户行为。
    最成功的 DLP 部署应从特定的用户和系统范围开始,在监控模式下,对一些明显错误的活动设置阻止或警报,通过不停地迭代优化,最终产生一套适用于正常业务流程的策略。

    ==
    一、背景
    随着计算机系统在各行各业的普遍应用,办公文件、设计图纸、财务报表等各类数据都以电子文件的形态,在不同的设备(终端、服务器、网络、移动端、云端)上存储、传输、应用,数据安全已经成为政府、军队、企业及个人最为关注的问题。

    从宏观上来看,各种网络安全产品、终端安全产品、云安全产品等所追求的根本目标就是保护数据安全,然而层出不穷的各类数据泄露事件充分说明:单纯从网络边界、终端管控等角度建立安全防护体系的尝试是不成功的,APT 攻击、勒索者软件等已经可以成功攻击用户的核心数据文件;同时由于外部竞争的加剧,企业内部人员往往受利益驱使主动泄露敏感数据,给企业带来利益损失的同时,也严重危害了企业声誉。

    同时,现阶段在互联网应用普及和对互联网依赖背景之下,由于信息安全漏洞造成的个人敏感信息泄露事件频发。个人敏感信息的泄露主要通过人为倒卖、手机泄露、计算机病毒感染和网站漏洞等途径实现。因此,为防范个人敏感信息泄露,保护个人隐私,除了个人要提高自我信息保护意识以外,国家也正在积极推进保护个人信息安全的立法进程。《中华人民共和国网络安全法》于2017年6月1日起的实施,具有里程碑式的意义,可以起到积极的作用,有利于我国对个人敏感信息的保护。

    二、Gartner建立的DLP战略
    Gartner 是业内著名的信息技术研究和分析公司,2017 年 1 月发布了“建立成功的DLP战略”报告,为企业成功实施DLP提出了具体的建议。无论用户部署独立的企业DLP产品或者在防火墙/网关等系统中集成了DLP模块,都应该遵循如下五个步骤,如下图所示。

    1. 明确敏感信息的类型和位置。负责应用和数据安全的管理人员,应当与数据使用人员共同进行敏感数据的定义,以确保覆盖所有的敏感信息,同时满足内容检测机制的要求。企业用户通过预先定义敏感信息类型、了解其存储位置,使得企业在选择 DLP 厂商时,能自主判断产品所实现的内容检测机制,是否能满足企业敏感信息识别的要求,确保组织的需求(而不是供应商的产品)正在推动选择过程。

    2. 明确敏感信息数据流向。一旦用户定义了敏感数据类型,并且就敏感数据的合理位置进行了确认,就可以开始定义预期的数据流,以及计划如果数据流违反预期,那么该做什么。

    3. 制定DLP策略。**如果不能对敏感数据检测事件作出适当响应,那么就不能体现 DLP 系统的价值,因为DLP 系统主要的价值是改变用户行为。**此外,除了技术手段,还需要通过对业务或文化方面的影响,来改变用户行为。最成功的 DLP 部署应从特定的用户和系统范围开始,在监控模式下,对一些明显错误的活动设置阻止或警报,通过不停地迭代优化,最终产生一套适用于正常业务流程的策略。

    4. 明确工作流及事件处理方式。从本质上看,DLP 是通过监控不安全的业务流程及有风险的数据操作,达到改变用户行为目的的。因此,建立工作流来管理和处理事件是成功的关键部分。工作流可以确保事件处理的完整性,在事件处理过程中会涉及警报信息中存在的敏感数据二次泄露问题。安全和风险管理领导者必须决定谁应该有权查看警报的实际内容,并通过授权模块委派给特定人员处理。

    5. 与其他安全产品联动。DLP 产品具有其他信息安全产品不具备的内容识别技术,可与 SIEM、UEBA、CASB等产品进行联动,以更精确地识别风险点。

    三、新一代DLP防护思路
    数据分类是安全保护前提
    DLP技术是核心手段

    通过对大量敏感信息泄露事件的汇总分析可以看出,内部员工主动泄密是商业秘密泄露的主要方式,因为存在多种简单易行的逃逸手段,因此**仅依赖 DLP 技术并不能有效地阻止主动泄密事件的发生**,基于文件的自动加密技术,能够在不改变用户使用习惯的前提下,实现对文件的自动/强制加解密,单一使用该技术会导致过度加密问题,通过与 DLP 内容识别技术相结合,仅对包含敏感信息的文件自动加密,有效增强 DLP 产品的保护力度。

    四、网络DLP的实施与部署
    实施方案

    * 第一步 梳理:建立敏感数据分类标准
    __* 敏感信息收集
    __* 敏感信息分类分级
    __* 识别规则建立
    __* 识别规则验证
    * 第二步 洞察:感知敏感信息使用现状
    __* 部署网络 DLP。
    __* 导入敏感信息识别策略
    __* 监控各数据通道敏感信息流转情况
    __* 监控敏感信息使用情况
    * 第三步 教育:实时提示用户违例行为
    __* 建立事件响应规则
    __* 事件发生时,实时提示用户特定行为存在的安全风险,但不阻断操作
    * 第四步 治理:增强管理手段
    __* 阻断危险行为
    __* 给管理员发送报警信息。
    * 第五步 评估:定期评估保护效果
    __* 分析事件数量及准确度
    __* 优化分类规则。
    __* 优化策略。
    __* 分析事件趋势。

    DLP的部署
    1、网络DLP旁路部署
    2、网络DLP串接部署
    3、网络DLP与终端DLP联动部署
    `

  6. 保护敏感数据的艺术:数据安全指南
    https://www.anquanke.com/post/id/290760
    `
    一、了解敏感数据

    * 个人身份信息(PII):包括明确用于识别个人身份的任何数据。它们包括个人的地址、姓名、驾驶执照、社会安全号码、护照号码和其他信息,如生物识别数据。它们被视为敏感数据,因为攻击者可以使用它们来冒充某人;因此,它们必须受到保护。

    * 健康记录(PHI):这包括与个人精神或身体健康相关的任何数据,例如医疗诊断、实验室测试和用药史。它们通常受法律法规保护,仅由受医疗保密义务约束的医疗专业人员处理。

    * 知识产权(IP):是指思想的创造,可以是发明,艺术作品,专利,商业秘密或文学作品。知识产权通常被认为是敏感的,因为未经授权的访问或披露可能导致收入损失、财务损失以及个人和企业的声誉受损。例如,竞争对手错误地获取公司的专利可能导致公司无法在市场上竞争,因为竞争对手可以快速生产相同的产品或服务,而不会产生与研发相关的成本。

    * 业务信息:某些业务信息(如业务计划、财务信息、投资、商业机密、客户数据、营销策略等)被视为敏感信息,因为它对组织的成功至关重要。错误访问有关业务的敏感信息可能会导致损害或经济损失。例如,这就是为什么大多数公司要求新员工签署保密协议 (NDA) 以保护业务信息并确保自己员工的机密性。

    * 财务数据:银行帐号、银行对账单和信用卡号等信息是敏感数据,通常是网络犯罪分子实施欺诈和其他恶作剧的目标。必须采取严格的措施来保护财务数据,以避免未经授权的访问。

    * 客户数据:企业从客户那里收集某些敏感信息,包括他们的出生日期、姓名、地址、联系方式和财务信息。尽管所有这些信息都是提供服务和维护客户关系所必需的,但企业必须保护这些信息免受未经授权的访问,以确保客户的隐私和安全。

    二、数据安全基础
    1、CIA(机密性、完整性和可用性)三位一体
    2、数据加密
    3、访问控制机制
    4、授权和身份验证

    三、数据泄露的风险和挑战

    一些后果包括:

    * 失去客户信任:泄露客户敏感数据的组织可能导致客户对保护其安全和保护其数据的能力失去信心。这可能会损害组织的声誉并导致业务损失。

    * 运营中断:数据泄露可能导致组织活动中断,因为可能需要关闭特定系统来调查事件。这可能导致生产力和收入的损失。

    * 敏感信息丢失:财务记录、个人信息和知识产权等数据因数据泄露而丢失。丢失这些信息可能会损害组织的财务和声誉,并降低其竞争力。

    其他后果可能包括欺诈、监管罚款、财务损失、盗窃追回成本等。

    组织和个人可以通过了解这些后果来主动保护其敏感数据。

    保护敏感数据的意义在于:

    * 保护个人隐私:个人敏感数据包括身份证号码、银行账户信息等,如果不加以保护,可能导致个人隐私曝光,给个人带来财务损失或身份盗用风险。

    * 维护商业机密:对于企业而言,保护商业机密是至关重要的。这包括研发成果、市场策略、客户信息等,泄露这些数据可能导致商业竞争力下降,进而影响企业的长期发展。

    * 避免法律责任和罚款:根据相关法规,组织必须保护用户的敏感数据,否则可能面临法律责任和巨额罚款。

    四、保护敏感数据的最佳实践

    Identify
    Protect
    Detect
    Response
    Recover

    五、探索流安全性:数据安全平台

    结论

    归根结底,没有什么灵丹妙药可以保证数据安全。每个组织的方法都会略有不同,并根据当前的数据和安全需求不断发展。这些基本的最佳实践是一个很好的起点,也是在未来几年建立强大、有弹性和可扩展的数据安全策略的关键。
    `
    The Art Of Protecting Sensitive Data: Data Security Guide
    https://www.flowsecurity.com/sensitive-data/

  7. 10个头部企业数据安全治理最佳实践案例
    https://mp.weixin.qq.com/s/ar5fploqM_hExsQhMu-AFg
    `
    近年来我国在数据安全和个人信息保护方面的法律法规密集出台,尤其是《数据安全法》和《个人信息保护法》的发布,将数据安全的重要性提升到一定高度,数据安全和数据隐私保护成为企业数据应用的合规前提。

    企业一旦违法收集和处理个人信息,将面临刑事处罚、民事处罚、行政处罚三重法律责任,导致业务暂缓、资金流失、声誉受损、业绩锐减等负面影响。

    沙丘社区通过研究中国工商银行、中国建设银行、平安银行、国信证券、中国铁塔、蔚来汽车、江西联通、中国移动等各行业头部企业数据安全治理实践,旨在为其他企业提供参考。

    ▎案例1:中国工商银行数据安全平台建设实践
    为筑牢数据安全保障防线,中国工商银行搭建数据安全平台,围绕数据全生命周期,实现智能敏感数据识别、动态控权、统一数据脱敏引擎、数据水印溯源以及数据安全监控审计五大核心能力,为行内数据资产管理类应用、各业务系统提供数据安全标准服务,实现数据安全从局部防护到整体防护、从静态防护到动态防护、从单点防护到协同联防。

    ▎案例2:平安银行数据安全体系建设实践
    为了满足政策合规性要求、有效防护安全风险、有效支撑业务发展,平安银行构建有组织、有纪律、有能力、有章法的数据安全体系,组织层面成立个人信息保护委员会、数据治理工作组、网络与信息安全管理委员会三大类职责,横向联动保障数据安全责任,技术层面构建数据分级分类平台、统一用户授权平台、数据第三方交互评估机制、数据安全研发工程等,支撑数据安全体系落地。

    ▎案例3:平安银行数据安全分类分级实践
    数据分类分级是展开数据安全工作的基础,如果要对数据进行安全保护,首先需要了解哪些数据是需要重点保护的。平安银行数据安全分类分级工作建设思路分为三步走:

    第一,做标签。参考法律法规及金融行业标准,结合平安银行实际情况,梳理形成数据安全分类分级标签体系,先分类、再定级。

    第二,打标签。人工打标的准确率高但成本也高,平安银行探索智能化的打标手段,经多轮人工打标训练,运用深度学习等算法模型进行数据安全智能打标,并制定人工复核/确认流程,对智能扫描结果进行复核/确认。

    第三,用标签。数据安全分类分级结果正式上架数据资产管理平台,统一全行权威数据安全分类分级服务提供方,多形式支撑全行数据安全全生命周期保护。

    ▎案例4:中国建设银行数据安全治理实践
    自《数据安全法》和《个人信息保护法》发布以来,建设银行高度重视数据安全治理建设工作,结合国标、行标以及行内的数据安全管理现状,建设银行围绕数据安全“管理、保护、运维”三个方面,明确由17个领域组成的数据安全治理体系,形成覆盖前中后台的安全管理三道防线,协同推进实施安全策略。

    数据分类分级是保障数据安全的重要基础,建设银行基于行业标准制定了数据安全分级标准规范,并自主研发数据安全自动化定级模型,通过机器学习等方法实现数据安全等级的自动化初判,目前已初步完成数据湖仓、部门业务系统100余万数据项的自动化定级,并推动总行部门对定级结果进行复核和发布。

    ▎案例5:中国建设银行数据访问控制安全平台建设实践
    中国建设银行构建较为完备的数据安全防护体系,通过密码服务组件解决数据存储和传输安全,基于数据安全组件、虚拟化终端、终端安全、数据防泄漏、数字水印、数据脱敏、零信任云工作平台等安全组件和服务,实现安全可控的数据使用环境。

    为实现更细粒度的数据安全访问控制和动态脱敏能力,建设银行搭建数据访问控制平台,以快速应对业务变化和监管合规、快速落地访问控制需求,以企业级平台的方式,为应用提供基于业务逻辑的细颗粒度隐私数据保护能力。

    ▎案例6:国信证券数据安全治理实践
    为满足监管要求、提高客户信心、提升业务保障,国信证券开展数据安全治理项目,从时间(数据采集->数据存储->数据传输->数据使用->数据共享->数据销毁)和空间(物理层->网络层->存储层->应用层)两个视角开展数据安全防护工作,数据安全贯穿于数据全生命周期和各个物理边界。

    ▎案例7:中国铁塔数据安全治理实践
    中国铁塔使用多源异构数据治理技术对各业务信息、安全设备信息等,统一标准化数据接口,实现多源数据归集、数据标准化、数据融合,为数据生命周期安全整合分析提供基础技术。

    通过构建一套以“数据安全治理”为起点,以“数据安全运营”为目标,“管理+技术”融合的数据安全体系化建设,在满足国家法律合规的要求下,基于多源数据资产的识别、多源数据安全信息的整合,运用大数据底层架构,建立基于数据生命周期的安全风险模型,完成基于数据重要程度的风险监测和安全处置联动能力,解决中国铁塔数据安全体系建设难题。

    ▎案例8:蔚来汽车数据安全保护实践
    蔚来汽车在数据安全保护主要面临三类问题,第一,非结构化数据量大且保护难度大;第二数据安全风险面广;第三,数据合规成本高。

    · 对于非结构化数据,蔚来汽车构建隐私保护算法,在保证用户隐私的同时满足业务的使用诉求;
    · 对于数据安全风险面广的问题,蔚来汽车从业务场景和数据资产两方面进行数据安全风险管控,场景端关注数据怎么用,资产端关注数据从哪儿来,通过核心的应用系统桥梁,将场景和数据连接起来;
    · 对于高合规成本,蔚来汽车通过关键要素和流程沉淀知识库,并通过智能技术自动匹配实现知识高效复用,降低合规成本,提高评估效率。

    ▎案例9:江西联通数据安全分级分类平台建设实践
    为解决数据梳理工作中合规要求多、数据变化快、协同工作难等问题,江西联通构建合规和安全双驱动的数据安全体系,包括三大目标、五大体系、八大场景和十五大产品,具体来看:

    • 三大目标:包括数据安全防护、数据监管合规和数据安全流通;

    • 五大体系:为了满足以上三大目标,需要五大体系作为支撑、实现有效配合,包括数据安全管理体系、数据安全组织体系、数据安全合规体系、数据安全技术体系和数据安全运营体系;

    • 八大场景:数据安全与业务场景和流程息息相关,解决方案需要紧贴场景,目前数据安全体系可满足生产、办公、运维、开发、测试、数据内部共享、数据外部流转、数据出境等业务应用场景。

    • 十五大产品:包括两大基础平台、九大能力子系统和四大管理平台。

    ▎案例10:中国移动个人信息保护体系建设实践
    由于业务场景复杂、涉及角色众多,中国移动个人信息保护工作面临诸多痛点,对此,中国移动参考相关国家标准模型,以“明确红线零容忍、安全发展统筹兼顾、分类分级差异化管控、务实求效形成常态”为原则,从组织机制、管理制度、技术能力、运营机制四个维度建立个人信息保护体系,保证对于各项业务活动中个人信息保护的全面性、规范性和适宜性,保障大数据安全合规有序地为中国移动转型发展助治赋能,同时推动实现数据要素市场化,将中国移动大数据服务能力赋能各行各业。
    `

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注