在我这里,我们有一台 Linux 机器,我们的员工和外部公司可以在上面放下和获取数据。目前我们只允许 ssh、scp 和 sftp。不幸的是,我们处理大量的丢弃和数据,人们在完成后永远不会删除文件,从而导致存储问题。将敏感数据留在可以被外部访问的机器中存在很大风险,我们已经在实施数据保留策略。我知道这种情况并不少见,那么有没有专门为处理这种情况而开发的软件呢?
在我这里,我们有一台 Linux 机器,我们的员工和外部公司可以在上面放下和获取数据。目前我们只允许 ssh、scp 和 sftp。不幸的是,我们处理大量的丢弃和数据,人们在完成后永远不会删除文件,从而导致存储问题。将敏感数据留在可以被外部访问的机器中存在很大风险,我们已经在实施数据保留策略。我知道这种情况并不少见,那么有没有专门为处理这种情况而开发的软件呢?
我认为你的根本问题是政策问题,不一定是技术问题。说实话,这是一个我不得不处理的问题,以下是我们如何解决这个问题的。
所有文件都存储在服务器上一个锁定的存储区域中,用户只能准确知道他们需要访问的文件。我们保留 sftp 日志并偶尔对其进行审核。磁盘空间对我们来说不是那么重要,但是这个问题可以通过管理员在截止日期过后记下删除文件或编写一个简单的脚本并在那个时间安排它来解决。
虽然一开始人们有点犹豫,但我们确保我们坚持并执行了政策。您甚至可以编写一个简单的 bash 脚本来通知您机器上的磁盘使用情况并自动删除 X 天未访问的文件。
DKNUCKLES 根据您的尺码有一个很好的解决方案;尽管一定要考虑可伸缩性——一个为 10 个用户工作的高开销进程如果增长到 200 个用户可能会成为一个问题。
他还非常尖锐地指出,这在很大程度上也是一个政策问题。内部 IT 组织如何决定向外部世界开放其资源是一个极其重要的问题,在当今的网络威胁环境中值得深思熟虑的答案。
话虽这么说,有一些技术可能值得一提,但同样,根据您的尺寸,可能不适用:
1.) 基于网络的文件共享/通用投递箱服务。这可能是外部的(如 DropBox 本身),或者为了易于使用和提高安全性,也许可以通过策略驱动的访问模型在内部进行控制和托管
2.) 贵公司与外部实体之间的联合安全模型。如果您是一家大型组织,希望允许您的 Intranet 与知名且受信任的实体(如供应商、子公司等)的 Intranet 之间进行持续交互,则可以使用允许跨 Intranet 信任的联合系统(检查出https://www.pingidentity.com/)
3.) 按照 DKNUCKLES 的建议,如果您决定使用一个严密管理的共享,我可能会建议您使用网络的 DMZ 区域作为您的特殊文件共享(如果您还没有考虑的话)。并且一定要审核它:)
面对同样的情况,我写了一个脚本,删除所有 3 个月未访问的文件,作为 cron 作业运行。
访问权限应涵盖文档敏感性。例如,在我们的系统上,所有私人文件夹都需要身份验证。除了人为因素之外,唯一的实际风险是系统被破坏的明显风险,必须单独解决。