随着大型科技公司在财报中提及生成式人工智能,市场对其潜在好处的热情如火如荼,诸如提升工作效率和在医疗研究方面的突破都是被广泛讨论的焦点。同时,投资也随之增长。Axios 报道称,今年第一季度的生成式人工智能风险投资达到23亿美元,较去年同期的6128亿美元大幅增加。
然而,生成式人工智能的核心在于其所依赖的数据的质量和完整性。因此,当下保护我们使用的数据的完整性变得尤为重要。这意味着企业需要认识到采用这一新技术的隐私影响,并建立清晰的治理政策,以确保与客户和合作伙伴之间的透明和信任。
人工智能已迅速成为一个流行词,很多人将其作为营销工具,实际上他们的含义可能是机器学习指计算机识别和匹配数据中的模式。机器学习在多个行业的商业流程中得到了广泛应用。但生成式人工智能则将此技术提升到了一个新的高度,能够让机器基于大量信息创造出原创内容。
例如,我们公司目前已经使用机器学习来平衡数据存储负载,自动在服务器之间移动信息,以确保所有服务器的负载都保持在性能不受影响的阈值以下。但一个假想的生成式人工智能解决方案可能会分析我们管理下所有服务器的操作,得出提高容量和效率的新结论。比如,它可能会基于所有输入数据得出结论,认为我们可以在寒冷气候的机房中存储更多数据并保持更高的性能,因为机器运作时所需的能量更少。
尽管生成式人工智能带来了令人激动的可能性,我们必须谨慎对待。我们已经见识到一些令人担忧甚至尴尬的事件,比如今年早些时候,两个纽约市律师因引用ChatGPT生成的虚假案例而在法庭上提出诉状,最终导致了广泛的公众关注和5000美元的罚款。为了实现科技的最大潜能,同时防范隐私、安全和准确性方面的风险,我们必须开始绘制一条明确的路线图。
企业长期以来都希望能够从海量数据中提取见解,无论是为了更好地服务客户,还是优化运营。假设我们能够将客户的员工健康保险数据上传至一个人工智能产品,从而给该公司分配一个健康评分,可能帮助其降低保险费用?或者,我们能否提供一个系统,扫描公司所有记录,确定哪些记录是公司必须保留的,以及需要保留多久,然后在监管机构要求的保存期限到期后自动清理这些记录?
这些产品显然能提供显著的好处,但如果不谨慎处理,则很容易触犯各种隐私法律。除非健康数据得到匿名处理,否则员工可能不愿意每次看病的信息都共享给外部实体。许多公司对任何外部实体挖掘他们的数据抱有顾虑,倾向于将数据保存在“床下的保险箱”中。
手机加速器梯子在全球环境中,法律和道德保护个人和公司隐私的需求变得更加复杂。不同地区和国家对隐私有不同的关注,且在许多情况下,保护措施甚至比美国更为严格。隐私侵犯的和解金额可能高达数亿美元,甚至超过10亿美元。
此外,还有其他影响。一旦企业向某项技术贡献了数据,往往就难以控制这些数据。高层管理人员应确保他们事先了解数据的