
我们感谢Rimon Law的合伙人,Esq.,FAI,John Isaza分享了他的故事和有价值的见解,包括不断变化的法律环境,隐私保护和创新之间微妙的平衡以及整合人工智能工具时产生的独特法律影响。
John提供了有关像ChatGPT这样的AI技术面临的挑战和考虑的有价值的观点,强调了数据治理,道德使用以及遵守隐私法律的重要性。此外,他还分享了自己在推出Virgo方面的第一手经验,这是一种基于云的软件解决方案,旨在解决隐私和信息治理的特定需求。
探索法律、隐私和创新的交汇点:见解和策略
是什么激发了您对法律和隐私/信息治理交汇点的兴趣?
我一直被未知的领域所吸引,以保持事情的有趣性。我在2001年开始从事信息治理,当时记录和信息管理主要集中在纸质记录实践上。但是,我的老板鼓励我专注于电子记录和数据,他认为这是未来的趋势。因此,我决定成为电子领域的专家。这使我担任了各种领导职务,包括信息治理专业认证委员会主席。该委员会的任务是监督记录管理行业向包括隐私在内的更广泛的信息治理转型,还包括数据安全、电子发现、系统架构、基础设施和传统记录管理等关键学科。
您如何了解隐私法律和法规的最新发展和变化?
这不是一项小任务。像ARMA、ABA和IAPP这样的贸易组织是跟踪最新进展的好资源。作为ABA消费者隐私和数据分析分委会的主席,我还有机会利用各种对该主题非常感兴趣的法律专业人士的才能和经验。我们经常合作出版物和演讲,这迫使我们紧跟最新发展。
您如何平衡数字时代隐私保护和创新之间的平衡?
这就是我作为企业家的经验最有帮助的地方。我们必须平衡严格甚至有时是苛刻的监管措施和保持照明和盈利的现实之间的关系。作为法律顾问,我的工作是向客户指出他们的选择和与每个选择相关的后果。最终,对于客户来说,隐私合规问题归结为基于风险的决策,例如基于市场上所提供产品的大小以及何时以及如何删除的隐私请求。
推出Virgo:解决隐私和法律合规的云软件
是什么激发了您推出基于云的软件Virgo,并如何满足隐私和信息治理的需求?
Virgo不仅可以为全球法律要求提供记录保留,还可以提供隐私法规、格式、位置、处理和时效要求。然后,这些法规将被映射到组织的记录中,我们称之为“大桶”,这些大桶将被分配指定的保留期限,这些期限受到适用于给定大桶的映射法规的影响,除了最佳实践的考虑。
总的来说,Virgo管理组织的记录保留计划,这不仅是电子发现的第一道防线,而且还可以在面对隐私删除请求或一般隐私要求处理不再需要的情况时进行合理的保留。
当我们试图将这个领域的数十万条法规映射到每个组织的记录时,我和Virgo的联合创始人决定推出Virgo,因为这变得难以管理。有趣的是,我们通过利用现代人工智能工具的前身——翻译工具,与像Baker& McKenzie这样的全球律师事务所保持了竞争力。我们的研究不仅更好,而且价格只是巨大律师事务所可能向客户收费的一小部分。
在您推出基于云的软件Virgo时,您是如何应对与隐私和数据保护相关的法律和合规问题的?
随着像波音、微软或NASA这样的大公司订阅我们的软件,隐私和数据保护变得越来越重要。每个公司都有严格的数据安全合规要求,这迫使我们采用最严格的安全标准,从而更容易在全面推销软件。最初的几个公司非常痛苦,但之后变得容易得多。一旦您符合了高水平要求,就更容易应对当地或区域要求。
人工智能的法律环境:挑战与趋势
作为电子发现、隐私和信息治理方面的专家,您如何看待通过像ChatGPT这样的人工智能技术的应用,法律环境的演变?
法律环境已经开始形成,由欧盟提出的AI法案引领其中。AI法案制定了一个良好的起始监管框架,预示着其他国家在寻求利用和设置AI使用限制方面可能采取的下一步行动。现实是,AI提供商需要习惯于应对可能冲突的监管要求,这将导致类似于我刚才在隐私合规方面描述的基于风险的方法。
您能分享一些在将人工智能技术集成到像ChatGPT这样的应用程序中出现的特殊法律挑战和考虑因素吗?
首先,让我们区分公共AI工具和私人AI工具。公共AI工具(如ChatGPT、Google的Bard、微软的Bing或Dall-E)在数据完整性方面面临着最大的挑战,因为样本数据可能来自于多年来从公共互联网挖掘的未经审查的数据。这引起了一些担忧,例如不仅结果的有效性,而且还可能存在版权、商标和其他法律责任问题。公共AI工具还提供严重的机密性挑战,组织需要通过政策和培训立即解决这些挑战,以防止员工将私人或机密信息输入到公共AI工具中,这些工具本质上摄入输入的任何数据,并且任何世界上的人都可以看到。
私人AI工具的挑战主要在于使用干净和准确的训练数据集,以避免旧有的“垃圾进垃圾出”困境。
在两种情况下,工具需要经过人类测试,以排除可能导致算法诽谤或歧视的偏见。
在实施像ChatGPT这样的人工智能技术时,企业应该了解哪些关键的法律和监管框架?
目前,除了正在经历审批过程的欧盟AI法案外,没有太多的监管框架。纽约市也有一项法律,但是可以猜想,美国在州乃至联邦层面还有更多的监管措施即将出台。
目前,我会密切关注欧盟AI法案,正如我之前提到的,它似乎有一个良好的起始框架,可以帮助至少确定哪些AI用途被认为是高度敏感的,因此需要更严格的审查。
在特定的行业领域或使用案例中,ChatGPT集成的法律影响更加突出吗?如果是,您能提供一些例子吗?
仅通过查看欧盟AI法案,就可以快速分辨出将受到最严格审查的用途。例如,所谓的“高风险”AI系统应用包括可能危及公民生命或健康的重要基础设施、影响教育或职业培训的人的教育或职业生涯道路、机器人辅助手术、就业招聘、信用评分、刑事证据评估、移民、庇护或边境管制决定,以及对某些事实的法律应用。
《AI法案》还列举了“有限风险”和“最小风险”示例,除了禁止利用人类行为的“不可接受风险”系统。在执行方面,细节将决定一切,但正如我所提到的,这是监管执行框架的开始,因此需要指导。
在数据治理方面,您建议那些利用AI技术确保数据隐私法律和法规合规的组织采取哪些最佳实践?
以下是我向组织推荐的清单:
- 跟踪旨在控制AI使用的国际法律
- 警惕数据错误以及保护的知识产权,尤其是图像和音频视觉的使用
- 在任何生成AI合同中包括反偏见语言义务
- 合同义务所有供应商不得在没有人工事实核查的情况下使用AI
- 获得承诺和合同,保证培训数据使用的合法性
- AI使用者需要注意,AI的输出不会显示出触发歧视法的偏见
- 使用可解释AI(XAI)来理解假设
- 尤其要注意用于就业决策、信用评估、医疗资源和监禁的AI使用
- 生成的AI模型需要在培训阶段和输出开发阶段进行监控
在内部使用方面,我还建议:
- 评估组织内部AI的当前使用情况
- 确定组织内AI的最高和最佳用途
- 培训提醒员工和供应商不要使用外部/公共AI工具的敏感数据
- 通过政策创建防护措施,限制AI的使用,并修改可能与AI相交的现有政策
- 审查可能涉及AI使用的供应商协议
- 评估可能受益于AI使用的产品、服务或业务模型的变化
企业如何解决AI模型(如ChatGPT)可能引起的偏见和歧视,以确保公平并避免法律问题?
我在这里给出的最佳建议是,确保所有输入和输出都经过人工审核,特别是如果输出将用于组织的关键职能或发布到外界。如果算法将用于招聘、晋升、加薪或解雇决策,则需要格外小心。同样,信用评分、评估或其他可能影响个人财务状况的潜在用途也应受到特别关注。
确保AI驱动工具的道德和合法使用
企业如何确保在尊重用户隐私和数据保护法律的同时,道德和合法地使用像ChatGPT这样的AI驱动工具?
在这个领域,与之前的热门技术(如电子邮件、社交媒体、即时消息和短信)一样,组织需要通过政策、程序和培训来制定防护措施以限制员工的使用。在开发AI应用程序方面,还需要实施政策、程序和指南,以确保输入级别的数据卫生和输出级别结果的审查。
开发人员和产品经理在将ChatGPT集成到应用程序中时,特别是在医疗保健或金融等敏感领域,是否有任何特定的法律或道德准则应遵循?
问题11的回答是一个开始。此外,使用ChatGPT是使用公共工具的例子,这意味着任何输入的数据都将公开。因此,使用公共AI工具的最大法律或道德问题是潜在的保密性或商业机密的丧失。如果将公共AI工具纳入业务中,请注意保护商业机密和保密性。
展望未来
在人工智能和聊天机器人技术中可以预见哪些法律趋势,组织应该如何应对这些复杂性?
我预计在这个领域会出现大量的监管措施,因此暂时要紧跟每一个提议的法规或发布的指南。这将告诉你热点在哪里,以及基于什么正在受到监管,你的商业模式是否可能成为监管的目标。沿着这些线路,密切关注联邦贸易委员会等联邦机构对该主题的讨论或信息。