今天是美国时间2023年4月17日。
Dan Felz(Alston & Bird隐私和数据安全实践的合伙人)、Wim Nauwelaerts(Alston & Bird管理合伙人,领导欧洲隐私、网络和数据战略团队)、Paul Greaves(Alston & Bird资深律师,隐私、网络和数据战略团队的成员)以及Joshua Fox(Alston & Bird律师)在2023年4月14日在Law.Com联合发表了题为《ChatGPT & Generative AI: Everything
You Need to Know》(ChatGPT和生成型人工智能:你需要了解的一切)的文章。该文章全面分析了当公司考虑使用生成式人工智能工具时,应考虑的法律问题。今天的AI&LAW将分享他们提到的这些法律问题,enjoy:
1. 合同签订方和可行性
生成式人工智能提供商通常会使其工具易于获取,这可能会导致签署合同方面的混淆。公司员工可以注册生成式人工智能工具,其使用可能部分是为工作,部分是为个人使用。而公司采购部门不知道,这就绕过公司的尽职调查和合同流程。
因此,公司应确保采购职能部门知晓员工注册,并遵循尽职调查和合同流程。
2. 保密
生成式人工智能是自学习技术,可能会引起保密问题。公司应意识到输入和输出可能成为该人工智能工具的一部分,并可提供给公司外部的其他人。在有选择的情况下应使用选择退出选项,不应输入保密信息。
3. 知识产权
生成式人工智能在知识产权方面的风险包括可能侵犯第三方知识产权、使用开源软件以及对由AI驱动的工具创作的知识产权权利不清晰。
对于由AI创建或协助创建的作品或发明,公司不应假设可以为之注册获得知识产权保护,并应避免在没有适当许可的情况下使用受版权保护的材料。
4. 网络安全
生成式人工智能通过摄取用户输入以改进模型的方法可能会带来网络安全风险。因此,公司应确保员工遵循安全软件开发流程,并扫描由AI创建的代码以查找漏洞。
5. 隐私和数据保护
公司在使用生成式人工智能时应考虑隐私和数据保护法律。输入到这些工具中的个人数据可能会影响隐私合规性,并且不清楚数据是否可以从生成式人工智能模型中删除。
公司必须根据相关隐私法对提供商进行分类,并可能需要针对高风险使用情况进行数据保护影响评估。
6. 准确性和可靠性
生成式人工智能工具目前尚不完全可靠和准确,需要进一步人工审核以确保输出的准确性。
7. 偏见
由于训练数据集中固有的偏见,生成式人工智能可能存在偏见,这可能对监管合规性和消费者影响构成风险。
8. 律师与客户之间的保密特权
在使用生成式人工智能工具时,如果将律师与客户之间的保密信息放置其中,在某些司法管辖区可能会视为放弃此类律师与客户之间的保密特权。使用此类工具前,法律部门应考虑此风险。
9. 责任限制
生成式人工智能提供商通常会限制其责任,并要求免责。公司应仔细审查责任条款。
来源:ChatGPT & Generative AI: EverythingYou Need to Know