人工智能(AI)和机器学习(ML)对当今中小型企业的潜在好处是不可否认的,但它们的迅速采用也引发了法律问题。一些陷阱是由于人工智能算法的偏见、持续的数据隐私泄露以及知识产权所有权的保留。
为了应对这些挑战,公司可以采取积极主动的措施,例如审查潜在的人工智能供应商,制定收集数据的标准,实施强大的数据安全措施,以及为所有人工智能和机器学习驱动的流程和系统定义和执行协议。这些措施将有助于企业利用人工智能和机器学习的力量,同时维护其法律利益,维护公众信任,维护企业责任。
人工智能和机器学习的快速发展
在过去的几年里,人工智能和机器学习的增长呈指数级增长,迅速重新定义了技术格局和人们的互动方式。ChatGPT在商业和个人使用中已经无处不在,就像智能手机改变了人们的工作和生活方式一样。根据Statista的数据,2024年人工智能市场增长超过1840亿美元,比2023年增长500亿美元,到2030年,美国市场预计将增长超过8260亿美元。
随着这种大规模的市场重组,企业正在研究在其产品、服务和运营中使用生成式人工智能和机器学习的潜在用例。但伴随这种热情而来的是真正的担忧,即这些新算法可能训练的个人数据可能会侵犯隐私,以及需要适当的控制措施来保护数据和专有信息。
设置参数
当在商业计划中实施人工智能和机器学习时,公司可以通过关注几个问题来避免这些潜在的陷阱,包括人工智能和机器学习偏见,当偏见蔓延到算法编程中时,就会发生这种情况。例如,当使用某些人口统计数据训练算法时,这是一个常见的问题。例如,亚马逊在2018年放弃了基于人工智能的招聘工具,因为它发现其可追溯到4年前的算法偏向于男性而不是女性候选人。
2020年5月,美国公民自由联盟(ACLU)、伊利诺伊州公民自由联盟(ACLU of Illinois)和埃德尔森个人律师事务所(Edelson PC)起诉人脸监控公司Clearview ai,指控其侵犯了伊利诺伊州生物识别信息隐私法(BIPA)规定的伊利诺伊州居民的隐私权。明视人工智能使用面部识别软件从在线照片中“抓取”或提取了超过100亿个面部指纹。在被起诉之前,该公司计划将这项技术出售给私营公司。2022年,双方达成和解,永久禁止明视人工智能在全国范围内向企业和大多数私营公司提供其面部指纹数据库,无论是免费还是盈利。
美国公民自由联盟(ACLU)言论、隐私和技术项目副主任内森·弗里德·韦斯勒(Nathan Freed Wessler)表示,和解协议“表明,强有力的隐私法可以提供真正的保护,防止滥用。”明视公司不能再将人们独特的生物识别信息作为不受限制的利润来源。其他公司应该明智地注意到这一点,其他州也应该效仿伊利诺伊州,制定强有力的生物识别隐私法。”
在无意中创建算法时,不引入偏见是很困难的。尽管如此,公司在使用快速评估方法(REM)处理数据时,可以使用专门设计的工具来发现算法中的偏差漏洞,例如IBM watson .ai。IBM数据和人工智能软件产品管理副总裁塔伦·乔普拉(Tarun Chopra)在谈到watson . AI时说。“所有人工智能用例的核心是数据,但更重要的是访问和处理所需的数据,以从人工智能模型中获得最佳结果。企业需要能够将计算能力和人工智能模型带到企业数据创建、处理和消费的地方,以支持人工智能用例,包括传统的人工智能和机器学习(ML)工作负载以及生成式人工智能。”
预先知识产权协议
除了对偏见的担忧,公司还可以关注如何驾驭所有权。这包括确保版权和获得明确的合同协议,以避免法律纠纷。如果公司愿意对其方法保持透明,那么包括人工智能或机器学习系统如何训练数据以及选择加入或退出流程的合同并不难实施。
对于组织来说,认识到已经存在的关于法规和遵从性的法律标准也是有益的。例如,在医疗领域,有《健康保险流通与责任法案》(Health Insurance Portability and Accountability Act, HIPAA)遵从性检查表,除其他事项外,它要求公司指定一名HIPAA隐私官“负责开发、实施和执行符合HIPAA的政策”。该策略还通过用其他值替换密钥标识符来确保电子传输数据被加密或匿名化。
虽然美国还没有直接监管人工智能的全面立法,但根据《加州消费者隐私法》(CCPA)和欧盟的《通用数据保护条例》(GDPR),一些规则限制了公司如何使用和共享数据。此外,2023年的《算法问责法》(Algorithmic Accountability Act)要求公司评估它们使用和销售的人工智能系统的影响,并在何时以及如何使用这些系统方面建立新的透明度。
驾驭未来
随着人工智能和机器学习技术的发展,越来越多的监管将不可避免地成为未来格局的一部分,特别是在用于训练这些系统的数据方面。公司可能会看到监管规定,限制任何人简单地从互联网上抓取和处理任何信息,而不会产生任何后果。企业还应该期待有关人工智能和机器学习道德的额外法规,要求在允许使用这些工具之前进行验证,以及所需的认证和带有免责声明的协议。此外,在管理这些系统时,必须建立机制以确保人为监督。
为了在实施人工智能和机器学习工具时避免法律陷阱,公司需要在遵守数据隐私和法规时保持警惕。同样重要的是要了解这是一个快速发展的领域,新的规则和法规将继续增长。企业可以投资于算法偏见检测,并推广良好的法律策略,例如在获取数据时确保协议的强大许可和版权。有了强大的协议,随着技术的进步,利用这些强大工具的组织将能够熟练地确保他们的培训模型安全有效。