信息专员办公室(ICO)敦促企业在采用生成式人工智能技术时优先考虑隐私问题。
根据最新研究,生成式人工智能有潜力在未来十年内成为一个价值 1 万亿英镑的市场,为企业和社会带来巨大利益。然而,ICO 强调组织需要意识到相关的隐私风险。
ICO 监管风险执行董事 Stephen Almond 强调了认识生成式人工智能带来的机遇同时了解潜在风险的重要性。
“企业正确地看到了生成式人工智能提供的机会,无论是为客户创造更好的服务还是降低服务成本。但他们不能对隐私风险视而不见。”阿尔蒙德说。
“从一开始就花时间了解人工智能如何使用个人信息,减轻你意识到的任何风险,然后满怀信心地推出你的人工智能方法,确保它不会让客户或监管机构感到不安。”
生成式人工智能的工作原理是根据从公共可访问来源(包括个人信息)收集的大量数据来生成内容。现有法律已经保护个人权利,包括隐私,这些法规还扩展到生成人工智能等新兴技术。
四月份,ICO 概述了使用或开发处理个人数据的生成式人工智能的组织应该问自己的八个关键问题。监管机构致力于对不遵守数据保护法的组织采取行动。
Almond 重申了 ICO 的立场,表示他们将在实施生成式人工智能之前评估企业是否有效解决了隐私风险,如果滥用个人数据可能造成损害,他们将采取行动。他强调,企业不能忽视生成式人工智能的推出过程中对个人权利和自由的风险。
“在引入生成式人工智能之前,我们将检查企业是否已经解决了隐私风险,并在数据使用不当可能对人们造成伤害的情况下采取行动。在推出之前,没有任何理由忽视人们权利和自由面临的风险。
“企业需要向我们展示他们如何应对在其环境中发生的风险——即使底层技术是相同的。例如,与健康诊所相比,人工智能支持的聊天功能可以帮助电影院的顾客提出不同的问题。”
ICO 致力于支持英国企业开发和采用优先考虑隐私的新技术。
最近更新的《人工智能和数据保护指南》为生成式人工智能的开发人员和用户提供了综合资源,为数据保护合规性提供了路线图。此外,ICO 还提供风险工具包,帮助组织识别和减轻与生成人工智能相关的数据保护风险。
对于面临新的数据保护挑战的创新者,ICO 通过其监管沙箱和创新建议服务提供建议。为了加强他们的支持,ICO 正在与数字监管合作论坛合作试行多机构咨询服务,旨在为多个监管机构向数字创新者提供全面指导。
虽然生成式人工智能为企业提供了巨大的机会,但 ICO 强调需要在广泛采用之前解决隐私风险。通过了解影响、降低风险并遵守数据保护法,组织可以确保以负责任且合乎道德的方式实施生成式人工智能技术。
原文链接:https://blog.csdn.net/specssss/article/details/131539453?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170018760316800180688983%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170018760316800180688983&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-9-131539453-null-null.nonecase&utm_term=AI%E6%B3%95%E5%BE%8B%E5%92%A8%E8%AF%A2