商业澳洲 澳洲法律 Deepfake选举风险引发欧盟呼吁采取更多生成性人工智能保障措施

Deepfake选举风险引发欧盟呼吁采取更多生成性人工智能保障措施

欧盟警告称,需要采取更多措施来解决广泛使用的生成式人工智能工具可能给民主社会的自由和公平辩论带来的风险,欧盟价值观和透明度专员强调人工智能生成的虚假信息是对未来选举的潜在威胁明年泛欧盟投票选出新一届欧洲议会。

Vera Jourova 在今天的演讲中介绍了欧盟自愿《虚假信息行为准则》的最新情况,她对一些主流平台通过实施保障措施告知用户“在线发布内容的合成来源”来解决人工智能风险的初步努力表示欢迎正如她所说。但他表示还必须做更多的事情。

“考虑到这种现实的人工智能产品在创造和传播虚假信息方面的巨大潜力,这些努力需要继续并加强。在选举背景下风险尤其高,”她警告说。“因此,我敦促平台保持警惕,并在选举背景下为此提供有效的保障。”

欧盟专员指出,她今天晚些时候将与 ChatGPT 制造商 OpenAI 的代表会面,讨论这个问题。

这家人工智能巨头尚未签署欧盟反虚假信息准则,因此可能面临加入这一努力的压力。

这位委员今天就生成式人工智能发表了讲话,此前她在今年夏天对平台施加了最初的压力,当时她敦促签署者给深度伪造品和其他人工智能生成的内容贴上标签——呼吁代码签署者创建一个专门且单独的轨道来解决“人工智能生产”问题,并打趣道机器不应该有言论自由。

即将出台的泛欧盟人工智能法规(又名《欧盟人工智能法案》)预计将使用户披露成为对人工智能聊天机器人等生成人工智能技术制造商的法律要求。尽管仍处于立法草案状态,但仍是欧盟共同立法者谈判的主题。此外,该法律一旦通过,预计几年内不会适用,因此委员会已将《准则》作为权宜之计,鼓励签署者积极主动地披露深度造假信息,预计在未来。

继去年努力加强《反虚假信息守则》后,委员会还明确表示,它将把遵守不具有法律约束力的《守则》视为遵守(硬性法律)要求的有利信号,这些要求适用于受数字法律约束的大型平台。服务法案 (DSA) — 泛欧盟数字监管的另一项重要内容,要求所谓的超大型在线平台 (VLOP) 和搜索引擎 (VLOSE) 评估和减轻与其算法相关的社会风险(例如虚假信息) 。

Jourova 今天表示:“即将举行的全国选举和欧盟选举将是对准则的一次重要考验,平台签署者不应失败。”并警告说:“平台需要认真承担自己的责任,特别是考虑到 DSA 要求它们以减轻他们给选举带来的风险。

“DSA 现在具有约束力,所有 VLOP 都必须遵守它。该准则是 DSA 的基础,因为我们的目的是将实践准则转变为行为准则,使其成为应对虚假信息风险的共同监管框架的一部分。”

虚假信息守则签署者的第二批报告已于今天发布,涵盖一月至六月期间。截至撰写本文时,欧盟虚假信息代码透明度中心仅提供少数报告下载 ,其中包括来自谷歌、Meta、微软和 TikTok 的报告。

欧盟表示,这是该准则自2018 年制定以来,签署方编写的最全面的报告。

欧盟自愿反虚假信息守则共有 44 个签署方,不仅涵盖上述巨头等主要社交媒体和搜索平台,还涵盖广告行业的实体和参与事实核查的民间社会组织。

谷歌

在生成人工智能方面,谷歌的报告讨论了“大规模人工智能模型的最新进展”,并表示这“引发了有关人工智能社会影响的更多讨论,并引发了对错误信息等话题的担忧”。这家科技巨头是通过其Bard 聊天机器人在搜索领域采用生成式人工智能的早期采用者。

“谷歌致力于负责任地开发技术,并发布了人工智能原则来指导我们的工作,包括我们不会追求的应用领域,”它在该主题的总结中写道,并补充道:“我们还建立了一个治理团队,将其付诸行动通过对新系统进行道德审查,避免偏见并纳入隐私、安全和保障。

“谷歌搜索发布了有关人工智能生成内容的指南,概述了其维持高标准信息质量和搜索内容整体有用性的方法。为了帮助解决错误信息,谷歌还宣布很快将把水印、元数据和其他技术的新创新集成到其最新的生成模型中。

“谷歌最近还与其他领先的人工智能公司一起,共同致力于推进人工智能开发中负责任的实践,这将支持七国集团、经合组织和各国政府的努力。展望未来,我们将继续报告和扩展谷歌开发的人工智能工具,并致力于推进大胆和负责任的人工智能,最大限度地发挥人工智能的优势并最大限度地降低其风险。”

谷歌的报告称,在接下来的六个月内,它没有计划对 YouTube 采取其他措施。但是,随着明年在内部推出生成图像功能,它承诺 Google 搜索将利用 IPTC 照片元数据标准将元数据标签添加到 Google AI 生成的图像中。

谷歌的报告进一步指出:“创作者和出版商将能够向自己的图像添加类似的标记,因此可以在搜索中显示标签,以指示人工智能生成的图像。”

微软

微软是OpenAI 的主要投资者,该公司也将生成式人工智能功能融入到自己的搜索引擎中,微软声称它正在采取“跨产品的整体公司方法来确保负责任地实施人工智能”。

其报告强调了“负责任的人工智能原则”,并表示该原则已发展成为负责任的人工智能标准 v.2 和信息完整性原则,“以帮助制定跨产品团队的基线标准和指导”。

“认识到政府、学术界和民间社会在负责任地部署人工智能方面可以发挥重要作用,我们还制定了全球人工智能治理路线图,并为负责任地推进人工智能制定了愿景,微软继续说道,承诺继续努力,包括开发新工具(例如与 Truepic 合作的 Project Providence)和建立合作伙伴关系(它给出的例子包括内容联盟来源和真实性 (C2PA),以打击受操纵或人工智能创建的媒体的兴起;EFE Verifica 追踪在西班牙、拉丁美洲和西班牙语人群中传播的虚假叙述;和无国界记者组织在 Microsoft 产品中使用其新闻信任倡议数据集)。

它表示:“这些合作伙伴关系是让微软用户更好地了解他们在我们的平台和产品中消费的信息的更大努力的一部分。”它还引用了在媒体素养活动和“网络技能”方面所做的努力,并称这些努力是“并非旨在告诉个人该相信什么或如何思考;相反,它们是为了让人们能够批判性地思考,并就他们消费的信息做出明智的决定”。

在必应搜索上,微软很快就嵌入了生成式人工智能功能,这导致了一些令人尴尬的早期评论,表明该工具产生了可疑内容。该报告声称,它已采取了一系列措施来降低风险,包括在开发和咨询过程中应用其人工智能原则与专家一起;参与发布前测试、有限预览期和分阶段发布;使用分类器和元提示、防御性搜索干预、增强的报告功能以及增加的操作和事件响应;以及更新 Bing 的使用条款以纳入用户行为准则。

该报告还声称微软已经建立了“强大的用户报告和上诉流程,以审查和回应用户对有害或误导性内容的担忧”。

在接下来的六个月中,该报告并未要求必应搜索采取任何具体的额外措施来解决使用生成式人工智能所带来的风险——微软只是表示,它正在保持观察简报,写道:“必应正在定期审查和评估其政策,与现有和新的 Bing 功能相关的实践,并根据需要调整和更新政策。”

抖音

在其报告中,TikTok 在确保其服务的“完整性”的背景下重点关注人工智能生成的内容 – 标记了最近对其社区准则的更新,该准则还修改了其合成媒体政策“以解决创建或使用的内容的问题”。在我们的平台上通过人工智能技术进行修改”。

“虽然我们欢迎新人工智能可能释放的创造力,但根据我们更新的政策,当他们的内容是人工智能生成或操纵但显示真实场景时,用户必须主动披露,”它还写道。“我们将继续打击秘密影响行动 (CIO),我们不允许试图影响公众舆论,同时在账户的身份、来源、操作地点、受欢迎程度或用途方面误导我们平台的系统或社区。”

“首席信息官会根据我们的检测不断发展,网络可能会尝试在我们的平台上重新建立存在。这就是为什么我们继续迭代研究和评估复杂的欺骗行为并开发适当的产品和政策解决方案。我们将继续在本报告以及此处的透明度报告中提供有关我们识别和删除的 CIO 网络的信息,”它补充道。

TikTok 报告中的第 15 项承诺表明该平台“考虑透明度义务以及《人工智能法案》提案中禁止的操纵行为清单”——这里列出了作为 AI 合作伙伴关系的启动合作伙伴(PAI)“合成媒体的负责任实践”(并促进“相关实践”的发展);并加入“新的相关团体”,例如本月开始工作的生成人工智能工作组,作为实现这一承诺的具体措施。

该公司表示,在未来六个月内,希望进一步加强合成媒体政策的执行力度,并在这一领域(包括用户教育领域)探索“新产品和举措,以帮助增强我们的检测和执行能力”。

Meta

Facebook 和 Instagram 母公司 Meta 的报告还承认“生成式人工智能工具的广泛使用和采用可能会对我们如何识别和处理平台上的虚假信息产生影响”。

Meta 继续说道:“我们希望与政府、工业界、民间社会和学术界的合作伙伴合作,确保我们能够开发出强大、可持续的解决方案来解决人工智能生成的错误信息。”并指出它已经签署了 PAI 的负责任实践Synthetic Media 声称该公司“致力于跨行业合作,帮助维护用户在线信息环境的完整性”。

Meta 补充道:“此外,为了让更多的人参与到这一过程中,我们正在发起一个关于生成式 AI 的社区论坛,旨在就人们希望在新的 AI 技术中看到的原则提供反馈。” “它将与斯坦福协商民主实验室和行为洞察团队协商后举行,并且与我们共享人工智能模型的开放式协作方法一致。作为该准则生成人工智能工作组的成员,我们期待着扩大这项工作,并期待与其他成员合作。”

Meta 表示,在接下来的六个月中,它希望“与欧洲和世界各地的政府、工业界、民间社会和学术界的合作伙伴合作,确保我们能够开发出强大、可持续的解决方案来应对人工智能生成的错误信息”,并补充道:“我们将参加根据欧盟行为准则新成立的人工智能生成虚假信息工作组。”

克里姆林宫的宣传

朱罗娃今天还警告说,各平台必须集中力量打击克里姆林宫宣传的蔓延,包括在明年欧盟选举迫在眉睫、俄罗斯可能加大选举干预力度的背景下。

“我向签署者传达的主要信息之一是要了解背景。俄罗斯对乌克兰的战争以及明年即将举行的欧盟选举尤其重要,因为虚假信息的风险特别严重,”她说。“俄罗斯国家参与了思想战,用半真半假的事实和谎言污染我们的信息空间,制造出民主并不比独裁更好的错误形象。

“今天,这是一种价值数百万欧元的大规模操纵武器,针对俄罗斯内部、欧洲和世界其他地区。我们必须解决这个风险。超大型平台必须解决这一风险。尤其是我们必须预期克里姆林宫和其他方面将在选举前表现活跃。我希望签署者调整他们的行动,以反映信息空间中存在着一场针对我们的战争,并且即将到来的选举中,恶意行为者将试图利用平台的设计功能进行操纵。”

根据委员会对大型科技公司代码报告的早期分析,YouTube 在 2023 年 1 月至 4 月期间关闭了 400 多个频道,这些频道参与了与俄罗斯国家资助的互联网研究机构 (IRA) 相关的协调影响行动。它还删除了近 300 个与国家资助的宣传网站链接的网站上的广告。

欧盟强调,TikTok 的事实核查工作现已涵盖俄语、乌克兰语、白俄罗斯语和 17 种欧洲语言,包括通过与路透社建立新的合作伙伴关系。“在此背景下,832 个与战争相关的视频已经过事实核查,其中 211 个已被删除,”朱罗娃指出。

欧盟还指出了微软的报告,该报告称必应搜索在与乌克兰危机相关的近 80 万个搜索查询中要么提升了信息,要么降低了可疑信息的等级。

朱罗娃的演讲还强调了她敦促《守则》签署方走得更远的其他几个领域——(再次)呼吁在事实核查方面进行更加一致的节制和投资,特别是在较小的成员国和语言方面。

她还批评平台过度获取数据,称它们必须加大力度,确保研究人员有权审查虚假信息流,“并为必要的透明度做出贡献”。

在这两个领域,新东家埃隆·马斯克 (Elon Musk) 领导下的 X/Twitter 都与欧盟打击虚假信息的期望背道而驰。

Twitter(现在的 X)是《虚假信息准则》的最初签署者,但随着欧盟对他的行为进行严格审查,马斯克在 5 月份取消了该平台的签署计划。今天,正如我们之前报道的那样,朱罗娃提请人们注意一些剩余签名者进行的早期分析,她说这些分析发现X 在虚假​​信息比率方面表现最差。

这表明,X早在 4 月份就被欧盟指定为 DSA 下的 VLOP,它继续将自己直接置于委员会的瞄准目标上——包括解决克里姆林宫宣传的优先问题。

除了制定《反虚假信息准则》外,欧盟高管现在还负责监督 VLOP 遵守 DSA 的情况,根据新法律,违规者有权处以最高全球年营业额 6% 的罚款。

文章来源:TechCrunch

原文链接:https://blog.csdn.net/everydaynews/article/details/133354713?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170018760216800184155654%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170018760216800184155654&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-3-133354713-null-null.nonecase&utm_term=AI%E6%B3%95%E5%BE%8B%E5%92%A8%E8%AF%A2

作者: 知澳头条

知澳资深作者

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

1300766331

邮箱: info@getau.com.au

澳洲本地网站设计开发团队 超20人团队,悉尼设计开发14年 联系电话:1300766331 微信: XtechnologyAU
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部