商业澳洲 澳洲法律 ChatGPT的局限性及商业化应用限制讨论

ChatGPT的局限性及商业化应用限制讨论

首先,ChatGPT仅使用公开可用的信息,这是其第一个局限。如果基础信息缺失、过时、模糊或过于泛化,AI生成的内容就将不会准确。

只有在使用企业内部专有信息和知识创建特定的GPT时,才会出现真正的商业化解决方案。但对企业而言,专有数据至关重要。数据安全咨询公司Cyberhaven的一份报告显示,企业员工与ChatGPT的聊天内容中,有11%属于机密信息。

平均每家公司每周都会向ChatGPT泄露数百次的商业隐私信息。为解决这个问题,许多企业正采取相应措施,有选择地限制员工使用ChatGPT。亚马逊、微软和沃尔玛等公司已向员工发出警告。

ChatGPT的商业化应用在某些行业受限制

Esade专家Esteve Almirall解释道:“在具有明确商业模式、清晰业务模式的公司中(法律、咨询或软件开发行业),ChatGPT的集成应用将迅速推进。

相较于上面提到的集成ChatGPT只为增强自身能力的,还有一些可以由ChatGPT完全替代的行业,如客户服务,但在此行业ChatGPT的集成应用进度会更慢,在竞争较少或没有竞争的行业,ChatGPT集成应用的进度更是龟速,如公共服务。[1]

生成式技术牵涉到一些棘手问题:不好确定输出的内容是真是假,可能造成无法预料的后果。

这种情况可能发生在文本形态,同时也适用于图像生成领域。使用这种生成式技术创建图像可能涉及道德和法律问题。由于AI算法本身依据统计规律和概率去学习训练数据,它有时会对数据中的偏见进行放大。对于生成式内容,相关责任方有义务披露其是由AI生成的,以便人类能够辨别。

此外,这种生成式内容的出现,需要重新思考创造力和知识产权问题。AI大规模使用人类先前创作的内容来生成新的内容,这意味着AI在某种程度上利用了人类的创新成果。这种背景下产生的文化成果,可能只是算法工程的结果,而不是人类文明活动的真实智慧结晶。[2]

参考资料
[1]https://www.bbva.com/en/innovation/how-businesses-can-leverage-chatgpt/
[2]https://www.94c.cc/info/the-limitations-of-chatgpt.html

原文链接:https://blog.csdn.net/2302_76860168/article/details/132535798?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170018760516800182778134%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170018760516800182778134&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-5-132535798-null-null.nonecase&utm_term=AI%E6%B3%95%E5%BE%8B%E5%92%A8%E8%AF%A2

作者: 知澳头条

知澳资深作者

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

1300766331

邮箱: info@getau.com.au

澳洲本地网站设计开发团队 超20人团队,悉尼设计开发14年 联系电话:1300766331 微信: XtechnologyAU
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部