最近最热门的生成式AI模型应用要属ChatGPT了,一款由OpenAI开发的聊天机器人。
当前,ChatGPT Plus用户可以使用GPT-4,这是一种大型多模态模型(LMM),可以接受图像和文本输入并生成文本输出。2023年3月23日,OpenAI推出了ChatGPT插件,这意味着ChatGPT现在可以访问某些第三方源和数据库。
ChatGPT即Chat(基于对话的) G (生成的) P (预训练的) T (转换的),它通过强化学习人类反馈来进行微调,ChatGPT经过人类偏好的奖励模型训练,使输出内容更人性化,并尽量避免编造事实。
ChatGPT最初是作为一个大型语言模型(LLM)创建的,经过发展已经成为了一个大型的多模态生成AI应用程序。
“大”代表的是模型所基于的数据量,以及模型本身的大小。例如,当它在2022年发布时,ChatGPT有1750亿个参数(一个控制机器学习模型行为的值——参数越大,模型的分析能力就越强)。它最初使用超过100万个数据集或5000亿个标记(单词或单词片段)进行训练,包括来自维基百科和纽约时报的标记。从这个角度来看,人类平均一生会说8.603亿个单词,这个集合——即人工智能术语中的“语料库”——相当于300年的语言价值。
ChatGPT的基本版本没有连接到互联网,并且直到2021年9月都在接受材料培训,这意味着它的知识不是最新的。向少数高级开发者发布的较新的产品,例如必应搜索引擎的插件,可以连接到互联网并包含最新的内容。
根据OpenAI的说法,尽管GPT-4仍然不完全可靠,但与其前身GPT-3.5相比,它在处理细微指令方面的能力要高得多。最重要的是,它在模拟司法考试中以前10%的成绩通过了考试。相比之下,GPT-3.5在同样的模拟考试中得分倒数10%。OpenAI指出,它的局限性类似于早期的GPT模型,对事实产生幻觉并产生推理错误。
ChatGPT的人气迅速上升,部分原因是即使没有技术背景也可以使用它。它的用户快速增长,是人们渴望使用这项技术的一个标志,使用的用户越多,其底层人工智能能得到的训练就越好。
ChatGPT有潜力以前所未有的速度和极高的效率应用于IT、审计、人力资源、运营和更多业务功能领域,但它们并不意味着没有风险的。
生成式AI的内部风险及思考
首先是保密信息泄露的风险。许多生成式人工智能模型的建立是为了吸收用户输入的数据,并随着时间的推移改进底层模型,其本质上是帮助它们学习和构建知识。同时,再将这些数据用来回答其他人的提问,这有可能会将私人或专有信息暴露给公众。作为企业而言,使用这种技术越多,其他人就越有可能了解企业的敏感或机密信息。因此,企业需要了解如何在保护其隐私的同时享受生成式人工智能应用程序的好处。
其次是员工误用以及虚假信息。如果生成AI内容使用的信息不准确,这可能会影响公司的业务结果或产生责任问题。ChatGPT可能生成虚假的信息,在这一点上,OpenAI的开发人员承认这是其持续存在的缺点。该技术也可能会产生敏感信息,如个人数据,这些信息可能被用于身份盗窃或侵犯个人隐私。
再次,是生成式AI的持续发展所带来的合规挑战。随着世界对人工智能的理解不断发展,全球越来越多的国家及组织制定法律法规。即使不打算有意使用生成AI,企业也必须及时了解这些内容。毕马威预计生成式人工智能将继续集成到许多常见的应用程序、系统和流程中,从互联网浏览器到企业可能授权的人工智能连接技术。因此,关键是要保持警惕,确保不会以违反相关法律法规、客户协议或专业标准的方式使用人工智能。
最后,是关于人才的挑战。在一个可生成的未来,专业人员的角色将从解决问题转变为定义问题,因为团队要与机器一起工作,创造新的方法。因此,高质量的专业人员输入才能有高质量的方案产出。
生成式AI的外部风险及思考
对于外部风险,首先是错误信息、偏见和歧视。生成式AI可以——并且已经——被用来创建深度伪造的图像和视频(当视觉内容被改变,使其看起来像是某人说了或做了他们没有做或说的事情)。这些图像和视频通常看起来非常逼真,并且在编辑后的数字媒体中没有留下伪造痕迹,这使得人类甚至机器都很难检测到它们。
其次是版权问题,一旦内容通过生成式AI应用程序运行,谁拥有内容的版权问题比比皆是,而且没有一个放之四海而皆准的答案。如果内容是剪切和粘贴的,或者基本上没有改变版权文本,这可能被认为是抄袭。很难确切地说,通过生成AI工具获得的信息需要改变多少才能合法地称为你自己的信息。
第三是财务、品牌和声誉风险。如果将人工智能生成的信息或代码复制到任何可交付产品或产品中,可能构成版权或其他知识产权侵权,会给企业带来法律和声誉上的损害。同时,缺乏培训和对这些工具缺乏理解的用户可能会无意中将知识产权或商业秘密暴露给公众甚至竞争对手,这可能会导致诉讼。
第四是网络安全风险。网络犯罪分子可以使用生成式AI来创建更逼真、更复杂的网络钓鱼骗局或凭据来入侵系统。此外,人工智能算法无法保护其底层训练数据集。研究表明,即使数据被匿名化和清除,算法也可以区分个人的身份。其他生成式AI网络安全风险包括数据中毒,其中包括用于训练模型的数据被操纵,以及对抗性攻击——试图通过向生成式人工智能模型提供恶意输入来欺骗它们。
最后是敌对攻击。即使经过训练,在可接受的范围内工作,生成式AI模型也被证明是脆弱的,就像任何分析模型一样,容易受到老练的外部用户的蓄意操纵。如果企业计划使用生成式AI解决方案,就需要意识到,当解决方案向公众公开时,这种情况可能就会出现。
生成式AI的未来应用方向
软件开发及维护。生成式AI在软件开发过程中正在显示出巨大的潜力,有机会更快地提供更可靠的软件产品和服务,企业能够实现代码自动化生成、维护和修复错误等。
视频和虚拟现实创作。生成式AI可以为电商网站创建沉浸式视频游戏环境,设计视频,甚至提供个性化产品视频。未来,公司可以将其用于虚拟助手或直播应用,例如自动为直播视频添加字幕。该领域的许多公司现在正将重点转向企业客户。
元宇宙建设。在虚拟世界中创建逼真的3D资产既昂贵又耗时,生成式AI可以通过文本、图像或语音生成3D资产,也可以基于2D图片生成3D场景,甚至可以生成声音效果,还可以生成人脸,并赋予虚拟化身更真实的特征。
优化网络安全。生成式AI可以教会个人某些漏洞所代表的关键风险,帮助他们编写适当的脚本或了解威胁行为者的攻击方法。
(THE END)
原文:KPMG 编译:智成企业研究院崔帅
特别声明:本文为合作媒体授权DoNews专栏转载,文章版权归原作者及原出处所有。文章系作者个人观点,不代表DoNews专栏的立场,转载请联系原作者及原出处获取授权。(有任何疑问都请联系idonews@donews.com)