🌓
搜索
 找回密码
 立即注册

大语言模型数据泄露堪忧,超自动化Agent成解决之道

admin 2023-11-13 11:12:02 98603
  • 大语言模型数据泄露堪忧,超自动化Agent成解决之道

  • 数据泄露成LLM应用最大障碍,看实在智能如何用AI Agent学习谜题

  • 从实在RPA Agent智能体安全机制,看AI Agent如何学习LLM应用安全谜题


     全文约3200字,阅读时间4分钟
     文/王吉伟

阻碍广大企业应用大语言模型(LLM,Large Langeuage Models)的诸多因素中,无疑数据安全是最重要的。

3月份ChatGPT发生了用户隐私数据泄露事件,OpenAI声明由于开源代码库中存在一个漏洞,使得部分用户能够看到另一个用户的聊天标题记录,并把ChatGPT短暂下线紧急修补了此漏洞。

此事件,让大家认识到大模型并不是“大安全”。

更要命的,是用户使用LLM时会不经意输入敏感数据。仅在三月份,三星内部就发生了三起误用及滥用ChatGPT案例,其中两起关于三星半导体设备,一起关于三星内部会议内容。

以致有网友调侃,三星再多几次敏感数据泄露,ChatGPT就能教大家制造先进芯片了。

在三星等多家企业出现事故后,很多企业都意识到了LLM使用可能造成的数据泄露问题。就在5月份,苹果公司也限制员工使用ChatGPT和其他外部AI工具。当然,苹果公司也在开发自己的LLM产品。

不只是苹果公司,摩根大通、美国电信运营商Verizon等公司都已经宣布禁止使用ChatGPT等应用,亚马逊也希望工程师们使用内部AI工具。

就在11月10日,投资了OpenAI并为广大企业提供OpenAI云服务的微软,因为担心公司机密数据泄露,竟然也开始禁止员工使用ChatGPT,建议员工使用自家的Bing Chat工具。

出于数据安全忧虑,美国银行、花旗集团、德意志银行、高盛集团等多家金融机构已经禁止员工使用ChatGPT聊天机器人处理工作任务,日本的软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等企业,同样限制了ChatGPT和类似聊天机器人的商业用途。

现在,这些企业有的与OpenAI合作进行了私有化部署,有的已经研发了自有大语言模型。

数据泄露对企业的危害

多家机构如此重视,人为数据泄露到底能为企业造成多大伤害?

数据安全公司Cyberhaven曾在一个报告中,调查了不同行业客户160万员工的ChatGPT使用情况。

报告数据显示,自ChatGPT推出以来至3月21日,8.2%的员工曾在工作场所使用过ChatGPT, 6.5%的员工曾将公司数据粘贴其中;仅3月14日一天,每10万名员工就平均给ChatGPT发送了5267次企业数据。尤其是敏感数据,占到员工粘贴到ChatGPT的数据的11%。

这意味着,ChatGPT的使用率越高,敏感数据泄露的也就越多。

试想如果不加限制地使用LLM,随着更多敏感数据被传输LLM服务器,并被用作模型训练数据集,也就意味着竞争对手通过随意的聊天对话就能获悉了你的核心数据。如果竞对用这些数据建模对你进行降维打击,会对企业会造成多大损失?

数据泄露会造成严重的企业的信任度降低,让业务连续性受到影响,并可能会带来一定的法律责任。

看到这里,你就应该明白为何大型企业都在构建自有大语言模型了。

当然,凡事皆有利弊。虽然对话式交互的生成式AI会造成敏感数据泄露,但AI和自动化的使用,整体上正在降低数据泄露的成本。

IBM的《2023年数据泄露成本》全球调查数据显示,广泛使用人工智能(AI)和自动化的组织受益,平均节省了近1万美元的数据泄露成本,并将数据泄露识别和遏制速度加快了8 天。

也就是说,只要恰当使用LLM,注意安全防控,它会对企业的增效降本起到明显的作用。

LLM泄露数据的几个原因

想要实现LLM的安全使用,需要分析数据泄露的相关因素。

从已经发生的实践案例来看,造成ChatGPT等LLM数据泄露的主要原因,大概有以下几点:

1、用户隐私泄露:在使用ChatGPT进行客户服务时,企业通常需要获取用户的个人信息,如姓名、地址、电话等。这些信息一旦被未经授权的第三方获取,便可能导致用户隐私泄露。

2、内部安全风险:ChatGPT作为一款人工智能语言模型,其生成和处理的敏感信息可能包括企业内部的商业机密、计划、策略等。如果这些信息被恶意利用,可能会对企业造成严重损失。

3、系统漏洞:尽管ChatGPT具有强大的技术实力,但其系统仍可能存在漏洞。如果黑客利用这些漏洞入侵企业服务器,便可能导致数据泄露。

理论上,只要我们针对性的解决这几个问题,LLM的安全使用也就不在话下。

现在,很多引入LLM的企业基本都建立了风控机制,按照LLM使用流程的先后顺序,这些机制包括加强安全培训、定期审查系统、加密处理敏感信息、使用可靠的人工智能服务提供商、建立应急预案等。

在这些安全措施中,大家会发现“使用可靠的人工智能服务提供商”这一点最为重要,毕竟引入一个具备高度安全机制的LLM会事半功倍。其他几点也能起到一定的这作用,但多是为了防患于未然以及事后补救,并且其中的很多人为因素难以避免。

与此同时,随着技术的不断发展,LLM的应用也进入到了AI Agent阶段。

AI Agent有效避免LLM数据泄露

AI Agent是由AI驱动的程序,当给定目标时,能够自己创建任务、完成任务、创建新任务、重新确定任务列表的优先级、完成新的顶级任务,并循环直到达到目标。

使用AI Agent,只需输入一句话或者更简单的指令,就能通过理解与分析获悉用户的意图,进而规划并执行一系列任务,最终输出详尽而具体的答案。

AI Agent不仅让输入更加简单,也在一定程度上提高了安全系数,有效避免了数据泄露的可能,还能最大限度的发挥LLM的能力。

AI Agent正在快速影响更多领域,超自动化领域也是如此。目前厂商们都在积极引入或自研大模型,并基于这些大模型打造Agent,以从安全、易用性等各方面提升超自动化的应用效率。

当然,超自动化Agent在数据安全方面远不是减少提示词输入那么简单。

超自动化Agent学习LLM安全谜题

超自动化领域如何通过AI Agent提升安全系数呢?

这里王吉伟频道以实在智能业界首发的实在RPA Agent智能体为例,介绍超自动化Agents如何保障用户数据安全。

实在RPA Agent智能体是基于实在智能自研垂直领域大模型TARS构建的RPA\超自动化智能体,是一种能够自主拆解任务、感知当前环境、执行并且反馈、记忆历史经验的RPA全新模式。

为了让用户更安全的使用AI智能体,实在RPA Agent智能体在TARS大语言模型和RPA工具包都设置的多重安全机制。

TARS大语言模型的安全机制侧重于敏感数据、内部政策和提示检查。在预训练或SFT阶段通过数据处理和文本分类算法删除敏感数据,在大模型的输出结果之上叠加一个辅助安全模型,RLHF(人类反馈强化学习)阶段使用内部策略,检查用户查询并添加安全提示等。
这样就能保证用户输入内容的多层过滤,防止敏感数据的外露。
TARS大型语言模型上基于充分细致的语料收集和清洗、数据处理及标注,超千亿Tokens的预训练语料和超百万条指令微调数据,实在智能独立完整复现大模型构建的预训练、指令微调和RLHF三阶段,使大模型具备完整能力。
同时实在智能自主研发用于中文不当言论判别和生成终止的Detoxify系统,也提升了TARS的安全性和无害性,让大模型“既懂事,又懂法”。
在RPA工具包上,TARS-RPA-Agent安全机制侧重于机器人授权继承和指挥官分配或分发授权:
首先,RPA机器人的授权均继承自创建机器人的用户,同时其权限范围也和所在账号的权限是一致的,不会获取超出其权限范围的信息;
其次,RPA指挥官可以分配和控制TARS-RPA-Agent的授权;
第三,在开发过程中,实在智能设计了一个易于处理敏感数据的模块,使得敏感数据更易于通过配置、删除、导入等方式进行设置。
除了LLM和RPA,TARS-RPA-Agent还包含其他辅助模块,其中的安全机制侧重于内部知识库认证、内部文档访问以及用户确认。
有了面向LLM、RPA和辅助模块的多重安全机制,在十几层防护墙的共同作用下,想要泄露隐私数据都很难,彻底杜绝了前文所讲的人为泄露数据的情况。再加上应对系统漏洞的相关安全机制,足以把LLM应用安全打造得固若金汤。
当然,这还是直接使用TARS大模型或者调用API的情况。如果你是现金流充沛的企业,采用本地部署大语言模型的方式,安全情况会更上一层楼。

需要说明的是,这种整体安全解决方案非常适用于一些大型企业的LLM应用安全过滤。

出于安全考虑,企业都希望在应用LLM时过滤内部敏感信息。

目前市面上的数据安全管理软件,功能丰富但应用复杂且价格不菲。为了LLM数据过滤这种单一应用场景而斥巨资购买全数据监控软件,显然过于浪费,并不是LLM数据过滤的最优选。

事实上,这类需求更适合LLM技术供应商基于大语言模型技术路径去做。只需在其LLM产品体系中添加隐私数据过滤功能,为企业用户开放不断更新或增删敏感数据库内容的权限。

这种模式,不仅能为本身大语言模型提供过滤安全功能,还能用于企业所使用的OpenAI、文心一言等第三方大语言模型,能够在最大限度保护员工创造力的同时做好公司敏感数据的防护。

这样,企业还能实现花一份钱去保障更多LLM的安全。

如果你的企业正在为LLM的应用安全及预算而发愁,不妨试试实在智能的这种安全解决方案,或许会让你眼前一亮。


全文完
文末福利后台发消息agent+获取复旦大学与中国人民大学发表的agent相关论文等资源
后台发消息 MA ,获取《MusicAgent: An AI Agent for Music Understanding and Generation with Large Language Models》论文。





RECOMMEND

推荐阅读

1、基于AI构建的当代RPA,在生成式AI影响下的生命周期还有多长?
2、多家厂商引入ChatGPT,集成与融合生成式AI成为RPA技术新趋势
3、【万字长文】全球AI Agent大盘点,大语言模型创业一定要参考的60个AI智能体
4、AI Agent发展简史,从哲学思想启蒙到人工智能实体落地
5、RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启


AIGC研究系列文章

AI Agent发展简史,从哲学思想启蒙到人工智能实体落地

【万字长文】全球AI Agent大盘点,大语言模型创业一定要参考的60个AI智能体

RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启

从大语言模型到大流程模型,生成式AI带来的BPM范式转变

产业上下游齐发力LLM挺进端侧,大语言模型加速落地利好超自动化

从引入并集成多LLM到发布自研模型,RPA与LLM的融合进度怎样了?

ChatGPT与RPA集成,生成式AI+自动化流程让AIGC价值倍增

产业上下游齐发力LLM挺进端侧,大语言模型加速落地利好超自动化

业务流程将因生成式AI变革,ChatGPT引领的AIGC正在改变组织运营

更多组织接入ChatGPT等生成式AI,生成式自动化或成企业运营新标配

AIGC模式正在影响更多组织,十个案例助你深度认知生成式AI

多家厂商引入ChatGPT,集成与融合生成式AI成为RPA技术新趋势

基于AI构建的当代RPA,在生成式AI影响下的生命周期还有多长?

从ChatGPT数据泄露事件,看组织安全稳定自动化的重要性

大模型API上的新商业逻辑,生成式AI变革组织经营

生成式AI与客户体验有什么关系?如何影响客户体验?一文看明白

从几个业务场景和实际案例,看生成式AI在金融领域的应用

生成式AI席卷PPT制作,办公生产力迎来大变革,附20个正在流行的AI PPT制作工具

从RPA+AI到RPAxAI,弘玑走上全新LLM融合之路

LLM时代到来,生成式AI会成为超自动化蓬勃发展的催化剂吗?

AIGC持续火爆大模型争相推出,庞大市场造就算力供应模式演变

从“人+RPA”到“人+生成式AI+RPA”,LLM如何影响RPA人机交互?

生成式AI正在颠覆装饰装修领域【文末附28个AI装饰设计工具】

从LLM特性与数字化转型本质,看大语言模型对数字化转型的影响

2022-2023上半年全球RPA融资盘点:海外项目占比67%,总额165亿元

从AI模特换装到AIGC赋能运营,生成式AI全方位渗透电商产业链


  • 期待点赞、在看、评论、转发,您的支持就是我的动力。
  • 鼓励积极评论,您的留言可以成为选题。

  • 欢迎阅读其他文章,或会激发您的更多思考。

点击左下角“阅读原文”查看AIGC研究系列文章,后台回复【加群】申请加入AIGC行业应用交流社群。


注:RPA相关文章,后台回复关键词 RPA 。
【王吉伟频道,关注AIGC与IoT,专注数字化转型、业务流程自动化与RPA。公号ID:jiwei1122,欢迎关注与交流。】

112259.jpg
随机推荐

最新主题

0 回复

高级模式
游客
返回顶部