1. 创业头条
  2. 前沿领域
  3. 人工智能
  4. 正文

大语言模型数据泄露堪忧,超自动化Agent成解决之道

 2023-11-13 16:19  来源:A5专栏  我来投稿 撤稿纠错

  11元注册.CN,不设限制

 

大语言模型数据泄露堪忧,超自动化Agent成解决之道

数据泄露成LLM应用最大障碍,看实在智能如何用AI Agent破解谜题

从实在RPA Agent智能体安全机制,看AI Agent如何破解LLM应用安全谜题

文/王吉伟

阻碍广大企业应用大语言模型(LLM,Large Langeuage Models)的诸多因素中,无疑数据安全是最重要的。

3月份ChatGPT发生了用户隐私数据泄露事件,OpenAI声明由于开源代码库中存在一个漏洞,使得部分用户能够看到另一个用户的聊天标题记录,并把ChatGPT短暂下线紧急修补了此漏洞。

此事件,让大家认识到大模型并不是“大安全”。

更要命的,是用户使用LLM时会不经意输入敏感数据。仅在三月份,三星内部就发生了三起误用及滥用ChatGPT案例,其中两起关于三星半导体设备,一起关于三星内部会议内容。

以致有网友调侃,三星再多几次敏感数据泄露,ChatGPT就能教大家制造先进芯片了。

在三星等多家企业出现事故后,很多企业都意识到了LLM使用可能造成的数据泄露问题。就在5月份,苹果公司也限制员工使用ChatGPT和其他外部AI工具。当然,苹果公司也在开发自己的LLM产品。

不只是苹果公司,摩根大通、美国电信运营商Verizon等公司都已经宣布禁止使用ChatGPT等应用,亚马逊也希望工程师们使用内部AI工具。

就在11月10日,投资了OpenAI并为广大企业提供OpenAI云服务的微软,因为担心公司机密数据泄露,竟然也开始禁止员工使用ChatGPT,建议员工使用自家的Bing Chat工具。

出于数据安全忧虑,美国银行、花旗集团、德意志银行、高盛集团等多家金融机构已经禁止员工使用ChatGPT聊天机器人处理工作任务,日本的软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等企业,同样限制了ChatGPT和类似聊天机器人的商业用途。

现在,这些企业有的与OpenAI合作进行了私有化部署,有的已经研发了自有大语言模型。

数据泄露对企业的危害

多家机构如此重视,人为数据泄露到底能为企业造成多大伤害?

数据安全公司Cyberhaven曾在一个报告中,调查了不同行业客户160万员工的ChatGPT使用情况。

报告数据显示,自ChatGPT推出以来至3月21日,8.2%的员工曾在工作场所使用过ChatGPT, 6.5%的员工曾将公司数据粘贴其中;仅3月14日一天,每10万名员工就平均给ChatGPT发送了5267次企业数据。尤其是敏感数据,占到员工粘贴到ChatGPT的数据的11%。

这意味着,ChatGPT的使用率越高,敏感数据泄露的也就越多。

试想如果不加限制地使用LLM,随着更多敏感数据被传输LLM服务器,并被用作模型训练数据集,也就意味着竞争对手通过随意的聊天对话就能获悉了你的核心数据。如果竞对用这些数据建模对你进行降维打击,会对企业会造成多大损失?

数据泄露会造成严重的企业的信任度降低,让业务连续性受到影响,并可能会带来一定的法律责任。

看到这里,你就应该明白为何大型企业都在构建自有大语言模型了。

当然,凡事皆有利弊。虽然对话式交互的生成式AI会造成敏感数据泄露,但AI和自动化的使用,整体上正在降低数据泄露的成本。

IBM的《2023年数据泄露成本》全球调查数据显示,广泛使用人工智能(AI)和自动化的组织受益,平均节省了近1万美元的数据泄露成本,并将数据泄露识别和遏制速度加快了8 天。

也就是说,只要恰当使用LLM,注意安全防控,它会对企业的增效降本起到明显的作用。

LLM泄露数据的几个原因

想要实现LLM的安全使用,需要分析数据泄露的相关因素。

从已经发生的实践案例来看,造成ChatGPT等LLM数据泄露的主要原因,大概有以下几点:

1、用户隐私泄露:在使用ChatGPT进行客户服务时,企业通常需要获取用户的个人信息,如姓名、地址、电话等。这些信息一旦被未经授权的第三方获取,便可能导致用户隐私泄露。

2、内部安全风险:ChatGPT作为一款人工智能语言模型,其生成和处理的敏感信息可能包括企业内部的商业机密、计划、策略等。如果这些信息被恶意利用,可能会对企业造成严重损失。

3、系统漏洞:尽管ChatGPT具有强大的技术实力,但其系统仍可能存在漏洞。如果黑客利用这些漏洞入侵企业服务器,便可能导致数据泄露。

理论上,只要我们针对性的解决这几个问题,LLM的安全使用也就不在话下。

现在,很多引入LLM的企业基本都建立了风控机制,按照LLM使用流程的先后顺序,这些机制包括加强安全培训、定期审查系统、加密处理敏感信息、使用可靠的人工智能服务提供商、建立应急预案等。

在这些安全措施中,大家会发现“使用可靠的人工智能服务提供商”这一点最为重要,毕竟引入一个具备高度安全机制的LLM会事半功倍。其他几点也能起到一定的作用,但多是为了防患于未然以及事后补救,并且其中的很多人为因素难以避免。

与此同时,随着技术的不断发展,LLM的应用也进入到了AI Agent阶段。

AI Agent有效避免LLM数据泄露

AI Agent是由AI驱动的程序,当给定目标时,能够自己创建任务、完成任务、创建新任务、重新确定任务列表的优先级、完成新的顶级任务,并循环直到达到目标。

使用AI Agent,只需输入一句话或者更简单的指令,就能通过理解与分析获悉用户的意图,进而规划并执行一系列任务,最终输出详尽而具体的答案。

AI Agent不仅让输入更加简单,也在一定程度上提高了安全系数,有效避免了数据泄露的可能,还能最大限度发挥LLM的能力。

AI Agent正在快速影响更多领域,超自动化领域也是如此。目前厂商们都在积极引入或自研大模型,并基于这些大模型打造Agent,以从安全、易用性等各方面提升超自动化的应用效率。

当然,超自动化Agent在数据安全方面远不是减少提示词输入那么简单。

超自动化Agent破解LLM安全谜题

超自动化领域如何通过AI Agent提升安全系数呢?

这里王吉伟频道以实在智能业界首发的实在RPA Agent智能体为例,介绍超自动化Agents如何保障用户数据安全。

实在RPA Agent智能体是基于实在智能自研垂直领域大模型TARS构建的RPA\超自动化智能体,是一种能够自主拆解任务、感知当前环境、执行并且反馈、记忆历史经验的RPA全新模式。

为了让用户更安全的使用AI智能体,实在RPA Agent智能体在TARS大语言模型和RPA工具包都设置的多重安全机制。

TARS大语言模型的安全机制侧重于敏感数据、内部政策和提示检查。在预训练或SFT阶段通过数据处理和文本分类算法删除敏感数据,在大模型的输出结果之上叠加一个辅助安全模型,RLHF(人类反馈强化学习)阶段使用内部策略,检查用户查询并添加安全提示等。

这样就能保证用户输入内容的多层过滤,防止敏感数据的外露。

TARS大型语言模型上基于充分细致的语料收集和清洗、数据处理及标注,超千亿Tokens的预训练语料和超百万条指令微调数据,实在智能独立完整复现大模型构建的预训练、指令微调和RLHF三阶段,使大模型具备完整能力。

同时实在智能自主研发用于中文不当言论判别和生成终止的Detoxify系统,也提升了TARS的安全性和无害性,让大模型“既懂事,又懂法”。

在RPA工具包上,TARS-RPA-Agent安全机制侧重于机器人授权继承和指挥官分配或分发授权:

首先,RPA机器人的授权均继承自创建机器人的用户,同时其权限范围也和所在账号的权限是一致的,不会获取超出其权限范围的信息;

其次,RPA指挥官可以分配和控制TARS-RPA-Agent的授权;

第三,在开发过程中,实在智能设计了一个易于处理敏感数据的模块,使得敏感数据更易于通过配置、删除、导入等方式进行设置。

除了LLM和RPA,TARS-RPA-Agent还包含其他辅助模块,其中的安全机制侧重于内部知识库认证、内部文档访问以及用户确认。

有了面向LLM、RPA和辅助模块的多重安全机制,在十几层防护墙的共同作用下,想要泄露隐私数据都很难,彻底杜绝了前文所讲的人为泄露数据的情况。再加上应对系统漏洞的相关安全机制,足以把LLM应用安全打造得固若金汤。

当然,这还是直接使用TARS大模型或者调用API的情况。如果你是现金流充沛的企业,采用本地部署大语言模型的方式,安全情况会更上一层楼。

需要说明的是,这种整体安全解决方案非常适用于一些大型企业的LLM应用安全过滤。

出于安全考虑,企业都希望在应用LLM时过滤内部敏感信息。

目前市面上的数据安全管理软件,功能丰富但应用复杂且价格不菲。为了LLM数据过滤这种单一应用场景而斥巨资购买全数据监控软件,显然过于浪费,并不是LLM数据过滤的最优选。

事实上,这类需求更适合LLM技术供应商基于大语言模型技术路径去做。只需在其LLM产品体系中添加隐私数据过滤功能,为企业用户开放不断更新或增删敏感数据库内容的权限。

这种模式,不仅能为本身大语言模型提供过滤安全功能,还能用于企业所使用的OpenAI、文心一言等第三方大语言模型,能够在最大限度保护员工创造力的同时做好公司敏感数据的防护。

这样,企业就能实现花一份钱去保障更多LLM的安全。

如果你的企业正在为LLM的应用安全及预算而发愁,不妨试试实在智能的这种安全解决方案,或许会让你眼前一亮。

全文完

【王吉伟频道,关注AIGC与IoT,专注数字化转型、业务流程自动化与RPA,欢迎关注与交流。】

 

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
大模型

相关文章

  • GPTs大受欢迎但问题多,企服软件厂商的AI Agent更被B端客户器重

    大部分AIAgent还在讲概念谈愿景阶段,GPTs大受欢迎但问题也不少,这种情况下企服软件厂商推出AI智能体更被B端客户器重。

    标签:
    ai智能
  • 正在强烈冲击AI Agent的“准Agent” GPTs,真的会杀死AI智能体吗?

    OpenAI推出的GPTs是不是Agent?与AIAgent有什么区别?会不会杀死其他AI智能体?一篇文章看明白。

    标签:
    ai智能
  • AI原生应用为百度带来新增量

    随着未来人工智能技术的不断进步和应用领域的不断拓展,百度厚积薄发的AI原生应用必将为百度带来更多的新增量来源。

  • 文心大模型商业化领跑,百度在自我颠覆中重构生长力

    随着科技巨头竞逐AI大模型,人工智能技术成为今年最受瞩目的新技术。但是,AI大模型的创新之路,还缺少一个足够有力的商业化答案。作为全球最先发布大模型的互联网大厂,百度能否加速大模型的应用落地,以及文心大模型能够创造多少商业价值,一直是市场关注的焦点。11月21日晚,百度发布了2023年第三季度业绩。

    标签:
    文心一言
  • OpenAI不感谢Altman

    ©自象限原创作者|程心编辑|周游执剑人被罢免,从《三体》来到人间。美东时间11月17日下午,OpenAI官网突发了有一篇关于新的人事任命消息。简单翻译一下这篇文章“SamAltman不诚实,我们把他辞了,新CEO也挺牛逼,我们还会继续做下去。”▲图源:OpenAI官网截图这消息把全世界的人都炸懵了。

    标签:
    ai智能
  • 0.6秒!手机跑Stable Diffusion创下最快速度,而这仅仅是开始

    导语:如今,随着将大模型塞进手机的进程加快,普通用户也能亲自体验生成式AI的魅力了。2023已经行至尾声,这一年大模型和生成式AI成为人工智能圈的主流趋势。自ChatGPT出现以来,各式各样通用、专业的AI大模型层出不穷,喷涌之势已经不可阻挡。随着量化、网络剪枝和知识蒸馏等模型压缩技术进步,手机等终

    标签:
    ai技术

编辑推荐