本报记者 李 冰
4月10日,中国支付清算协会发布《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称“倡议”)。倡议提出,正确认识ChatGPT等工具的机遇和风险。
易观分析金融行业高级咨询顾问苏筱芮对《证券日报》记者表示,“此前,国外已出现过ChatGPT等工具隐私泄露的情况。中国支付清算协会倡议慎用ChatGPT等工具,无论是对金融机构还是用户而言,均是一种保护行为。”
应依法合规使用
倡议称,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》等法律规定,中国支付清算协会向行业发出倡议。
具体来看,一是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。
二是不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
三是会员单位加强内部管理和引导。会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。
“ChatGPT是人工智能技术驱动的自然语言处理工具,需要对数据库不断更新。金融从业者使用ChatGPT存在金融数据隐私及安全问题,中国支付清算协会向行业发出倡议十分有必要。”博通咨询金融行业资深分析师王蓬博表示。
或存在两方面风险
经记者梳理,目前金融机构试水ChatGPT类应用呈现三类方式,一是借助自身在科技尤其是人工智能领域的积累,结合自有场景主动开启研发和探索;二是接入类ChatGPT相关应用的生态,借助外部力量进行提升;三是通过自有能力和借助外部力量双线并行。
冰鉴科技研究院高级研究员王诗强对《证券日报》记者表示,“ChatGPT等工具是基于自然语言处理、深度学习人工智能技术开发的智能工具,通过收集、处理数据,不断自我学习。其收集的数据除了外部公开数据外,也有大量数据来自客户分享,在其他客户咨询同类问题时可能会共享出去。因此,一旦有从业者将公司重要数据共享给ChatGPT等工具,极有可能导致商业机密泄露。”
对于ChatGPT等工具可能存在的风险,索信达控股AI创新中心主任邵俊博士对《证券日报》记者表示,这主要来自两个层面,一是信任风险,比如不法分子通过ChatGPT技术模仿真人实施不法行为;二是模型风险,ChatGPT本质是从网络大量数据中学习,但网上也充斥着大量错误信息,真假参半的信息容易对用户造成误导,另外,从业者的“无心之失”也容易在工作中把重要数据流出,构成违规风险。
在中关村科金人工智能资深产品专家李国庆看来,“ChatGPT在科技能力上涉及芯片、算力、模型、工具、场景等多个层面。目前,我国不少头部科技企业都已经开始着手研发类似于ChatGPT的产品。同时,国内自然语言处理和人工智能领域的研究及发展也不断取得重大突破,在原始数据积累、人才储备及政策支持方面均具有一定优势,基于大量底层数据和强大的算力支撑,国内一些智能产品有望抓住机遇,加速大模型的研发和产业化。”
扫一扫,即可下载
扫一扫 加关注
扫一扫 加关注
喜欢文章
给文章打分
0/
版权所有证券日报网
京公网安备 11010202007567号京ICP备17054264号
证券日报网所载文章、数据仅供参考,使用前务请仔细阅读法律申明,风险自负。
证券日报社电话:010-83251700网站电话:010-83251800网站传真:010-83251801电子邮件:xmtzx@zqrb.net