借助人工智能力量遏制人工智能金融犯罪

Combating AI

谈到人工智能 (AI) 领域,我们首先需要理解它的范畴。它起源于一些简单技术——机器人技术,以及后来的机器学习(本质上是训练计算机按照特定序列操作或基于算法识别模式)。下一阶段是深度学习与大型人工神经网络。如今,我们已经逐步迈入科幻小说般的境界。计算机系统被设计来模拟大脑神经元,不仅能够解读语音和文本,还能分析内容。现在,这项技术开始展现趣味。

近期,Bill Gates与OpenAI 首席执行官 Sam Altman 对话时表示,“我从未想过 ChatGPT 会这么出色,它让我大开眼界。我们对其编码的理解还远远不够。”Altman 对此表示赞同。1

我认为,我们不必担心仿生机器人统治世界,至少目前不会出现这种情况。但是,犯罪分子可能利用这些新工具实施哪些犯罪行为?作为合规专业人士,我们又该如何保护客户和机构免受新型复杂犯罪机制的侵害?这些问题仍待解答,令人忧虑。如果犯罪分子出于不法目的使用这种潜在新型武器,金融犯罪合规领域前线的专业人士需要借助哪些工具加以应对?让我们直接从源头寻找答案。

还有谁比 ChatGPT 更适合讨论这些风险呢?或者,我应该问“有什么”而不是“有谁”?思考当前和我们交流的是一个虚拟存在还是一段高级代码,已经令人感到不安。但这正是当今时代的挑战,也是我们已在 2024 年逐渐适应的奇特现象之一。那么,作为合规专业人士,我们在勇敢迈向数字深渊时应该关注什么?

ChatGPT 3.5 版本就此发表了意见,结果并未让人失望。以下是根据我们的即兴“专访”整理出的要点。

专访第一部分

Claudia Haberland:您认为 ChatGPT 和云服务存在哪些反洗钱合规风险?

ChatGPT: ChatGPT 等人工智能服务和云解决方案存在若干潜在反洗钱合规风险。

Claudia Haberland: 可否详细说明?

ChatGPT:

1. 数据安全: 云服务可能存储敏感客户数据,包括个人身份信息 (PII)、交易记录和其他财务信息。如果这些数据因安全漏洞或数据保护措施不足而遭到泄露,可能导致反洗钱违规和监管处罚。

2. .隐私问题: ChatGPT 等人工智能服务可能处理大量文本数据,包括客户通信和交易详情。这些互动可能包含反洗钱法规要求保护的敏感信息,因此存在风险。如果这些数据处理不当,可能导致隐私侵权和反洗钱合规问题。

3. 模型偏差和错误: ChatGPT 等人工智能模型容易受到训练数据偏差的影响,可能导致结果不准确或有失公平。在反洗钱合规领域,模型偏差可能误将某些交易或客户标记为可疑,同时忽略其他应当关注的交易或客户,可能引发合规问题、触发监管机构审查。

4. 缺少人员监督: 人工智能和云解决方案尽管可以自动处理反洗钱合规的许多环节,但也可能缺乏人类专家具备的细致理解和判断能力。如果过分依赖自动化系统、缺少人员监督,可能错失危险信号或产生误报,削弱反洗钱措施的有效性。

5. 监管合规挑战: 反洗钱法规持续改进,不同司法管辖区的合规要求也各不相同。云服务可能难以及时适应法规变化,也可能在某些场合不够灵活,难以针对合规流程做出相应调整。未能遵守监管要求可能导致经济处罚和声誉损失。

6. 金融交易复杂性: 金融交易可能具有复杂性,涉及多个参与方、司法管辖区和中介机构。人工智能系统可能在分析和侦测这类交易的可疑模式时遇到挑战,尤其是在基础数据不完整或不明确的情况下。这种情况可能造成反洗钱合规缺陷和漏洞。

为了缓释这些风险,机构应实施严格的数据安全措施,确保人工智能决策流程的公开透明、责任清晰,持续培训和监督合规人员,定期审查和更新反洗钱政策和程序,确保遵守监管要求。此外,将人类的专业知识与人工智能解决方案结合,可以提升反洗钱合规措施的有效性和可靠性。

专访第一部分见解

相关回答探讨了人工智能技术与监管合规交叉领域固有的复杂挑战,进而引出了需要细致考量的三个主题:

  1. 首先,在数字化技术普及的今天,数据安全持续受到关注。虽然保护敏感信息作为当务之急早已不是新闻,但是鉴于周边威胁不断变化,其重要性依然显著。在金融机构中,风险职能部门间的良好沟通至关重要。
  2. 其次,关于人员监督的讨论表明,人类判断在自动化系统中不可替代。如今,算法日益占据主导地位,保持人工干预越来越重要,它可以有效防范潜在盲点、算法偏差以及对决策方式或依据失去控制。正因如此,许多监管机构对“黑箱”持谨慎态度,而对可理解的人工智能非常重视。在我看来,尽管技术进步迅速,坚持这一立场可能颇具挑战,但这个要求非常合理。我们人类的目标应该是尽可能地掌握控制权。
  3. 再次,基于前述讨论,模型验证理念是追求高效合规策略的基石。随着人工智能模型在决策过程中占据越来越核心的地位,严格审查和验证这些模型变得越来越有必要。只有这样,才能确保这些模型可靠、有效地应对复杂监管框架和固有偏差。

消费者和金融机构实际面临哪些人工智能犯罪威胁?这包括了众多隐秘威胁,例如,制造操纵性媒体内容,利用 ChatGPT 等人工智能技术的自然语言处理能力,等等。事实上,软件功能与社交媒体平台上的用户生成内容为非法活动提供了肥沃的土壤,催生了一系列恶劣的骗局,包括浪漫欺诈 / 杀猪盘、敲诈勒索、账户冒充等。

专访第二部分

Claudia Haberland:在利用 ChatGPT 盗用账户或冒充账户持有人等非法活动中,银行需要警惕哪些特殊威胁?

ChatGPT: 总体而言,人工智能聊天机器人结合了自然语言理解、背景识别、适应、情感操控和模糊技术,能够避免怀疑并绕过传统欺诈侦测机制,模仿合法账户持有人的行为。为了抵御这种威胁,银行必须部署欺诈侦测算法,利用人工智能和机器学习侦测暗示欺诈行为的细微异常和模式,同时实施有效的认证和授权机制,验证账户持有人身份,并防止未经授权的访问。盗用账户和冒充账户持有人对银行和金融机构构成重大威胁,而 ChatGPT 等人工智能技术的出现可能加剧这些风险,包括网络钓鱼攻击、社会工程、凭证填充、欺诈交易和身份盗用。ChatGPT 还可能被用于伪造身份证件或在身份验证过程中冒充合法账户持有人。诈骗分子可能利用这一能力,以虚假身份开立新账户、申请贷款或信用卡,或实施其他欺诈活动,造成银行及其客户的财务损失。

Claudia Haberland:金融机构应采取哪些措施缓释这些威胁? 

ChatGPT: 银行必须采取强有力的安全措施和欺诈侦测机制,包括:

  • 多因素认证 (MFA),验证账户持有人身份,防止未经授权的访问。
  • 欺诈侦测高级算法,分析交易模式、用户行为和通信模式,以识别可疑活动。
  • 定期开展客户安全意识培训,提高其对常见网络钓鱼手段和社会工程手段的认识。
  • 实时监控账户活动和通信渠道,侦测异常情况和潜在欺诈指标。
  • 持续监控并更新人工智能系统,识别并缓释新出现的威胁和漏洞。

银行可以采取主动网络安全策略,负责任地运用新技术,从而增强防御能力,防范 ChatGPT 等人工智能聊天机器人可能引发的账户盗用和账户持有人冒充行为。

结论

2023 年兰德公司研究结果再次提醒我们,人类会因“认知偏见”而受操纵。2 大致说来,犯罪分子会利用我们乐于助人的天性。尽管我们大多数人已经意识到这一点,尤其是通过公司的 IT 安全培训等途径,但由于当前许多工具易于获取且可用于伪造视频、文件和社交媒体账户,我们即使严格开展增强尽职调查 (EDD),也有可能遭遇挫败。每当有人请求我们伸出援手,助其访问账户、重置遗忘的密码、恢复丢失的签署权限或尽快完成支付,我们往往愿意相信其是出于真心。如果我们认为请求合情合理,就更愿意出手相助。随着这些工具的普及,犯罪能力将被更广泛的人群掌握。可以预见,未来将会出现更多复杂的滥用行为,包括“利用人工智能语言模型进行恶意信息操作、实施大规模鱼叉式网络钓鱼活动以及制作日益逼真的深度伪造媒体”。3 作为补救措施,兰德公司建议,“这一策略应该基于对信息环境的审慎监控。随着人工智能和机器学习技术进步,持续监控对于及早侦测并遏制虚假信息活动至关重要。” 虽然这项研究主要侧重社会影响和国家安全问题,强调国际政治合作的重要性,但私营机构也应采取相同措施,保护自身免受相应威胁。

2024 年 3 月,欧洲议会率先采取措施,通过《人工智能法案》。该法案是关于人工智能使用的综合监管法律框架,针对数据质量、透明度、人员监督和问责设定了欧盟范围规则,旨在促进人们对这些模型的深入理解。它还规定了额外的风险管理义务,包括自我评估、系统性风险缓释、重大事件报告、测试与模型评估以及网络安全要求。该法案与欧盟《通用数据保护条例》(GDPR) 相似,具有显著域外效力,并将罚款设为 3,500 万欧元(3,770 万美元)或全球年收入的 7%(以较高者为准)。因此,《人工智能法案》将对在欧盟境内开展业务的所有企业产生深远影响。

然而,正如我们所知,犯罪分子自认不受法律法规约束。作为合规专业人士,我们应当熟练掌握并主动运用人工智能工具,如持续监控和负面新闻筛查,同时利用其多语言功能扩大调查范围。在疑似出现欺诈、洗钱、政治风险,或对高净值客户实施增强尽职调查 (EDD) 时,这一点尤为重要。我们还需更加警惕自身固有的心理偏见。不过,这些增强筛查和监控也将标记更多可疑行为。因此,我们需要利用自然语言处理算法,减少已使分析师不堪信息重负的“噪音”。使用人工智能搜索照片或视频;犯罪分子往往会从社交媒体窃取这些内容,用于创建新的身份。此外,还需留意异常模式或数据中断情况。潘多拉的魔盒已经开启,合规专业人士亟需与时俱进、掌握技术、对抗不法分子。简而言之,在与人工智能的较量中,只有借助人工智能的力量,才能占据上风。

Claudia Haberland,合规从业人员兼金融科技爱好者,CAMS,AML RightSource 德语地区负责人, Claudia.Haberland@amlrightsource.com,

  1. 播客,“Unconfuse me with Bill Gates: My conversation with Sam Altman”(比尔·盖茨解惑:对话 Sam Altman),GatesNotes,2024 年 1 月 11 日,
    https://www.gatesnotes.com/Unconfuse-Me-podcast-with-guest-Sam-Altman
  2. “ChatGPT Is Creating New Risks for National Security”(ChatGPT 引发国家安全新风险),兰德公司,2023 年 7 月 20 日, https://www.rand.org/pubs/commentary/
    2023/07/chatgpt-is-creating-new-risks-for-national-security.html
  3. 同上。
  4. 同上。

Leave a Reply