新华保险:“3·15”金融消保每日提丨这种“视频电话”你接到过吗?提高警惕!

2024-03-16 22:54:16 来源:鲁网 大字体 小字体 扫码带走
打印

  鲁网3月16日讯 近年来,随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像,来实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。

  AI“换脸”多逼真

  近期,香港警方披露了一起AI多人换脸的诈骗案,涉案金额高达2亿元港币。在这起案件中,一家跨国公司香港分行职员,受邀参加总部首席财务官发起的多人视频会议,并按照要求前后多次转账,将2亿港元转账到5个本地银行账户内。后来,向总部查询后才知道受骗。警方调查得知,这次案件中,所谓视频会议当中只有受害者一人是真人,其余参会人员全都是经过了AI换脸之后的诈骗人员。

  AI“换脸”技术简介

  技术人员首先用手机给记者拍摄了一张脸部照片,导入AI人工智能软件,虽然电脑摄像头前的是技术人员,但输出的却是测试者的照片,可以说是“一键换脸”。更令人惊讶的是,随着技术人员面部表情变化照片上的脸也跟着一起发生相应变化。如果进一步存储测试者的大量照片,则可以把这些照片合成一段视频。专家表示,这类诈骗主要通过点对点的视频通话进行,采用换脸技术和声音合成做实时换脸诈骗,需要投入很强的技术支持。

  AI技术发展,除了加强监管规范外,我们该如何防范呢?

  一、观察其面部变化

  视频对话时,要求对方在面前挥手、摁鼻子、摁脸等。因为伪造视频要进行实时处理,挥手过程中会造成面部数据干扰,伪造的人脸会产生抖动、闪现等异常情况,通过这种方式可以进行识别。

  二、问一些只有对方知道的问题

  点对点沟通中,可以问一些只有对方知道的问题,验证对方的真实性。

  三、加强个人信息保护

  日常生活中,加强对人脸、声纹、指纹等生物特征数据的安全防护;做好个人的手机、电脑等终端设备的软硬件的安全管理;不要登陆来路不明的网络;对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。(通讯员  邹娜)

责任编辑:单虎