• 今日汇率:1欧元= 7.755232元人民币 繁体中文

  • 【侠客岛|岛妹说】千万当心这种新型诈骗!

    海外网 发表于:2023-05-30 赞一个(0) 收藏     分享到朋友圈     0 1284

    曾经,骗子骗钱是“不打针、不吃药,坐在这里跟你唠”。现在不一样了,上技术手段了。

    最近,内蒙古包头警方发布一起利用AI实施电信诈骗的案例。来自福建的郭先生是某科技公司法人代表,今年4月,一位“好友”通过微信视频联系郭先生,称需要430万元保证金,想借用郭先生公司的账户走账。

    “当时是给我打了视频的,我在视频中也确认了面孔和声音,所以放松了戒备。”于是,郭先生10分钟内把430万元转至对方账户,可没想到,给好友回电话之后他才知道,这是骗子用AI换脸和拟声技术演的一出戏。

    这谁能想到?

    再看一个例子。

    2022年2月,陈先生到浙江温州一家派出所报案,说自己被“好友”诈骗了近5万元。原来,诈骗分子利用陈先生好友在社交平台发布的视频,截取其中面部画面,再用AI换脸技术进行合成,就制造了陈先生与“好友”视频聊天的假象。

    您猜这样的技术得花多少钱?

    还真不贵。据媒体报道,用照片生成1分钟“露脸且说话”的视频,仅需30元。这种技术,直播带货里也有不少人使用。点开一些电商直播间,“刘亦菲”“殷桃”“迪丽热巴”都在卖货。在一个展示换脸效果的视频中,主播把名为“成龙”的模型载入软件,画面中立马有了“成龙”的直播镜头。主播歪头、变换表情,五官动效自然顺畅,只有在手掌划过脸前时,画面才有一些异样。

    AI换脸为“成龙”的实时效果和软件界面(图源:央广网)

    老话说“眼见为实”,可如今,眼见的也未必作数了。碰上这种新型诈骗,到底该怎么防范?

    那肯定得认清骗子的招。

    首先是声音合成。骗子往往通过骚扰电话的通话录音,提取接听者声音,再进行声音合成,用伪造的声音设下骗局。比如,某公司财务小王接到“领导”电话,要求立刻给供应商转款2万元;小王被声音迷惑,1小时内完成转款。

    然后是AI换脸。骗子会分析群众发布在网上的各类信息,通过AI技术筛选目标人群,再利用AI换脸,伪装成受害者的家人、朋友、领导、同事,借助视频通话骗取信任,实施诈骗。

    技术这么先进,防不胜防?其实就记住一句话:人心隔肚皮,人脸能画皮,开口就要钱,难免有猫腻。

    所以,别着急转账打钱。打个电话,实在不行见一面,事缓则圆。同时,一定要注意保护好个人信息,千万别轻易透露身份证、银行卡账户,慎重提供人脸、指纹等生物信息,少过度公开或分享人脸动图、视频。

    如果接到了骗子的视频通话,还有两个小技巧可供参考:

    一是盯着对方的眼睛。AI换脸多用睁眼照片合成,眨眼频率跟真人有区别,不妨留心观察;二是要求对方用手指在面部晃动、用手掌挡住脸的一部分,看看面部会不会扭曲变形。这是因为,骗子训练AI算法时,用的多是人物正面照,程序无法处理突然出现在面前的物体。

    (图源:人民日报)

    要是遇到可疑情形或者不幸被骗,一定要注意保护证据,拨打96110,让骗子接受法律的制裁。

    讲完个人该做的,咱也唠唠平台。去年12月,《互联网信息服务深度合成管理规定》正式发布,明确提出:提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。这就是说,平台不能一放了之,发现类似情形得及时介入、敦促打上标识,让用户不被蒙蔽。

    技术是一柄双刃剑,操控剑柄的人应守法有道。这一点,从平台到监管,更需形成合力。

    文/云歌

    资料来源/人民日报、央视新闻、中新社

    来源/侠客岛微信公众号


    来源:海外网
    版权声明 凡标明奋斗在意大利编译的文章,均为奋大独家编译,未经授权严禁转载!违者必究!

    快速回复

    高级

    您目前还是游客,请 登陆注册