盛大彩票原网站

  • <tr id='hCGA9K'><strong id='hCGA9K'></strong><small id='hCGA9K'></small><button id='hCGA9K'></button><li id='hCGA9K'><noscript id='hCGA9K'><big id='hCGA9K'></big><dt id='hCGA9K'></dt></noscript></li></tr><ol id='hCGA9K'><option id='hCGA9K'><table id='hCGA9K'><blockquote id='hCGA9K'><tbody id='hCGA9K'></tbody></blockquote></table></option></ol><u id='hCGA9K'></u><kbd id='hCGA9K'><kbd id='hCGA9K'></kbd></kbd>

    <code id='hCGA9K'><strong id='hCGA9K'></strong></code>

    <fieldset id='hCGA9K'></fieldset>
          <span id='hCGA9K'></span>

              <ins id='hCGA9K'></ins>
              <acronym id='hCGA9K'><em id='hCGA9K'></em><td id='hCGA9K'><div id='hCGA9K'></div></td></acronym><address id='hCGA9K'><big id='hCGA9K'><big id='hCGA9K'></big><legend id='hCGA9K'></legend></big></address>

              <i id='hCGA9K'><div id='hCGA9K'><ins id='hCGA9K'></ins></div></i>
              <i id='hCGA9K'></i>
            1. <dl id='hCGA9K'></dl>
              1. <blockquote id='hCGA9K'><q id='hCGA9K'><noscript id='hCGA9K'></noscript><dt id='hCGA9K'></dt></q></blockquote><noframes id='hCGA9K'><i id='hCGA9K'></i>
                欢迎您访问金年会·诚信至上金字招牌官方网站※!
                服务热线:066-15625893265
                • 产品
                • 文章

                NEWS CENTER

                新闻中心

                当前位置:首页 > 官方网站

                一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段

                来源:金年会·诚信至上金字招牌  更新时间:2024-08-20 00:18:23


                为保护用户权益,张照种新防止账号被盗,片可骗手很多社交软件都设置了人脸识别的实时视频登录验证环节。然而,换脸合成这』一验证环节可能并不需要本人来操作,警惕在湖北黄石就刚刚破获一起用AI换脸技术解锁社交账号并倒卖获利的型网诈骗案。

                前段时间,络诈湖北黄石的张照种新王先生@ 偶然进入某炒股直播间,王先生添加了直播间推送的片可骗手社交账号后,跟对方一起进行股票投资。实时视频随着投资金额不断增加,换脸合成当王先生想要提现时,警惕发ㄨ现对方的型网社交账号因涉嫌诈骗已被冻结,资金无法≡取出。络诈

                受害人 王先生:一直取不出来,这个时候就发现了不对,因为他老是找各种理由让你取不了钱。后来我发现他的社交账号被冻结了。

                警方在侦办案件过程中,意外发现该涉案社交账号突然解冻并重新登录,推测可能有团伙帮助诈骗嫌疑人解封了账号。调查发现账号IP所在地在河南,黄石警方在当地配合下,很快抓获三名嫌疑人,现场查获13台电脑、9部平板、119部手机和80张电话卡。经讯问,高某与许某2023年9月底开始在网上贩卖和帮他人解锁社交账号,通过AI换脸融合的动态视频帮人解锁一些被平台冻结的交友账号。

                湖北省黄石市公安局下陆分局指挥中心民警 王楚奇:他通过自己在网『上购买的一款视频合成软件,按照社交账号要求解封作认证的这些规定动作,利用他自己的人脸和他合成的那个视频,生成的AI视频上传到社交账号的后台,来进行♀认证。

                据了解,这个团伙每解锁一个账号收费15元至30元不等,其中许多账号是因涉嫌诈骗被冻结的账号。该团伙共解冻了2107个账号,从中获利40万元。民警告诉记者,AI合成视频已经成为新型网络诈骗的重要手段。

                湖北︼省黄石市公安局下陆分局新下陆派出所治安巡防副队长 张军:不要将自己的身份证号、身份证头像、手机号等等自己的隐私信息在网上进行暴露,加强自己的隐私信息的保护。

                眼见不一定为实单张照片可实时视频换脸

                我们常说“眼见为实”,但在AI时代,肉眼所看见的也不一定是真相。一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。

                在工业和信息化部反诈专班的实验室里,技术人员向记者演示了两种常用的AI换脸技术。通过一张事先从网络上公开获取的记者本人照片,经过一段时间的模型训练。这张照片就能在演示者的控制下像真人一样做出转头、张嘴、眨眼、微笑等表情和动作。

                工业和信息化部反诈工作专班专家 李坤:不法分子首先会通过各种公开的渠道获取受害人的个人肖像或视频,然后利用AI技术,对这些照片中的面容特征进行学习,从而模仿眨眼、摇头等▽动作,PG电子·(中国)官方网站-IOS/安卓版/手机APP官网下载实现以假乱真的效果。

                李坤表示,除了让照片上的人像活↘化,AI换脸技术还能实现在即时视频通信状态下的实时换脸。技术人员也通过AI换脸技术让记者体验∑了一下与另一个“自己”视频对话的效果。

                工业和信息化部反诈工作专班 技术人员:主要找了一些公开的社交媒体平台,去拉取一些公共的视频。拿了这些←数据,整体的训练时间差不多花了1天,24小时达到目前这个效果。 如果时间长点的话,我们画↑面的清晰会有所提升。

                技术人员告诉记者,所有用于AI换脸训练的记者照片和视频都是从网上公开收集的,总共只用了四五张照片和不到五分钟的素材。如果有充足的训练时间,仿真效果会更∞好。除了面容以外,声音也可以通过同样的技术来仿冒。专家指出,虽然目前AI换脸和仿声有一定的技术门槛和较高的实现成本,但如果被不法分子掌握,就可能在即时通信或者社交软件上伪装成他人,开展相应的诈骗活动。

                AI换脸诈骗检测与预警技术正在测试中

                利用AI技术制作换脸视频※或合成声音来实施诈骗的确让人防不胜防,那么如何防范这种风险呢?有关部门正在开发相关的反制技术和手段。

                工业和信息化⌒部反诈专班专家 李坤:我们正在会同行业内的手机终端企业,将推出AI换脸诈骗风险提醒功能。这项√功能仅在手机端来本地运行,能够有效保护用户数据不泄露,经过∑ 用户授权后,可为用户提供AI换脸诈骗风险预警提醒。

                记者在反诈专班的实验室现场体验了正在测试中的AI换脸诈骗检测与预警技术。当用AI换了脸的技术人员与记者发起视频通话时,测试手机终端提示“对方疑似假冒ξ身份”。点击检测按钮,经过图像扫描,系统提示“AI换脸合成概率93%”。

                据了解,AI换脸主要是使用深度合成技术。《互联网信息服务深度合成管理规定》提出了ζ 算法备案、安全评估的手段,要求深度合成服务提供者◣对深度合成的内容添加显式或隐式水印。

                中国信通院人工智能所安全与元宇宙部专家 陈文弢:要对生成合成的内容去添加一些水印,这个水印的本质其实就是要一方面去提示公众这个内容是由AI生成或者合成的,另【一方面也是要追溯它的来源。

                专家提醒,AI诈骗是隐私信息泄露与诈骗陷阱的结合,要加强对个人隐私的保护,不轻易提供人脸、指纹等个人生物信「息给他人,不过度公开或分享动图、视频等,尤其涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认,不要未经核实随意转账汇款。

                (总台记者 孙蓟潍 唐志坚 徐之昊 孙丽鹏 黄石台)

                 


                相关文章