最近,有网友发消息称
“张文宏是不是带货了?”
网传视频显示
“张文宏”在卖一种蛋白棒
家里的老人信以为真已经下单
还转发了很多群
据报道
这个账号名为“般画234”
在视频中
“张文宏”反复介绍一种产品
口型是他的,声音也是他的
但稍微懂点AI的小伙伴们
一眼就能分辨
这是AI合成的视频!
目前
这段视频已在该账号内不可见
但商品橱窗内
还保留着蛋白棒售卖的页面
并显示已售出1266件
近年来
AI剪辑冒充明星的案例屡见不鲜
不少人因此上当
今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。
民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成。
最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟,放弃了开卡贷款的念头。
今年10月,老牌港星黄百鸣在社交媒体上发布声明表示,有人盗用他过去的影片并利用人工智能技术替换掉原有声音,假借自家名义代言一个不知名的药膏品牌,这种行为纯属欺诈,旨在误导公众并从中取利。他提醒大家:“小心被骗。”
学会三招识别AI“换脸换声”
如果是点对点的沟通,我们可以要求对方在脸部面前挥手。在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或者闪现,或是一些其他异常的情况。
可以问一些只有对方知道的问题,验证对方的真实性。
还可以让对方通过按鼻子按脸的方式,观察其面部变化。真人的鼻子按下去是会变形,但AI生成的鼻子并不会,同样脸部也是一样的。
值得注意的是,以上鉴别方式都是基于现有算法的局限性。
未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术。
所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。
例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。
同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。
来源 :南方日报、中国青年报、新闻坊、侬好上海、大皖新闻
编辑:“和畅惠来”政务微信编辑部(编辑:池边树)
“和畅惠来”政务微信是中共惠来县委宣传部(惠来县互联网信息办公室)推出的宣传惠来、了解惠来的新窗口。“和畅惠来”坚持发布权威资讯,服务百姓民生,弘扬本土文化,彰显惠来特色。
垂询合作热线:0663-6681035
联系邮箱:HCHL336688@163.com
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.