警惕AI诈骗

作者: 小桃爸爸 | 来源:发表于2023-04-10 19:34 被阅读0次

    最近ChatGPT可以说是非常火热的话题,AI的能力进化已经到了让人目瞪口呆的程度。其实不只是AI对话,AI绘图的能力也十分惊人,目前已经可以画出足以乱真的人来了。

    比如这个:

    没见过的不用怀疑,这是纯粹由AI画出来的,并不是真人,你可以从身后背景里的那个姑娘的手上发现不合常理的地方。

    不光是图片,最近已经有用户可以做AI美女跳舞的视频来了。

    但科技是把双刃剑,如此逼真的绘画技术一方面促进了文化的发展和生活的便利,但同时也让不法分子有了可乘之机。

    目前听说的事情还在国外,据说是枫叶国有多起通过AI合成声音来冒充家人的电话诈骗案,据说金额达到了数百万元。

    其实这种案件还是过去电信诈骗的老套路,只不过冒充家人的手段更加先进,AI合成声音的电话诈骗,AI换脸的视频诈骗。比如说把你的脸放到不雅视频中进行勒索,或者合成进绑架视频中威胁你的家人等等。

    另外还有一种也是过去的老套路,就是冒充帅哥美女忽悠你和他们网恋骗钱。不过现在AI合成的美女更加逼真漂亮,容易让一些心灵寂寞的人迅速堕入情网。

    此外还有一种也是老套路,就是冒充受灾或者重病的人来骗取捐款。如今AI可以制造任何场景和任何神态的人,所以画出一个完全不存在的重病患者或者受灾人群来骗人更加容易。这种事情据说已经在前阵子的土耳其地震当中出现了。

    不过虽然新的骗钱花样增多,但是大抵上都只是技术的进步,而套路并没有改变。所以大家今后要更加小心谨慎,遇到亲友借钱要钱之类的事情一定不要着急,设法确认清楚后再做决定。

    相关文章

      网友评论

        本文标题:警惕AI诈骗

        本文链接:https://www.haomeiwen.com/subject/lkhmddtx.html