最近chatGPT、GPT-4、文心一言、自动艺术创作这些LLM 真实火得一塌糊涂,当然,我们公司也在紧锣密鼓的跟进chatGPT, 不断的体验这类产品,部署开源产品进行测试,对使用场景进行头脑风暴。
抛开使用场景不说,我首先思考的是未来我们如何应对AI安全问题。
从体验中,可以看出来开发者在尽可能的让回答不那么有问题,尽可能的规避一些风险问题。这类大模型的特点是生成,理解、翻译等问题。可以很好的理解你输入的问题,并且能很好的输出想要的结果。如果这类擅长理解,擅长生成的模型用到坏人手里,简直是灾难的发生。接下来我们分析2个容易理解的干坏事的场景
相比最近大家刷抖音,看头条都看到不少关于缅北诈骗、泰国噶腰子的视频或文章。我们假设这类诈骗集团使用到了chatGPT,或者使用了最新的开源模型,并用他们的话术进行了训练,完全可以当一个自动化的缅北工作人员,虽然不能最后通过噶腰子榨取最后的价值,但是,可以不眠不休的打电话,重复话术。网上说缅北的只骗中国人是因为他们不会说外语,现在好了,大模型可以帮你自动翻译,利用话术自动对话。可以实现多国诈骗。
也可能你会说,这只是文字输入,没法实现对话,或者视频聊天获取密码吧,其实一整套的系统是由多个组件组合起来的,可以使用语音生成服务、目标检测服务、ocr服务等等组成一整套系统。自动主播相信大家已经了解了,视频的时候直接自动生成一个穿警服的假警察,服装成本都省了。
另外一个场景,网络舆论控制,如果用GPT模型,生成一批网络水军,批量的发帖,跟帖,来控制某些事情的舆论走向,真是成本低,效果好。
AI安全是我们应该开始关心的问题了,细思极恐,在个人隐私极度暴露的时代,遇到了能言善辩的chatGPT. 真希望坏人是文盲
网友评论