最近,这篇名为《在线点评系统中的自动众包攻击和防御》的论文进入了大家的视野。这是赵燕斌等芝加哥大学研究人员发布的一篇论文。他们的研究说明,人工智能可以被用来生成复杂的点评信息。这些虚假的点评不仅机器无法检测出来,就连人类读者也分辨不出来。
这意味着,人工智能可以被利用在点评系统里,也就是说,人工智能可以被用做水军。
“我喜欢这个地方。我跟我哥一起去的,我们点了素食意大利面,很好吃。啤酒不错,服务也很棒。推荐这个地方,是个吃早餐的好去处。地儿小但是买卖大”。这个如假包换由AI操刀的点评,足以骗倒很多读者。
赵燕斌在接受采访的时候说,“人工智能的技术很先进,好处也显而易见,但是我们的目的是提前预测出人工智能对于社会潜在的威胁,因此当这些威胁真正来临的时候,人们不会猝不及防。”,“结果是几乎没有人看得出来哪些是机器撰写的点评。”赵燕斌表示,“更让我们吃惊的是,用户不仅分辨不出真假,而且还觉得机器撰写的这些点评对他们很有帮助。”不过赵燕斌也表示,“目前这种技术仍较新,还无法做到十分精准。比如已经在微博或者Twitter上出现的有些基于简单模板产生的评论。”
不过目前,他们还无从得知是否有公司已经试图利用人工智能编程软件撰写虚假评论,不过,这无疑会成为未来不法分子的一个必要选项。人工智能相比人类水军,优势非常明显。
人类水军发送虚假评论的时间控制不了,人类水军会同时段发布评论,容易被发现一场,而人工智能可操控时间和频次,而且,雇佣人类水军的成本在增长,人工智能的成本低,且可被反复频繁的使用。更有一点,反抄袭软件也对这些虚假点评无能为力,因为这些“高段位”的AI点评是逐字生成的,而不是简单地替换已有点评中的用词。如果使用反抄袭软件检测,不但很难检测出虚假点评,而且会“误伤”一大批真实的点评。
难道人类就要失业了吗?人工智能水军要替代人类“水军“了吗?人工智能“水军“的出现到底是好是坏呢?其实这都取决于使用的意图。如果人工智能技术被滥用,对整个社会是一个巨大的威胁,不但会让依靠点评信息的用户失望,而且会以假乱真,破坏社会秩序,这样的后果更为严重。
人工智能还是应该被用在正确的地方!
特别声明:以上内容(如有图片或视频亦包括在内)来自网络,已备注来源;本平台仅提供信息和存储服务。Notice: The content above (including the pictures and videos if any) is uploaded and posted by user of ASKAI, which is a social media platform focused on technology of CHATGPT and only provides information storage services.