ChatGPT和机器学习人工智能最近一直是热门话题,意见有正有负。 一边是支持者,他们认为生成性人工智能系统是自切片面包诞生以来最好的东西,应该被用于从构建"原始"图像到写诗的一切。反对者则热情洋溢地认为,这些应用践踏了为各自艺术付出数日、数周和数月工作的创作者的权利。 冲击ChatGPT光谱的最新炸弹是一份报告,截至2月中旬,有200本以上的由机器自动生成的书籍在亚马逊的Kindle商店出版。路透社指出,有些书是"合著"的,但许多书是按原样出版的,除了提交内容和收钱之外,没有人类的干预。 就任何人而言,亚马逊正在努力使人工智能生成的书目尽可能透明,将它们标记为ChatGPT,并创建一个全新的部分,称为"关于使用ChatGPT的书,完全由ChatGPT编写"。然而,这些只是内容创作者承认使用人工智能完成工作的书籍。可能还有数百本由不那么严谨的"作者"编写的书。 尽管透明度很高,但一些业内人士担心,真正的作者会被快速生产的平庸书籍的浪潮所伤害,从而冲淡人类作家出版的高质量作品。路透社采访的一位作家从概念到出版作品只用了几个小时。这是一本儿童读物,由ChatGPT制作文字,另一个人工智能生成"粗糙的"图画。 Clarkesworld杂志在过去20天内就看到了大量人工智能生成的"垃圾"故事。"这是我们真正需要担心的事情,这些书将充斥市场,很多作者将失去工作,"作家协会的执行董事玛丽-拉森伯格说。"作者和平台需要对这些书的创作方式有透明度,否则你将会有很多低质量的书。" 另一位内容创作者出版了一部由人工智能生成的科幻小说《银河系的皮条客 - Vol. 1》,在不到一天的时间里,在Kindle上卖到了1美元。他声称,他或其他任何人每年都可以轻松地制造出300部或更多类似的作品,而且已经有越来越多的证据来支持这一说法。 科幻杂志《克拉克世界》(Clarkesworld)开启了许多新晋作者的职业生涯,最近由于最近收到的人工智能生成的内容数量巨大,该杂志实行了投稿冻结制度。编辑尼尔-克拉克(Neil Clarke)在他的博客中写道,到2月中旬,该杂志已经因为人工智能生成的内容提交而禁止了近350个账户。这个数字在短短15天内就超过了1月份的数字,几乎是3倍。五天后,禁令激增到500多个(上图),要知道这些数字是账户被封禁的数字,甚至不是Clarkesworld得到的提交量。 克拉克说,他最早开始注意到聊天机器人生成的文章是在2022年底,他不会说他是如何剔除这些作品的,但在大多数情况下,一个抄袭检查器和一些常识可以起到很大作用。 "我不会详细说明我是如何知道这些故事是'人工智能'垃圾邮件的,也不会概述我从这些提交材料中收集的任何数据,"克拉克写道。"有一些非常明显的模式,我无意帮助这些人变得不那么容易被抓。" 克拉克提供了一个被拒绝的投稿样本,以说明这些投稿中有些是多么的"明显",同时指出并非所有的投稿都是如此糟糕。 问题是,筛查数百甚至数千份由人工智能编写的可怕报告太耗时了,即使有自动抄袭检查器(顺便说一下,这些检查器并不使用人工智能)的帮助。因此,克拉克不得不无限期地暂停投稿,直到他能找到解决问题的办法,损害了一些合法作家发表作品的能力。 人工智能辅助下的作家能够以道德方式出版吗?当然,他们可以,而且有些人会,但可悲的是大多数人不会。 【文章来源】cnBeta; 特别声明:以上内容(如有图片或视频亦包括在内)来自网络,已备注来源;本平台仅提供信息和存储服务。 Notice: The content above (including the pictures and videos if any) is uploaded and posted by user of ASKAI, which is a social media platform focused on technology of CHATGPT and only provides information storage services. |
|手机版|小黑屋|博士驿站:连接全球智慧,共创博士人才生态圈 ( 浙ICP备2023018861号-3 )平台提供新鲜、免费、开放、共享的科技前沿资讯、博士人才招聘信息和科技成果交流空间。 平台特别声明:线上内容(如有图片或视频亦包括在内)来自网络或会员发布,均已备注来源;本站资讯仅提供信息和存储服务。Notice: The content above (including the pictures and videos if any) is uploaded and posted by user , which is a social media platform and only provides information storage services.
GMT+8, 2024-11-23 19:04
Powered by Discuz! X3.5
© 2001-2024 Discuz! Team.