AI弥补了谣言写作者在新闻和文字专业方面的欠缺◆■★,还可以为其配上查无实据但乍一看可信度增加的数据、表格、报告★◆◆★,甚至是图片和视频,图文并茂、数据佐证,如果还能戳中公众的关注点和情绪点,很容易以假乱真。比如前段时间很火的西藏定日县地震中■◆★★◆“小男孩被埋图★★■◆★”、线%★◆◆■★”等,都因其足够的◆■★◆★◆“真实感”引发热议,轻易地骗取公众信任◆■,但后被证实为谣言★◆。
而AI工具触手可及,使得谣言生成的成本不高,而大数据的推荐又使其传播◆■◆■◆“效率”大大提高。再加上发展至今,AI大模型本就存在缺陷,比如AI■★■★★“幻觉”◆■◆■■★,即大模型会生成与事实不符的情况◆★■★◆◆,或者数据来源的局限、推算的偏差等★■◆。当谣言制造者别有用心地投喂,技术真真假假的混淆◆■◆★■■,都让谣言的辨认和治理难度加剧◆★■◆◆★。
据报道■★◆,公安网安部门查明,网民徐某强(男,36岁)为博取流量■◆★★◆、谋取非法利益,使用软件中的AI智慧生成功能,输入社会热点词制作了谣言信息,并通过互联网平台对外发布,造成谣言迅速传播扩散,严重扰乱公共秩序。公安机关根据相关法律法规◆■■,对徐某强处以行政拘留8日处罚◆◆■■★◆。
这都使得AI生成内容的真实规范◆◆、技术伦理等问题日渐凸显◆★,而相关部门配套的制度约束和监管也在升级★◆■★★。国家网信办、工业和信息化部、公安部、国家广播电视总局制定了《人工智能生成合成内容标识办法》。人工智能生成合成内容是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。办法共14条◆★◆◆◆★,将于今年9月1日起施行★■★,要求服务提供者按照要求对生成合成内容添加显式标识和隐式标识。
近日◆■★◆,一则“有顶流明星在澳门输了10亿”的信息在互联网平台传播,引发热议和各种猜测◆■★★■,相关话题频繁登上社交媒体热搜热榜★◆◆。但经查明★◆■,所谓的★■◆★★★“大瓜”又是一起AI谣言。
本文为澎湃号作者或机构在澎湃新闻上传并发布◆■,仅代表该作者或机构观点★★■,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。
当然,AI谣言的治理还需多方发力。比如■★,相关部门、平台方等合力创新反谣言技术★◆★◆,开发反谣言工具,以“技术治理技术”■★◆◆;平台方也需完善审核制度、压实责任等。而公众在面对海量信息时,也需要提升对AI谣言的鉴别力和AI媒介素养。在技术的浪潮中★◆◆,随着法律与伦理的完善和进步★◆,人们的思维也需要跟上脚步■★■。
虽称其为AI谣言■◆◆■■★,但AI只是工具,使用和制作谣言的仍是人,因此惩罚始作俑者十分必要◆■◆◆◆■。但不可忽视k8凯发集团下载首页,随着AI技术的发展,在它的“辅助”下,谣言看上去更“真实”了,扩散起来也更容易◆◆■◆◆。
★■◆★“超一线亿”外加引用的虚构机构及伪造的金融监管报告★■★★◆,模糊但劲爆的字眼,配上细节的“力证”,符合舆论场对■■◆★★◆“大瓜■◆★■”的刻板印象,从效果和流量上看,这则谣言传播得不可谓不“成功”。