一条“顶流明星在澳门豪赌输光10亿”的热搜词条迅速登上榜首,网友们纷纷扒出豪宅和私人飞机的照片,甚至用AI生成了赌场监控视频,评论区充满了“吃瓜群众”的狂欢。
造谣的竟然是一个36岁的普通男子,他通过一部手机和一款AI软件,把整个互联网当作了自己的“流量提款机”。
他并非黑客,也不是技术高手,只是一个爱刷短视频的普通上班族。看到网上有些人靠“爆料明星隐私”赚取流量,他也动了心思。
于是,他下载了一款自动生成新闻的AI工具,输入“顶流明星”“澳门”“豪赌”“10亿”这些关键词,点击生成,瞬间就出了一个叫做《顶流明星境外豪赌输光十亿身价引发舆论海啸》的爆款新闻。
配合AI合成的“赌场照片”和“权威机构报告”,加上一段模仿明星语气的语音,谣言在24小时内迅速传播,转发量突破千万,直冲热搜榜首。
更讽刺的是,徐某强靠这一谣言赚取的广告分成只有60元——他原本以为借助流量能一夜成“网红”,结果成了全网的笑柄。
有人会问:“编个故事就能坐牢吗?”答案是肯定的。根据《治安管理处罚法》第25条,散布谣言扰乱公共秩序的,最高可被拘留10天。
律师指出,如果该谣言导致件或明星经济损失,徐某强甚至可能触犯《刑法》第291条,面临3年以下有期徒刑。
被造谣的明星可以起诉徐某强侵犯名誉权,要求公开道歉并索赔。更可怕的是,调查人员正在调查他是否用同一手法制造过其他谣言,一旦证实“多次作案”,刑罚可能会翻倍。
互联网不是法外之地,AI也不是作恶的“免死金牌”。你以为是在玩梗,其实已经触碰了法律的红线。
更致命的是,AI生成的内容越来越真实——可以模仿明星的声音、合成假脸视频,甚至伪造“权威机构报告”。
骗子用AI合成女儿的视频,谎称她在国外车祸重伤,10分钟内骗走老人85万元。相比之下,徐某强的“澳门豪赌”谣言简直小巫见大巫。
但技术本身没有罪,罪在于滥用技术的人。就像刀具能用来切菜,也能伤人,AI的“善恶”取决于使用者的初衷。
徐某强的谣言之所以能火,平台算法功不可没。社交平台的推荐机制本质上是“流量优先”:越是耸人听闻的内容,越容易被推送给更多人。
当AI生成的谣言精准击中“明星八卦”和“巨额金钱”的流量密码时,算法便成了谣言传播的“助推器”。
人们天生爱看冲突和八卦,尤其是“富豪破产”“明星丑闻”这样的题材。造谣者正是抓住了这一点:他们不生产真相,只制造情绪。
就像食品包装上必须标注成分表,AI内容标识制度的核心是“知情权”——用户有权知道自己面前的信息是真是假。
未来,社交平台必须审核AI内容的标识,服务提供者还需在文件元数据中嵌入隐式标识。如果徐某强的谣言早被加上“AI生成”标签,这场闹剧或许根本就不会发生。
1. “震惊体”一律存疑:标题党最喜欢用“速删!”,“刚刚曝光!”,“震惊全网!”这类话术,遇到时先冷静两分钟。
3. 警惕“熟人诈骗”:接到“领导”或“亲友”的紧急求助电话时,务必通过其他渠道确认身份,记住“视频不一定真实,声音也可能是合成的”。
随着AI技术的普及,类似的谣言将愈发增多。然而,清朗行动的推进证明,国家正在通过法律、技术和教育三管齐下应对这一挑战。
作为普通人,我们所需要的不是恐惧AI,而是学会与其共处。就像古人发明了造纸术推动文明,但也需要火漆封印防伪。