“近期,某人工智能平台结合部分科普内容生成谣言,造成不良影响。如果人工智能平台热衷生产谣言,或者沦为人类造谣的‘背锅侠’,将成为‘细思恐极’的事情。”

  当人们还在探讨人工智能大模型会给生活带来哪些便利的时候,殊不知AI已经开始干坏事了。比如,AI换脸技术引发的不法事件。科普也未能幸免。近日,一则“十大致癌卫生巾黑名单”的文章在全网疯狂传播,再加上部分博主未经核实就进行解读,更是起到了推波助澜的作用,最后只能由官方出面澄清:此消息为AI生成。

  人工智能时代,科普该怎么破局?消费者又该如何增强信息辨识能力,识破虚假信息?在人工智能大模型的训练和应用过程中,科普又应该发挥哪些方面的作用?

  人工智能确实在很大程度上便捷了我们的生活,但是人类在享受便捷性的同时,也要从科技向善的维度给它备好“刹车”。如今,我们生活在一个完全依赖科技的社会中。很多人认为只要付费,科技就会像魔法一样为我们带来想要的结果。这在某种程度上也印证了亚瑟·克拉克爵士那条广为人知的“定律”:任何足够先进的技术都与魔法无异。

  首先,从科普工作本身来说,社会需要将相应的工作前置,不能临时抱佛脚。我们应该既让公众知晓人工智能给社会经济带来的好处,也需要说明它给我们带来的挑战。同时,还应该让公众了解人工智能有可能会导致“信息失序”,产生误导信息、虚假信息和恶意信息。

  其次,从人工智能大模型训练的角度来说,我们需要增加多元性的信息,尤其是科学内容的“投喂”。曾经有人这样形容人工智能的投入—产出模式:它不像奶牛那样吃草产奶,而是吃啥产啥。如果人类“投喂”的素材本身就存在偏差,就不可能期待它产出正确的结果。更何况,人工智能现在已经开始自动生成谣言了。

  “十大致癌卫生巾黑名单”的内容上标注了“全网内容智能分析”的来源,其实,这里面涉及两个“细思恐极”的问题。其一是,如果该假消息全部为人工智能所为,那么未来会发生更多的类似情况,我们也将处于危险的境地。其二是,未来AI有可能成为一个虚拟的“背锅侠”。无论哪一种情况,都是我们不愿意看到的。

  为了避免产生更多的谣言和伪科学,人工智能生产平台需要加强与辟谣平台的互联互通。同时,对于人工智能生产出来的素材,社会应该引入专家审核的环节。这种审查不仅仅包括内容的科学性,还包括是否存在隐藏的意识形态问题,以及是否符合科研伦理的问题等。这对于审核专家来说,是一个重大挑战。

  再次,对于受众而言,增强辨伪防骗的能力就变得更加重要。这也是我们一直倡导科普要从知识补课转向价值引领的一个重要原因。毕竟相较于知识来说,我们更需要的是科学思维、科学方法、科学精神、科学态度和科学理性,更需要的是在关键时刻能够找到自己所需的信息和知识的能力,是对呈现在自己面前的事实和观点进行区分的能力,以及对于信誓旦旦的表述多问几个为什么的意识和能力。

  最后,对于AI平台来说,相关机构应该主动承担起社会责任,在“踩油门”的同时要备好“刹车”。面临AI炮制的谣言和伪科学,科普不能无所作为,但是光靠科普也很难产生较好的效果。科技向善、企业社会责任不能停留在口头上和纸面上,而是要落实到实际行动上,与用户共同构筑起健康、理性的人工智能应用平台。

  王大鹏,中国科普研究所副研究员,中国科普作家协会理事。专业领域为:科学传播理论与实践,社交媒体科学传播,科学家与媒体关系等。近年来承担各类科研项目数十项;在《中国科学报》《光明日报》《科技日报》《人民日报》等主流媒体发表评论文章三百余篇,在光明网,科普时报开设专栏;在各类核心期刊发表论文数十篇;已翻译出版科普研究理论专著多部(两部译著获得业内奖项),出版科普理论研究专著《愿景与门道:40位科普人的心语》,《谈科与论普-科普人“出圈”手册》等。已为各类科技工作者开展科普培训百余场。