近期多地公安机关发布了多起利用AI工具实施造谣的相关案件。在这个信息爆炸的时代,网络谣言时刻影响着我们的生活。特别是一些涉及教育的谣言信息,传播力强,容易造成不良的社会影响。例如,此前有人曾利用一款AI小程序,编造出“校园霸凌”的虚假信息,对被造谣的学校造成了严重的名誉损害。面对AI造谣这一新型挑战,我们有必要健全法律法规和相关治理机制,不断加强监管,斩断其背后的利益链条。 造谣不仅容易误导公众,还可能侵害他人合法权益,扰乱社会秩序。对此,我国刑法、民法典、治安管理处罚法以及相关司法解释,都为打击造谣提供了法律依据。然而,关于AI生成内容的法律属性及其责任归属仍然存在一定的争议,或者说现有的法律还存在缝隙地带和空白地带。因此,立法机关应当积极回应技术发展带来的新问题,通过完善法律法规,进一步明确AI谣言制造者、传播者的法律责任,为打击AI造谣提供坚实的法律依据。 AI造谣往往依赖于特定的算法模型和大数据资源。监管部门需要加强技术研发,或加强与AI技术企业合作,提高监管“智能”。一方面,要运用AI技术对网络信息进行智能监测,迅速发现谣言的蛛丝马迹。通过算法识别谣言的传播特征,如关键词、语言风格、图像识别等,实现谣言的自动识别和拦截。另一方面,要利用AI技术提高谣言的甄别能力,结合官方信息、权威数据等,对网络信息进行实时比对,确保信息的真实性。对发现的网络谣言,要用技术的力量第一时间“识破”谣言,然后“撕破”谣言。此外,要加大对网络数据的治理力度,打击数据造假、滥用等行为,从源头上削减AI造谣的素材基础。对于已经投入市场的AI工具,应定期开展检测评估,一旦发现其被用于造谣等违法行为,应立即予以警示并做出相应的处理。 造谣的是AI,作恶的是人。以“西安突发爆炸”虚假新闻案为例,涉事账号所属机构最高峰一天能生成4000至7000篇假新闻,每天收入在1万元以上,而公司实际控制人经营着5家这样的机构,运营账号达842个。可见,这些幕后黑手才是AI造谣泛滥的根源。因此,相关部门应建立健全AI技术应用的审核制度,对AI算法开发者、服务提供商进行资质审查,对成为谣言帮凶的AI运营企业和个人要依法追责。 治理AI造谣乱象,是深化网络生态治理的应有之义。只有不断扎紧监管的“篱笆”,深入挖掘、严厉打击AI造谣产业链上下游的违法犯罪行为,让AI造谣者付出应有的代价,才能避免AI造谣传播带来的社会危害,从而为良好教育环境的营造奠定基础。 |