【摘要】从莎草纸起,到报刊、广播、网络,再到人工智能……传媒技术发展对新闻传播的影响不断变化。传媒技术的诞生和发展带有倾向性,既有积极影响,也有问题和挑战,技术倾向性可能导致信息过滤泡沫、观点局限性、虚假信息以及广告操纵等问题。当下政府加强监管、行业自律、引入人工智能(AI)等用以防范。此外,要对传媒技术追溯及加强审核机制,提高用户信息素养、算法多样性和客观性,防范技术倾向性对新闻传播的负面影响。
【关键词】传媒技术 倾向性 负面影响 监管公正 人工智能多样化推荐
一、传媒技术带有倾向性
要探讨传媒技术倾向性,首先要探讨技术如何而来。
19世纪末,德国技术哲学家卡普曾通过对工具形状和作用机理的分析,认为技术是人体器官结构和功能外在化的工具,一切技术手段都可以理解为以人的器官为原型,并认为人通过工具不断创造自己。
经济学家布莱恩·阿瑟在《技术的本质》一书中提到,新技术可以是根据某个目的或需要发现一个可以实现的原理,也可以从某一新现象出发,找到如何使用这种现象的方法。原理可以借用,也可以是先前概念的组合,或者由理论而来。只有将概念转化为现实,一项新技术才真正诞生。
早期,也有学者提出了“技术中性论”,认为技术本身并不必然指向某种价值、某种目标。但“技术中性论”引来了批评和争议。比如,美国社会哲学家、历史学家刘易斯·芒福德认为应当将与人生活的多种需要和愿望相一致,以一种民主方式为了实现人的多种多样的潜能起作用的技术,称作综合技术。
在《技术哲学讲演录》一书中,中国技术哲学家吴国盛指出,“所有工具都有意向结构”。技术会内在地规定我们人与世界、人与人之间的交往方式。吴国盛把这种技术内在的规定的价值取向称为“技术的逻辑”,认为“技术的逻辑会迫使你去做某些事情,因此在这个意义上,技术就不是中性的”。
由此,技术是带有倾向性,技术的发展和应用是在特定社会、文化和政治背景下进行的,它们受到社会利益、权力关系、经济动机和价值观的影响。在一个技术性社会里,专家组成“影子政府”,绝不可能是完全无私奉献、不追求个人或小集团利益的群体,完全有可能只从自身小集体利益出发,而不顾及大众利益。
技术会受到社会和经济的影响。比如,某项技术获得的经济效益大,技术会更多向“金主”意志倾向,技术决策的制定过程中,可能受到特定利益集团的影响和偏好。就比如社交软件的设计和应用,会受到设计公司和出资者影响。
如果“金主”的意志或者利益与社会或者公共利益比较一致,这项技术会让社会关系更为缓和;但这项技术可能与整个社会或公共利益不一致,这可能导致技术的设计和应用偏向于特定的社会阶层或群体,而对其他人造成不平等和不公正。某个社会环境经济较为发达,资源分配会更多,这就导致了技术资源的不平等分配。比如,数字鸿沟现象的出现,表明了信息和资源向经济较为发达的地区和人群倾斜,在发展中国家和弱势社群中,访问和使用技术的机会受到了限制。再比如新闻传播平台的算法偏向性,算法推荐系统受到设计者和运营者的意图、商业利益和价值取向的影响,推送给用户的内容就带上了倾向性。
从技术诞生开始,就必然是有倾向性的。任何技术活动无不体现出人们的目的和愿望,无不包含着人们的意志和追求,无不渗透着人们的智慧和创造。传媒技术的发展同样带有倾向性,既有积极作用,也有负面影响。本文重点探讨技术倾向性对于新闻传播的负面影响及相应对策。
二、传媒技术倾向性对于新闻传播的负面影响
笔者认为传媒技术倾向性可能对新闻传播的公正性、多样性、客观性和可信度构成威胁。
1.弱化新闻传播多样性
很多用户获取新闻的方式是通过社交媒体平台和搜索引擎等技术工具。因为技术本身会受到设计者的意图和目标的影响,进而塑造了媒体平台上的信息环境和用户体验。在呈现新闻内容方面,倾向于显示与用户已有兴趣、观点相符的信息,可能导致信息过滤泡沫,使用户只接触到与自己立场一致的观点和信息,而忽略其他观点和意见。这可能削弱了用户接触多样性和广度的能力,影响他们对事件的全面了解和多视角的理解。
如果一个用户倾向于点击、分享或评论某种类型的新闻或观点,传媒算法技术会根据这些行为推送类似的内容,从而强化用户原有的观点和偏好。这可能导致信息的片面性和偏见的加剧,进一步加深社会分裂和信息孤立的问题。甚至可能会使社会对立,对公共舆论和社会的理解产生了负面影响。
此外,传媒技术倾向性可能使媒体机构由于注重用户需求和点击率,导致一些重要但不够吸引眼球的新闻被忽视,造成信息的片面性。对于深入报道和专业内容的推荐较少,这可能导致用户较少接触专业领域的深度报道和分析,削弱了媒体的公共监督和关注社会公众利益的能力。
比如,2023年期间,全球多地发生极端气候事件,如极端干旱、洪水、热浪、寒潮等,对全球生态系统、农业产量、乃至人类居住环境产生了深远影响,但在一些以算法驱动的新闻平台和社交媒体上,这些重要但较为沉重的新闻报道被边缘化,未能获得与它们实际重要性相匹配的曝光度。甚至由于这类报道不如明星绯闻、流行文化等轻松内容吸引点击,深度报道和分析文章也没有得到足够的推荐。这导致许多用户可能对正在逼近的气候危机缺乏足够认识,影响公众对人类生存环境问题的关注和讨论。
2.操纵广告投放
首先,传媒技术倾向性可能导致信息过滤和信息碎片化。平台会根据用户历史访问记录和行为数据来推送与其兴趣相关的广告信息。这样会导致用户只接触到狭窄的观点和信息,忽视了其他更多样化的内容。商家可以利用这一点,通过操纵用户数据和触发条件,使得他们的广告成为用户看到的主要选择,从而限制了多样性和平衡的广告投放。
其次,传媒技术倾向性可能导致广告排序和排名的偏好。平台可以根据算法的设定,将点击率高的广告排名靠前,以提高用户点击和转化率。这种排名偏好可能被商家利用,通过刷点击量等手段操纵算法,将自己的广告排名提前,从而获得更多的曝光和点击。
此外,传媒技术倾向性还可能导致广告投放的竞争不公平。一些商家可能拥有更多的资源和技术手段,可以更有效地利用平台的算法进行广告投放。比如,通过刷点击量、虚假交易等手段来提高自己的曝光和销售。而对于其他没有这些资源的商家来说,他们面临着被排挤和被忽视的风险,限制了公平竞争和多样性。
3.传播虚假信息误导用户
传媒技术倾向性也可能导致虚假信息的传播。个性化推荐算法有可能将未经证实或虚假的新闻信息推送给用户,因为这些信息可能与用户的喜好和观点相关,而不考虑其真实性和可靠性。
首先,传媒技术倾向性可能操纵用户数据与行为,一些商家或利益相关者可以利用技术手段来获取和操纵用户数据,以干扰平台的推送算法,并使虚假信息获得更多曝光。他们可能通过购买点击、评论和分享等手段提高虚假信息的活跃度,让这些信息在个性化推送中占据更多比例,从而让更多用户接触到虚假信息。
如果传媒技术在信息传播过程中缺乏足够的审核机制和监管,使虚假信息得以更容易地被发布和传播。这种缺乏审核和监管机制的问题加剧了虚假信息在传媒技术中的传播,给用户带来了误导和不准确的信息。
社交媒体平台是广泛传播信息的重要渠道,这些平台的技术倾向性可能使虚假信息得到更广泛的传播。平台的算法倾向于显示与用户偏好相符的内容,用户更可能与自己观点相合的信息进行互动和分享。这种倾向性可能加大了谣言和虚假信息在社交媒体上的传播速度和范围,进一步扩大了信息碎片化。
一些新闻门户网站也存在虚假新闻和谣言等传播问题。通过操纵评论、点击和分享等手段,一些机构在推文中散播虚假信息,误导公众观点和情绪。这些虚假信息可能通过推送算法和社交分享的方式快速传播,诞生谣言,并对公众产生负面影响。比如2024年,网上有消息称“中国社会保险基金几乎全部交给外资机构管理”,且被用于“买卖A股”。网民质疑社保基金成为“外资套利的工具”,被广泛传播。后经中国互联网联合辟谣平台向有关主管部门核实查证,相关言论均为不实信息。
三、防范技术倾向性负面影响策略分析
如何应对传媒技术倾向性给新闻传播带来的负面影响?提升对传媒技术的可追溯性及加强审核机制尤为重要,以确保新闻传播的公共利益和社会价值。
目前,针对技术倾向性导致的负面新闻传播的现象,我国政府相关部门及行业积极采取了一系列措施来应对,一方面包括政府加强监管、行业自律,引导用户保持批判性思维和验证信息的能力等;另一方面通过技术手段,如利用人工智能(AI)促进信息传播的公正性、多样性和深度提升算法多样性和客观性等,应对技术倾向性负面影响。
1.政府监管:维护网络生态环境秩序
中央网信办开展系列性的“清朗网络空间”专项行动,通过严厉打击各类违法违规行为,提高网络信息内容的质量,维护网络生态环境秩序,促进网络生态的健康发展。该行动自实施以来,每年都会根据互联网的新情况新问题进行调整和部署,涉及多个领域,包括但不限于打击网络谣言、治理网络直播和短视频乱象、打击流量造假、黑公关、网络水军、整治自媒体乱象、保护未成年人网络环境等。
例如,在2024年的“清朗”系列专项行动中,中央网信办明确了将继续聚焦网络上的突出问题,以人民的根本利益为出发点,通过集中整治网上存在的各种乱象,进一步推动网络生态向好。这些行动通常会设定具体目标、治理范围和时间表,协同各地网信办、公安机关及其他相关部门共同执行,同时也鼓励公众参与,共同维护良好的网络环境。
历年来,“清朗”行动已经取得了一系列成果,比如清理违法和不良信息,处置了大量违规账号,遏制网络空间中的不良风气,提升网络文化的质量,保护网民的合法权益,尤其是对未成年人的网络保护得到了显著加强。
为了提升青少年网络安全意识,加强青少年网络素养,维护青少年健康成长,全国青少年网络安全素养教育周活动作为“国家网络安全宣传周”的一部分,专门针对青少年群体,强调通过多种形式的教育活动,如公开课、主题班会、知识竞赛、发放宣传资料、专家讲座等,普及网络安全知识,教授青少年如何安全、健康地使用互联网。
通过这些方式,加强对用户的教育和宣传,提高其对虚假信息和操纵行为的辨别能力和批判思维。用户学会主动寻求多样化的观点和信息来源,不依赖个性化推送的狭隘信息。用户应该了解到,传媒技术的推荐机制仅仅是基于个人喜好,并不一定能提供多样、客观和准确的信息。
此外,广告平台、社交媒体和电商平台等应加强审核机制,严厉打击操纵行为和虚假广告;应设立专门的审核团队,监控和审查广告内容和用户生成的内容,及时处理违规行为和虚假信息,例如,广告平台可以禁止涉嫌诈骗或虚假宣传的广告,社交媒体平台可以加强对虚假信息和恶意操纵行为的检测和处理,在平台上建立信任和可靠的环境。监管部门应与互联网企业合作,加强监测和执法力度,对违规行为进行处罚和惩戒。
2.行业自律:“较真平台”助公众辨识真相
我国新闻行业也在自律方面采取了一系列措施,以应对技术性倾向给新闻传播带来的负面影响。中国新闻工作者协会新闻道德委员会于2015年成立,旨在加强行业自律,规范新闻传播行为。委员会针对典型案例进行通报批评,对捏造严重失实的新闻信息予以曝光和处罚,进一步维护新闻道德底线。
新华通讯社推出“新华较真平台”,是一项基于人工智能技术的创新服务,专注于内容安全领域,旨在通过先进的技术手段加强信息的真实性和准确性。该平台以“内容风控+内容检校”的安全中台体系为核心,构建了一个被称作“风控大脑”的智能系统,旨在识别并纠正错误信息,提升内容发布的可靠性和合规性。新华较真平台的推出,不仅在新闻报道的准确性上追求卓越,同时也为净化网络空间、促进信息真实流通作出积极贡献。
而腾讯新闻较真平台是腾讯网旗下的一个专注于事实查证与辟谣的栏目,自推出以来,该平台致力于打击网络谣言,提供权威、科学的信息,帮助公众辨识真相。较真平台利用大数据、人工智能等技术手段,高效地识别谣言,进行快速反应和辟谣。
互联网企业也应提高透明度,公开其个性化推送算法和数据收集方式。向用户解释推荐内容的依据和如何保护用户隐私。同时,用户应有权选择是否接受个性化推送,并能够查看和控制他们的个人信息。比如字节跳动在其官方渠道和公开报道中,虽然没有完全公开算法的具体细节,但强调了算法推荐机制的正面影响,并承诺提升算法的透明度和公平性,如介绍算法如何基于用户行为、内容特征和情境信息进行个性化推荐等。
3.人工智能:减少虚假和有害信息的传播
人工智能技术发展,也影响着新闻传播发展。其中,运用AI技术,可以在内容审核与事实核查、平衡内容推荐、深度内容分析方面,减少技术性倾向给新闻传播带来的负面影响,提高新闻传播的质量和多样性,减少虚假和有害信息的传播,创建更健康、有序的信息生态。
AI可以被用来自动检测和标记潜在的虚假信息、谣言和误导性内容。通过自然语言处理和机器学习技术,AI可以实时分析新闻报道和社交媒体帖子,与可信数据库对比,识别不实信息,并及时提醒平台和用户,减少错误信息的传播。
AI还能辅助生成高质量的深度报道和分析文章,利用大数据分析和知识图谱技术,自动整理和分析复杂信息,帮助主创者快速把握事件脉络,撰写详尽、客观的报道。同时,AI也可以生成个性化的新闻摘要,帮助用户高效获取关键信息。
AI算法可以被设计成更加公平和多元的内容推荐系统,不仅考虑用户偏好,同时确保重要但可能不够吸引眼球的新闻也能获得适当曝光。例如,通过引入多样性指标,确保政治、科技、环境、教育等各类别的新闻均衡推荐,避免信息茧房效应。比如今日头条采用了一种混合推荐方法,结合了基于内容的推荐、协同过滤以及其他机器学习模型。
传媒技术倾向性存在特定的偏见、选取和展示信息的倾向。它可以涉及算法、推荐系统、广告投放等技术手段,通过过滤、排序和推送信息来满足用户需求。然而,这些技术的设计和应用可能会导致信息的片面性和偏向性,使用户只接触到与其现有观点一致的信息,或者暴露于虚假、误导性的信息之中,从而带来传播虚假信息、操纵公众舆论或者增强商业利益等负面影响。
因此,防范技术倾向性的负面影响非常重要,需要加强政府监管、提升行业自律、增加透明度和可追溯性等措施来确保公正的信息环境和用户权益。未来AI技术的发展,也可以一定程度降低传媒技术倾向性对社会的负面影响,维护用户权益和社会信息多样性,体现新闻传播的公共利益和社会价值。
作者:
侯玉晓 南方都市报记者
南方传媒研究 2024年第4期 总109期
欢迎订阅《南方传媒研究》
本刊邮发代号:46-582
本刊唯一投稿、合作邮箱:
nfcmyj@163.com