打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
李静辉: 算法推荐意识形态属性的生成逻辑、风险及治理

  编者按:算法推荐正在超越人工智能的技术范式,成为社会资源配置的新兴权力,这一权力形态在资本逻辑加持下,已经开始扮演起意识形态的角色。算法推荐的意识形态属性不断僭越主流意识形态的共识生成、认同建构、价值凝聚和议题设置,以致造成主流意识形态价值功能或被遮蔽的风险。规避算法推荐的意识形态风险,需要推动政府、平台、算法、公众、媒体等多元治理主体在社会主体层面、算法技术层面、意识形态层面的共管共治,形成协同治理的局面。

  意识形态作为“法律的、政治的、宗教的、艺术的或哲学的”[1]等社会意识形式构成的观念上层建筑,是社会生产方式变革的总体性反映。算法作为人工智能的核心技术,正在驱动生产生活深度革新,在包括内容传播在内的各个领域,智能算法已扮演起主导者的权力角色。但在行使权力过程中,算法推荐不可避免地嵌入了价值指向和意识形态色彩,从而越来越具有意识形态属性。算法推荐的意识形态性是指算法在设计和使用中与权力、资本不断勾连,造成价值“非中立”,算法技术从起初就预设有某种意识形态立场,并在运用过程中不断产生特定的意识形态后果。无论是在网络空间还是现实空间,算法推荐都通过对内容传播的全方位把控,逐步左右了公众构筑公共共识、政治认同、价值凝聚、权威信仰等的过程,进而造成遮蔽主流意识形态价值功能实现的风险。而要规避和化解基于算法推荐意识形态风险的多维性生成,必须推动政府、平台、算法、公众、媒体等多元治理主体在社会主体层面、算法技术层面、意识形态层面共管共治,实现协同治理。事实上,随着算法应用领域深度拓展,探究算法推荐的意识形态风险与协同治理路径,都具有很强的理论意蕴和现实价值。

一、算法推荐意识形态属性的生成逻辑

  从意识形态视角把握算法,首先要厘清技术与意识形态的关系问题。技术意识形态产生的先决条件是技术离开它原初出场方式,开始与权力“共谋”。在智能时代,算法不仅仅是一项人工智能技术,更是全新的资源配置方式,它通过主导内容传播、控制舆论导向、引领价值选择,成为思想观念塑造的新兴权力,建构起算法推荐的意识形态属性。

 (一)技术意识形态的理论视角

 法兰克福学派首先提出“科学技术即意识形态”的理论观点,马尔库塞和哈贝马斯对其进行了深入研究。在马尔库塞看来,发达资本主义社会由于科技进步开始影响并支配人类社会一切领域,使得技术具有了意识形态的政治倾向,甚至“技术理性这个概念本身也许就是意识形态的。不仅技术的应用,而且技术本身就是(对自然和人的)统治——有计划的、科学的、可靠的、慎重的控制”[2]。技术的理性力量在社会中持续扩展意识形态的指向,造成技术理性在控制人与自然方面越来越高效、全面、合理,技术形式真正成为了整个社会的统治理性和控制逻辑。技术对社会的控制剥夺了人的自由,导致单向度的思想和行为取向,以一种更强大的隐形力量左右着人们的思想。哈贝马斯进一步表示,科学技术就是第一生产力和新的意识形态。在晚期资本主义社会,科技日益发展使其全面彻底地介入政治活动,“技术统治论的命题作为隐形意识形态,甚至可以渗透到非政治化的广大居民的意识中”[3]。技术作为意识形态新形式,彻底摧毁了传统政治手段的意识形态特征,它巧妙地将人与人的关系转化为人与自然的关系,以一种看似“合法化”的力量为资本主义政治统治辩护。技术用控制自然的方式来实现对社会的控制,用工具行为压倒并同化交往行为,并用工具理性宰制交往理性,最终压抑了人的本性。总之,马尔库塞和哈贝马斯一致认为,技术就是一种意识形态,技术与政治的结合使得技术统治成为资本主义意识形态的新样态。

  马克思主义则主张,科学技术作为生产力,是经济基础的重要组成,而意识形态作为上层建筑,与科技有明显差异,两者不能混淆。但另一方面,马克思在资本批判中也指出,技术的资本主义应用,特别是资本增殖的动力促使技术全面融入资本,成为与资本相适应的生产方式,从而产生技术异化。技术异化取代人类独有的劳动,将一种普遍的规则和理性渗入生产生活领域,它用技术规则约束个体生活,用技术逻辑规制自我意识,人逐渐成为技术机器的附庸,丧失了作为个体的价值与意义。马克思认为,消除技术异化的根本途径在于将技术从资本控制中解放出来,“从而学会把自己的攻击从物质生产资料本身转向物质生产资料的社会使用形式”[4]。只有变革根本的生产方式、政治制度和思想观念,才能实现技术与资本分离,进而发挥技术促进人的自由全面发展的旨归。可见,在马克思看来,技术虽不直接承载价值和意识,但技术与权力和资本结合起来,就无可避免地具有了强烈的意识形态性。因此,用马克思主义科学辩证地看待技术的意识形态属性,对理解算法推荐的意识形态性具有重要方法论意义。

 (二)作为技术和权力的算法推荐

 计算机科学中的算法代表着通过向机器输入具有一定规范性的程序代码,在限定时间内获得所预期输出结果的技术性策略机制,其意义在于利用计算机帮助人类提高解决复杂问题的效率。时下,算法已由计算机专业术语迁移应用于智能时代的公共话语体系中,其通过深度学习和机器训练模拟人脑思维和智能,帮助人类处理日益严重的信息过载危机。具体到算法推荐,就是通过挖掘用户历史数据,获知用户特征“数据画像”,其输出结果能够精准匹配用户需求。

  从技术逻辑看,算法推荐主要包含三个单元,分别是:输入单元(数据集和内容池),搜集记录用户的特征和行为数据,并进行过滤、聚类、分类和赋值、打标签;运算单元(深度学习和模型构建),计算出已知数据与潜在需求之间的相似度;输出单元(推荐列表和内容榜单),将运算结果转化为可理解的内容推送给用户。算法推荐的技术特性,一是借助对大数据的收集和分析,实现精准的内容推送和场景适配;二是充当用户与内容的中介,“把关”内容获取的质量和效率;三是收集用户反馈信息,动态调整计算模型和输出结果;四是深度学习训练出具有自主性的模型,据此再进入新的领域独立工作。概言之,算法推荐能够有效解决信息过载难题,提高了人们的生产生活效率。

  在商业领域,对算法技术控制权的争夺已成为各方的“角力”重点。算法不仅是一套特定的程序编码和计算模型,实质上还是一种新兴的资源配置范式。算法推荐在掌控内容流动过程中,决定着人们想看什么、能看什么、看的多少,以及看的先后顺序,从而不知不觉地影响和改变了人们的认知习惯与行为方式,并形塑人们对外部世界的观点和看法,以致干预甚至主导人们的思想和行为。可以说,智能算法在模拟人脑的思维与智能工作的同时,其实也是在行使社会权力,这一权力不仅能够主导个体的信息获取和认知养成,同样对企业发展、社会运转、国家治理也表现出强大的作用力。但这种权力形态与传统政治的或社会的权力类型有所不同,它更多地承载着“商业逻辑、偏好原则、技术理性和隐性运行的特征”[5]。一开始,算法权力还只是在算法空间隐秘化地表达个体的偏好与选择,但当这一权力指向公共事务和生活领域时,依托商业资本的强势驱动,算法推荐对原有内容的传播结构重新赋权,并对传统权力模式进行解构与重塑,造成政府、企业、社会、公众在不同程度上受到了算法权力的干预和控制。质言之,在看似中立客观的算法结果背后其实蕴含着特定目的的权力意志,这一权力方式替代传统权力手段干涉甚至主导人类社会事务,它强大、隐秘、持久,而且其运行结果并非总是“向善”的。

 (三)算法推荐的意识形态属性

  权力往往导致技术的价值中立成为一个伪命题。就算法推荐而言,一是内嵌规则决定了其从一开始就不可避免地会预设有某种意识形态立场,二是无可避免甚至难以把控的不当使用必然导致特定意识形态的后果。

 算法推荐能够扮演起越来越强大的权力角色,首先是因为在设计规则中就先天带有工程师们的某种价值立场或意识形态倾向。在设计过程中,算法工程师们通常代替不同的用户作出统一选择和决策,规划算法实现目标的技术路径,并依据自身知识判断或历史用户的使用惯例挑选数据和训练模型,以便确定内容与用户匹配的最优算法。所以,“工程师自身的知识储备、价值信仰和思想观念,以及他们所处社会的伦理道德、意识形态和精神文化是影响算法设计的关键因素”[6]。此外,“喂养”算法的数据也并非是价值无涉的,它们从现实世界中抽取因而必然携带着社会、文化和价值的意识形态色彩。数据的规模和代表性是影响数据客观性的关键指标,但获取全样本数据并不是一件想当然的事。工程师们往往希望算法实现某种预期结果而精心选取某一类“指定”数据,或者在数据分析模型的设计中进行人为“扭曲”,甚至对数据的相关关系进行过度解读,这些都左右着算法的价值选择。更值得关注的是,算法不仅会承袭工程师们和历史数据中的价值立场,还可能随着自身迭代更新和数据体量的扩容而强化和放大这一价值立场,从而进一步固化、极化算法推荐的意识形态色彩。

  “从技术研发到应用,是一个政治的过程,即社会权力参与其中为实现自身的意图展开斗争的过程。”[7]算法的运用过程往往被商业资本裹挟,服务于特定的资本目的或政治目的。资本逻辑渗透于算法数据抓取、用户画像时的价值判断中,隐藏于深度计算和内容推送时的价值标准中,呈现于推送结果对用户的价值引导和思想操纵中。资本逻辑拥有强大支配权和控制权,它强调内容变现能力,并承受最小的社会责任和伦理义务;它通过重构内容传播的评价体系,支配算法的应用场景和应用强度,以致“绑架”算法成为特定思想和价值的传播载体与外在表达。同时,深度学习和机器训练赋予了算法某种程度的自主性,这种自主性也必然让输出的结果难以解释和预测。一旦算法运算出错或失败,其推送的内容可能走向工程师们和用户预想的反面,甚至引发社会伦理问题。况且算法作为一种技术手段本身并不具备反思功能,其对所输出结果的伦理倾向不承担任何纠偏职责,也会导致错误倾向的内容推送无限循环下去。总之,意识形态渗透于算法推荐全过程,算法进行的个性化推送并不仅仅是“貌似客观”的数据和信息,而是夹杂着资本、内容、用户三方博弈的复杂权力关系的内容载体,潜藏着特定的意识形态内容与价值。

二、算法推荐意识形态属性的风险表征

 算法的内嵌规则和不当使用是生成算法推荐意识形态属性的关键,也是造成主流意识形态风险的根源。“声讨”算法推荐意识形态风险的基本逻辑是,算法本身的运作逻辑和背后潜藏的资本利益阻碍主流意识形态价值功能的实现,具体表现在算法运用中不断僭越主流意识形态的共识与认同、价值与信仰,导致主流意识形态内容逐渐“缺场”。

 (一)“信息茧房”阻隔共识的生成

 思想上的共识是行动的前提。主流意识形态催生思想共识的过程,就是通过向受众传递有益于观念塑造和思想建构的共识性知识,借助对这些知识的普遍接受促成个体对其社会共同体的身份确认,进而遵循主流意识形态所提供的价值指向、理论向度和实践建构,将“统治阶级的思想”转化为“占统治地位的思想”。然而,在算法推荐主导的舆论环境中,其所造成的“信息茧房”已成为阻隔主导思想共识生成的幕后“黑手”。

  “信息茧房”是算法被诟病的主要原因之一。算法根据个体特征的差异性,精准推送个性化产品与服务,诱导个体持续消费契合其偏好的内容,而异质化声音则被排斥在个体“阅听”范围之外,并且只有持一致偏好的“好友”间才能充分认可与交流,形成一个个标签显著的群体圈子,久而久之,个体被桎梏于像蚕茧一样的“茧房”中,产生认知极化和群体固化。

 其一,认知极化阻挡共识性知识进入算法受众的认知空间。共识性知识指拥有相近看法和观点的个体对主导思想观点的一致态度,它是意识形态发挥功能的基础。算法受众的认知极化主动拒斥不符合自身偏好的其他领域知识和异质化内容,个体时常沉浸于同质化内容所营造的“这一切都是真的”场景之中,盲目排他的认知态度悄然形成,相互之间就很难达成认知普遍性知识的共同 “视角”,“共同'视角’的缺乏,意味着人们对一些事实的判断会出现差异,共识难以形成”[8]。其二,群体固化妨碍算法受众对其社会共同体身份的确认。意识形态凝聚社会共识的重要体现是构筑个体对社会共同体身份的确认,而“信息茧房使得受众接受的外界信息窄化,进而影响客我的形成过程,并最终通过主我、客我互动影响个体的身份认同”[9]。在“茧房”作用下,“客我”作为社会共同体却被同质化严重的小群体所取代,结果“客我”因具有一致特征又被算法集中看待,所发布的信息也被算法互相推荐,进一步加剧群体固化,反过来持续弱化“自我”,这一过程让个体越来越疏离于社会共同体。

 (二)算法偏见动摇认同的建构

 建构意识形态的认同即构筑个体对其认可与赞同的认知和行动,它包括“话语认同、价值认同、政治认同和自我认同”[10]。认同构建的目的是通过主导思想文化的话语表达、内容传播、价值引导,促使个体对其所传播的政治意志、政治合法性进行确认、归属和支持。但意见的公共空间正在受到一个个算法偏见的侵蚀,个体价值取向的偏向性越来越倾斜,这将不可避免地带来人们的认知偏执和思想极化现象,以致动摇主流意识形态的认同建构。

 算法偏见已成为一个显著的政治和社会问题。“算法是基于统计的相关性作出推理的,数据之间的统计学关联可能隐藏着人类的过失、偏见和歧视。”[11]算法偏见来源于设计者和使用者的价值选择,并通过不断运作归纳和承继了整个人类文化中的偏见价值体系。当算法担当起普遍性的公共权力角色时,算法偏见的影响就显而易见。

 其一,算法偏见的“既有看法”与“刻板印象”加大认同难度。智能算法用户本位导向的推送原则彻底降低了获取个性化信息的难度,个体长期沉浸在信息冗余、身心满足的传播环境中,容易诱发情感共鸣和情绪宣泄,产生“一叶障目”的结果,误把接收到的“窄化”信息当作真理,把某一圈层的“共识”当作普遍共识,继而形成认知上的“既有看法”和“刻板印象”。这一认知桎梏使个体把客观事实和理性思辨抛诸脑后,进一步扼杀理性的思考,以致对主流意识形态内容产生了“对抗性”偏见与误读。其二,算法偏见的“不公决策”与“歧视结果”导致认同危机。算法偏见不仅继承社会结构中已有的偏见,更不断固化或放大这种偏见,导致决策的不公正和歧视的结果。算法歧视固化现存的社会层级和秩序,限制个体和资源在秩序之外流动,加剧流行的不公平,甚至造成新的不公正行为。当个体遭遇算法不公平、不公正对待,就会对主流意识形态的社会建构产生认同动摇,随之对社会主义意识形态产生偏见和误读,进而在潜移默化过程中稀释社会主义意识形态的凝聚力和引领力。

 (三)把关转移扰乱价值的凝聚

价值凝聚是在主导价值引领下,将个体多元多样、分歧分化的价值观念汇聚、凝练、整合为共同的、一致的价值信仰的实践活动。主流意识形态价值凝聚就是用社会主义核心价值观来凝心聚力的过程。算法推荐在实现内容与用户精准对接的同时也解构了传统把关人发挥作用的情境,传统把关权“旁落”至智能机器和多元化用户手中,造成传播空间良莠掺杂的价值喧嚣,挤压了主导思想文化的表达场域,主流意识形态凝聚力面临被削弱风险。

 公共传播系统在价值凝聚过程中的地位越来越突显。在传统传播中,内容的把关权由媒体人掌控,这些把关人本来也是“政治上层建筑”的组成部门,他们秉持主流价值导向,在舆论引导、价值凝聚方面扮演“审核”角色。而在算法分发过程中,对内容“审核”的权力已经让渡给了两个逻辑:“一是让渡给社交关系,二是让渡给平台算法。”[12]

  其一,算法行使把关权造成鱼龙混杂的内容生产和分发。算法把关主体取代传统把关人的内容审查和舆论引导职责,依靠“冰冷的代码”对内容进行把关,依据把关对象(用户)的偏好来判断内容“价值”。当算法由人性深处利己、享乐的需求驱使时,包含娱乐、虚假、庸俗的内容就成为推送首选,具有流动、碎片、跳跃等特质的信息占据用户“阅听”世界,科学、客观、严肃的话语形态就被拒之门外。主流意识形态在不知不觉中被遮蔽,甚至被挤出把关主体的推送选项和决策范围。其二,“投其所好”的把关原则导致思想和文化的禁锢。算法推送的结果每时每刻都在迎合用户的喜好与趣味,并且这一结果“为了取悦我们的个人主义观念,往往会进一步加强我们对某些问题的'既有看法’”[13]。通常,在容易获取信息的情况下,用户往往只倾向于选择愉悦自己身心的内容,这种选择取向通过用户对推荐内容的点击、收藏、关注、点赞、评论、转发甚至“取关”、屏蔽等行为再反馈至算法系统,算法系统又据此调整分发策略,进而不断肯定、强化偏好认知,让人们的思想持续沉迷于“孤岛”之中。

 (四)资本逻辑操纵议题的设置

 议程设置主张,传播领域掌握议题设置主导权的一方,在舆论引导和观念塑造中往往能占据优势。主流意识形态的传播一般通过针对性的议题设置,引导公众关注所建构的政治、经济和文化景象,实现意识形态的价值功能。可是,算法技术赋权下的内容传播内蕴资本逻辑和工具理性,重构了传播过程的评价体系,算法平台对内容变现能力的过度追求,在一定程度上降低了主流意识形态的议题设置实效,遮蔽主流意识形态的权威信仰。

 从推荐算法的价值逻辑展开来看,资本逻辑才是其根本价值逻辑。算法设计的背后,是一套通过满足用户消费趣味,以培育用户和会员(拥趸和粉丝)忠诚度的资本逻辑。为此,算法只推送用户“最想看”的内容,而非用户“应该看”的内容。时下,以算法为内核的“流量经济”使过度迎合用户需求的推送成为内容生产、传播的基本趋向。

  其一,“流量经济”策划的假新闻扼杀公众理性的政治思考。被流量和点击量“绑架”的算法在内容分发中承受最小的责任义务,为放大“眼球效益”,不惜推送低劣媚俗和未经证实的假新闻,并以夸张和扭曲的形式不断重复,严肃新闻则被挤出算法舆论场。隐藏有某种政治目的的假新闻总是试图操纵公共舆论,干扰政治性议题的表达。结果,“由算法大肆推荐的'内容农场’劣质新闻不仅悄悄控制了政治性议题的'议程设置’,也在潜移默化地影响着人们的政治信息消费习惯与政治心理”[14]。其二,“流量经济”催生技术崇拜超越主流思想的价值信仰。资本逻辑推动算法占据信息分发空间,通过不断满足公众个性化、私密化需求来获取信任,进一步诱发公众对算法的技术崇拜。公众沉浸于算法推送的信息狂欢中,将思考和认知彻底交由值得“信任”的机器,主动坠入“技术的牢笼”,在思想行为上受制于技术力量,进一步消解了对主流意识形态的价值信仰。这正如“人创造了种种新的、更好的方法以征服自然,但他却陷入在这些方法的网罗中,并最终失去了赋予这些方法以意义的人自己”[15]

三、算法推荐意识形态风险的协同治理

 算法推荐表征着基于用户兴趣的个性化分发,主流意识形态则体现着传播者意图的统合性建构,其出发点的张力又加剧了意识形态的风险。破解这一紧张关系需要引入协同治理的思路,政府、平台、算法、公众、媒体等多元治理主体在社会主体层面、算法技术层面、意识形态层面应共同“发力”,形成协同整合和共管共治的局面。

(一)社会主体层面的协同治理

 第一,培育社会公众的算法素养。

 算法素养是公众发现、认识、理解算法的基本素养,它“并不是指能够严格地读写代码,而是说(受众)能意识到算法在他们生活中的存在,以及算法所扮演的越来越重要的角色,不管这个角色是好或是坏”[16]。算法素养培育的目的是达到能够防范算法权力对个体认知的操控,学会利用算法技术达成便利生活的目标。一是公众应对算法及其结果抱持批判的态度,认识到算法推送中存在的明显不足和缺陷,主动搜索多元化信息,防止沉溺于算法构造的“茧房”中。二是提升对算法结果的辨别、判断和遴选能力,能够对算法推送的内容做出准确价值判断,自觉屏蔽掉媚俗、错误、负面信息,不使自己被算法“圈养”。三是养成自觉遵从内容事实标准和伦理道德的意识,坚持传播应具有的真实性、透明性规范,以公共价值衡量内容优劣,用实际行动拒斥假新闻。

 第二,强化平台企业的伦理自律。

 相较于他律的外在规制,设计和使用算法的平台企业应更加注重自我伦理约束,强调和践行企业社会责任及算法伦理规范以规避算法推荐的意识形态风险。一是通过简明易懂的算法说明而非庞杂的程序代码,主动向公众解释算法隐含的逻辑推理原理,“使从算法输入端到算法输出端的整个流程成为社会各界可观察、可理解的'白箱’”[17],增强公众的算法信任感。二是自觉遵循公平、安全、透明、包容、可追责、可追溯等的算法伦理规范,限定算法使用范围使其不会对隐私保护构成显著的威胁,以及切实避免新的不平等和不公正,确保算法运用以促进而非阻滞主流思想观念的传播。三是时刻担负好信息把关责任,运用人工编辑加大内容安全审核和事实核查力度,把营造良好舆论生态、关照公共利益、彰显传播平台的价值引领作用作为自身社会责任,积极传播主流声音。

 第三,推进主流媒体的智慧传播。

 传统主流媒体是思想文化宣传的重要担纲,但在追求“流量至上”的传播环境中,主流媒体的声音往往被算法化媒体所淹没。因此,提升主流媒体的传播能力迫在眉睫。传统媒体不仅要依托“中央厨房”进行转型,搭建起能够聚拢掌握算法技术优势的各方新兴媒体的公共平台,并发挥好协同作用,实现技术相加、内容互融、终端互通,构筑一批肩负“流量担当”的主流全媒体平台,进而在与多元传播媒介争夺受众过程中牢牢掌握弘扬主旋律、展示正能量的传播主导权;还要搭乘算法技术快车,借鉴算法的推送逻辑重构信息采集、生产、分发的全流程,以主流价值观设计“党媒算法”,不断提高自身驾驭和运用算法的能力,提升整合、引导、传播主流意识形态内容的能力,持续地为用户提供有深度、有态度的新闻,培育在算法空间传播主导思想文化的强大阵地依托。

  (二)算法技术层面的协同治理

  第一,重构算法内容池的配置比例。

 算法推荐内容池里的内容质量决定着推送结果所传递的价值。如果池里都是泛滥的悬念“标题党”和虚假媚俗的内容,那么算法也会将这些内容精准推送给用户。规避算法推送不当内容的风险,一要重构内容池里的内容配比。将反映主流意识形态的信息注入内容池,以马克思主义中国化时代化大众化的理论成果主导内容配置,让承载社会主义核心价值观、民族精神与时代精神,以及中华优秀传统文化的内容充盈整个算法内容池,以在算法推送中达成主流意识形态对多样化思潮观念的包容性整合。二要将价值导向正确与否作为推送内容的一个独立标签,对池里反映正能量的内容赋予更大的权重值,对权威媒体的资源进行流量加持,并降低低俗内容的热度值,引导内容生产方更多产出包含主流价值导向和弘扬正能量的“热搜话题”,让正能量占据算法内容池。

 第二,改进算法的伦理和价值设计。

 算法的伦理和价值风险产生于算法系统的特定功能与公众对特定功能的理解之间发生偏差。解决偏差的策略是把公众的理解和认知融入算法决策之中,将公众对一些社会问题的普遍共识也作为算法设计应遵守的基本准则,并视其与算法技术规则具有同等地位,以使“算法决策与社会判断相结合以促使公众与算法之间也达成契约,进而实现众机回圈(society-in-the-loop)”[18]。一般来说,算法工程师等少数人通过理解公众的优先选项和价值观来主导机器作出决策,并接收用户反馈以修正算法模型,也就是“人机回圈(human-in-the-loop)”。但毕竟少数人的观念无法准确替代公众的共识认知,所以应依据社会普遍认可的共识和价值规则编写算法,也即改进算法“非此即彼”的决策选择,将公众间共同约定的社会契约也作为算法决策的依据,以达成算法中“人机回圈”与社会契约的结合。

 第三,加强算法设计和运用的监管。

当前针对算法的监管主要是事后审查,往往是采取补救措施,有一定局限性。增强算法监管的主动性,需要由事后审查转变到对算法设计、运用的全过程监管。一是完善法规和标准,明确算法的行为边界和法律底线,树立起监管算法的程序思维、规则思维以及权责思维,从规章制度方面保障算法健康发展。二是强化人工把关,即引入内容审核员以随时随地检视算法推送内容是否正确、安全、可靠。人工把关的意义在于弥补机器智能的价值观缺陷,用主流价值观约束和纠偏推送内容的表达意图,实现人机互补以更好地净化算法主导的内容生态。三是实施伦理审计,“从智能认知与算法决策的结果和影响中的不公正入手,反向核查其机制与过程有无故意或不自觉的曲解或误导,揭示其中存在的不准确、不包容和不公正,并促使其修正和改进”[19]

(三)意识形态层面的协同治理

 第一,增加主流意识形态理论供给。

 “聚焦智能算法技术在我国社会、文化、政治生活各方面产生的'中国问题’'中国实践’'中国经验’,坚持和发展马克思主义意识形态理论。”[20]一要提升理论供给实效性,从鲜活的现实实践中汲取优秀的意识形态元素,打造能够有效规避算法陷阱的意识形态理论文本,于智能推送中呈现主流意识形态的功能指向,满足个体不同精神层面的意识形态需求。二要增强理论的现实阐释力,将国家发展主题和民族复兴愿景的宏大理论与算法化个体的微观实践有机结合,回答整体与个体、共性与个性的价值同构问题,加大理论对算法化问题的阐释力度,筑牢共同的思想基础和精神家园。三要推动理论普及大众化,挖掘崇高信仰与日常生活的契合点,引导个体对崇高价值的探寻和关切,为公众提供精神慰藉和意义指引,展现本来的价值意义,解决崇高信仰“落地”问题。

  第二,创新主流意识形态叙事方式。

  创新主流意识形态叙事内容、话语和方式,适应智能算法的技术逻辑,提升主流意识形态吸引力以增加被推送的频率和效率。一是以“产品”定位传播内容,根据用户的年龄、职业、兴趣、地域等身份标签针对性提供满足个性化需求的正能量“产品”,使意识形态内容更加具象化、趣味化和生活化,增加认同度。二是推动政治、理论话语向网络流行话语、日常生活话语转化,主动发掘并使用网民自发创造的使用频率高且具有正能量的网络用语,将意义深刻和价值崇高的意识形态话题以简明易懂的语言表达出来,增加接受度。三是使用多元化、分众化、差异化的叙事方式,以图片、音频、视频、动画等更直观和清晰的方式向受众传递信息,增加与传播对象的互动沟通,营造主客体互动交流的沉浸效果,从而调动受众更多感官体验,提升关注、转发、评论意识形态话题的意愿。

   第三,优化主流意识形态议题设置。

  “意识形态所表达的实质关系是利益关系”[21],只有遵从意识形态议题的思想和行动的结果能够满足受众利益,该意识形态才能获得认同。社会主义制度优越性的不断体现是我国主流意识形态获得持续认同的基础。算法空间汇集着受众对政府行为、发展绩效、利益分配、民生保障等社会存在的认知与评判,在其中要提升主流意识形态的显示度,就应该围绕有关能够体现社会主义制度优越性的具体的社会存在来设置议题,让有针对性设置的议题借助算法分发增强受众对社会存在的清晰看法,进而激发受众共鸣和体认。要通过内容分发主动发声,及时回应算法空间的现实矛盾,预防化解算法传播造成的舆论冲突和非理性困局。同时,要敢于“亮剑”,理直气壮地批驳和反对算法分发中的错误思潮,提升主流意识形态在算法空间的回应力、解释力和批判力。


(来源:《理论导刊》;作者:李静辉,甘肃开放大学马克思主义学院讲师)   
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
公众号的内容营销逻辑|还有必要做公众号么?
凤凰网刘爽:算法推送短视频时代的冷思考
抖音,挑战微信
“信息茧房”:内涵与外延,误读与辨析
运营微信视频号,这7个“内幕”,一点要清楚
张师伟 | 严复自由话语建构的过渡性特征
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服