赞
踩
技术发展的双刃剑特性在人工智能时代尤为明显。基于人工智能的算法权力代表了新的权力结构,依托这些算法的平台正在逐渐形成一种能够单方面施加影响的新势力。由于算法技术的复杂性和专业性,加之公共权力机构在授权和监管上的不足,以及当前对于算法治理手段的相对落后,这种算法驱动的权力正在迅速扩张。这一现象给文化安全治理带来了多重风险挑战。
“深度伪造”技术是伴随人工智能发展而出现的严峻挑战之一。该技术涉及运用人工智能算法生成高度真实的虚假图像、音频和视频内容,从而增强了虚假信息传播的隐蔽性和欺骗性。通过模仿名人或权威人士的言论和行为,“深度伪造”技术不仅可能损害他们的名誉,还能捏造出从未发生过的事件或情境,造成公众对实际发生事件的误解,并可能引发诽谤、欺诈和社会恐慌等一系列问题。此外,它还有可能成为虚假新闻产生和传播的催化剂,削弱公众对媒体的信任并操纵公共舆论。最近几年,利用“深度伪造”技术制造的新闻事件频发,以至于虚假内容和真实情况难以区分,对社会舆论产生了不同程度的负面影响。人工智能驱动的“深度伪造”技术,通过精准识别并针对目标国家社交媒体用户的心理弱点,为那些散播虚假信息者提供了更为精确的攻击手段。这极大地增加了信息过滤和鉴别的难度,并可能对社会和谐稳定造成干扰。
另一个严重问题是人工智能可能加重“信息茧房”效应并引发文化偏见。所谓“信息茧房”,是指人们在网络上选择性地接触和吸收信息,从而将自己置于一个狭小的信息空间内,难以获得多样化的观点。而人工智能的算法推荐系统可能会进一步加固这种“信息茧房”,导致用户只能看到与自己观点相符的内容,同时忽视或排斥与自己立场不一致的信息。这种现象可能引发几个问题。一是造成文化封闭化趋向。在“信息茧房”中,人们缺乏对多样化观点的接触,容易形成偏见和误解。二是容易导致文化误解和刻板印象加深。由于“信息茧房”中的信息是同质化的,人们的思维和观点也会变得封闭和单一。这会导致人们错失与多元观点进行交流的机会,从而加深对某些群体或事物的错误认知与固有偏见。三是群体观点极化。在“信息茧房”的环境下,个体或群体的观点容易走向极端并缺乏批判性思考。不同群体之间难以形成共识和相互理解,甚至可能引发社会撕裂。
“技术操纵”和意识形态问题亦是不容忽视的风险之一。算法是自动学习、自动决策的技术,但这并不意味着算法是“技术中立”的,算法的使用者、运营者赋予一定的目标从而发挥其效用。如果算法被有意无意地用于宣扬某种特定的意识形态,可能会对公众舆论产生操纵作用,引发多层面的意识形态风险。一方面,由于人工智能语料库的大规模流动、聚合和分析,可能导致前所未有的数据安全风险。这些风险涉及了数据输入、运算、存储与输出的全过程,还可能威胁到数据主权、网络安全,引发个人隐私保护的问题,甚至危及国家文化安全。另一方面,以ChatGPT为代表的生成式人工智能技术仍然主要由西方发达国家掌握,所需学习训练的“底料”也大多来自欧美国家,这很有可能导致该技术成为西方塑造主流思想、制造“认知陷阱”的新工具。这意味着,生成式人工智能技术有可能在不知不觉中传播和强化西方国家的价值观、思维方式、文化习惯等,对世界其他地区和国家的社会认同感、民族自信心以及文化多元性构成挑战。进言之,这种技术可能变成意识形态领域内的“特洛伊木马”,悄无声息地影响和改变全球文化格局。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。