生成式人工智能应用中的意识形态安全 边界厘清、风险监测及规制理路 ——基于DeepSeek、Manus、ChatGPT、Sora的思考
刘 成、莫生叶 (刘成,法学博士、新疆师范大学马克思主义学院副编审;莫生叶(通信作者),法学博士、石河子大学马克思主义学院讲师)
摘要:作为人工智能发展进程中新的技术,生成式人工智能革命引领社会发生了全方位变革。诸如DeepSeek、Manus 及 ChatGPT、Sora 等生成式人工智能的应用已经渗透经济、政治、文化、社会等诸多领域,深度融入数字化生活多元场景运用,悄然改观大众日常应用,而对其意识形态的影响尚无自觉认知。作为科学技术的创新,生成式人工智能运用中存在的意识形态风险考量是无法回避的现实问题,并且已经成为影响总体国家安全的重要因素考量。正是基于上述逻辑和对生成式人工智能大模型的思考,文本首先致力于从政治、经济、文化、社会等层面厘清生成式人工智能应用中的意识形态安全边界,明晰意识形态安全红线与底线,在此基础上结合生成式人工智能发展的实际,探寻其意识形态安全风险监测点,直击信息失真、价值观冲突、社会分化、日常生活异化等导致的意识形态安全风险,为更好监督管理和服务生成式人工智能,筑牢其应用进程中的意识形态安全防线提供坚实依据。基于生成式人工智能应用意识形态安全边界考量以及风险点监测,主要从思想教育层面回归技术赋能美好生活本质认知;从技术发展层面注重技术精进筑牢社会安全防线;从政策监管层面兼顾管理服务力促业态健康持续发展;从社会协同层面以多元主体共治格局推动技术向善等四个维度寻求规避意识形态安全风险的有效理路。最终回归生成式人工智能作为技术创新本质共识达成,推动人工智能技术更好赋能新质生产力发展,助力人民美好生活实现,促使成为维护总体国家安全的意识形态新的增量。
关键词:DeepSeek;Manus;ChatGPT;Sora;生成式人工智能;意识形态安全;意识形态风险;新质生产力;技术向善
一、问题提出
进入新时代,随着人工智能技术的迭代升级,生成式人工智能作为科技发展的新样态,基于算法逻辑和大模型优势,能够快速精准抓取海量的资源,实现数据优化、组合和整合,在智能分析的技术上实现了学习力的新飞跃,精准输出更具逻辑的新内容,引发了人工智能领域新的革命。以科技创新引领新质生产力发展成为时代发展的重要指向。习近平总书记在中央经济工作会议上强调指出,要“开展‘人工智能+’行动,培育未来产业”[1]。作为科技领域新质生产力的彰显,生成式人工智能产品由实验室逐步走向了市场化。随着DeepSeek、Manus、Chatgpt、Sora 等一系列生成式人工智能出现,改观了人工智能仅用于数据分析的模式,更为精准的文本、视频、图片、声音、代码、创意等得以快速生成,催动人工智能应用场景的延伸[2]。中国生成式人工智能的代表 Deepseek(深度求索)以其开源的姿态、优越的算法及高效大模型性能、研发成本低的优势等,一经面世引发全球人工智能领域的震动[3-4]。近期由中国的创业公司 Monica 发布的全球首款通用 Agent(自主智能体)产品 Manus,作为全球首款真正意义上的通用 AI Agent,具备从规划到执行全流程自主完成任务的能力。它不仅生成想法,更能独立思考并采取行动再次引发人工智能领域新的变革。如今,高效的逻辑内容输出、强劲的学习力提升、多元的业态场景应用、精准的用户需求匹配等已经成为生成式人工智能的显著优势。基于技术统治的逻辑,哈贝马斯曾指出,“技术统治意识的意识形态核心,是实践和技术的差别的消失……技术统治的意识形态成为主流”[5]。生成式人工智能同样内蕴意识形态属性,其大模型输出是基于技术的创新和数据源的有效整合,因此在整合进程中数据蕴含的意识形态属性就会传导给生成式人工智能内容的输出,内含了意识形态失控的隐忧[6]。正是基于意识形态安全的考量,明确生成式人工智能的意识形态安全边界,探寻生成式人工智能蕴含的意识形态风险图谱(图 1),从而寻求规避意识形态风险的有效路径,确保人工智能领域意识形态安全成为必然的选择,这也是确保总体国家安全的重要因素考量。

图1 生成式人工智能应用中的意识形态安全演进逻辑图
二、生成式人工智能应用中的意识形态安全边界厘清
习近平总书记指强调,“经济建设是党的中心工作,意识形态工作是党的一项极端重要的工作”[7]。因此,维护各领域意识形态安全是确保总体国家安全的重要组成内容。基于时代发展,科学技术同样蕴含意识形态内涵,也需要实现正本清源目标。生成式人工智能作为科学技术新发展样态,因其智能化程度更高、输出的内容更加多元,已经嵌入我国政治、经济、文化等各领域,成为赋能新质生产力的发展新兴动力,推动社会总体进步。因此一旦生成式人工智能应用中意识形态出现偏差,将会牵一发而动全身,影响社会安定和谐。因此需厘清其应用中意识形态边界属性,确保有的放矢做好意识形态安全维护工作。
(一)政治边界属性
纵观当今世界,面对百年未有之大变局,变乱交织的意识形态领域的较量已经上升至危及国家安全的重要因素考量,也是非传统安全领域的重要风险源之一[8]。世界各国都把维护政治领域意识形态安全作为首要任务,这是确保国家性质不变色的根本保障。基于人工智能技术的创新,首要任务是厘清其产出内容所涉意识形态领域的政治边界,主要关乎国体、政体、党的指导思想、党和国家理论方针政策、国家法律法规制度、国家秘密(军事、科技等)等诸多领域,要确保生成式人工智能不危及政治领域意识形态安全边界,防范人工智能生成内容泄露敏感信息、干预政治进程或破坏社会稳定,让技术真正回归赋能社会和谐发展和人民美好生活的本质[9]。基于生成式人工智能的快速发展,为应对意识形态领域的风险与挑战,2023 年 7 月由国家互联网信息办公室等七部门联合发布了《生成式人工智能服务管理暂行办法》[10]。办法明确了生成式人工智能应用中“不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定”等内容,为政治边界划定了红线和底线。数据的整合来自大模型的整体设计和运算逻辑推理,不同的资源整合存在无意识或有意识地突破政治边界的风险[11-12]。明确政治边界才能从整体架构层面,重塑人工智能生态逻辑,促使生成式人工智能成为维护国家安全稳定的增量,扎紧维护总体国家安全的意识形态坚固防线。
(二)经济边界属性
生成式人工智能所具有的经济赋能作用日益凸显。作为新质生产力的重要发展领域,强大的算力和逻辑推理,实现了数据快速处理,通过算力提升和资源的整合为经济发展提供了前瞻性发展预测和市场助力[13]。但生成式人工智能发展中资本的介入以及算力控制等因素的存在一定程度引发了对经济发展前景的担忧,尤其是国家经济安全的担忧。生成式人工智能的超强运算和分析能力,能够一定程度上对经济发展态势进行预测,一旦资本对预测的数据和结果形成垄断,会带来社会分配不均,市场资源配置错位,甚至干扰国家宏观经济整体的运行态势[14]。同时也要审慎应对资本借助生成式人工智能生产虚假广告,实施金融诈骗等破坏性行为。可见,明确生成式人工智能的所涉经济领域意识形态边界,对于维护国家经济整体安全至关重要。生成式人工智能所涉经济领域意识形态边界,主要涵盖对涉及国家宏观经济数据、高精尖企业核心发展数据、国家重点领域(航空、铁路、通信、能源等)核心数据、股市交易核心数据、农业发展核心数据等,对于以上层面的核心数据抓取和处理要高度重视,真正确保“数字主权”安全。生成式人工智能本身并无意识形态属性,但是其逻辑架构和大模型的设计带有意识形态色彩,是对象化数智劳动的新的更迭和算力演进的结果[15],因此其处理的经济层面的数据背后的价值追求值得关注。如果不合理利用生成式人工智能,如对股市核心信息的抓取,作出股市涨跌的逻辑预测,一定程度上会导致资本的抽离或者集聚,不利于整个资本市场的稳定,甚至可能利用数据做空股市的行为,徒增社会不良舆论,引发社会动荡,因此厘清经济领域意识形态边界,对于维护国家经济社会安全尤为关键。
(三)文化边界属性
生成式人工智能为文化传承与发展带来了新的机遇。具象化的文化产品内容输出,使得中华优秀传统文化更具活力和吸引力。因此,深入挖掘生成式人工智能意识形态文化属性成为时代的必须。生成式人工智能所涉意识形态的文化边界主要体现在其逻辑输出内容的文化属性。无意识的数据整合成了有意识的语逻辑,彰显了文化的态度和特征[16]。正如学者所云,科学技术没有国界,但是科学家有自己的祖国。因此人工智能作为一种技术形态在模型设计、算法结构堆叠的时候无形会嵌入价值认同,彰显其内蕴的文化认同的架构,输出的语言所彰显的文化内涵也会不同程度带有文化的缩影。生成式人工智能在文本图片、音视频等领域具有独特优势,其构图的逻辑和视频生产的话语逻辑等,不再是无意识的简单生成,而是基于逻辑推理的、高效、高质的产品输出。因此要厘清生成式人工智能所涉意识形态的文化边界,主要涵盖文学艺术作品版权、音视频的产权、文化产品内蕴价值观、话语表达的逻辑、文化认同偏好、道德伦理价值的遵循,警惕历史虚无主义虚假演绎、文化霸权的渗透等等,文化认同是最根本的认同,一旦生成式人工智能超越了意识形态的文化边界,会对国家文化安全带来冲击[17]。生成式人工智能本身的数据并无文化符号和特征,但是其转化的话语逻辑就是意识形态的表达,不同的逻辑输出,呈现不同的价值认同[18],长期浸润生成式人工智能空间,会不自觉产生价值观认同意识,尤其是进入 AI 时代,拥抱生成式人工智能的群体以青少年最为明显,厘清人工智能生产的产品的文化边界属性,更有助于坚定青少年中华文化自信,夯实社会安全稳定根基。
(四)社会边界属性
生成式人工智能带来的是社会领域的全方位深度变革。尤其是 Manus 作为生成式人工智能的新宠,与 DeepSeek、ChatGPT、Sora 等大模型一个重大的区别就在于,如果把 DeepSeek、ChatGPT、Sora 比作“大脑”,Manus 就如同为“大脑”赋予了“手”和“工具”,其通过工程化架构层面的创新,能够在其“思考”后调用诸多工具执行具体任务,实现人工智能由“深度思考”向“精准执行”迭代升级,从而更好发挥人类的创造力,不同于以往 AI 运用主要侧重于提供信息和建议,更加强调直接解决用户诉求,交付最终成果。催动人类社会由工具时代向协同创新时代迈进。生成式人工智能不断延展的科学技术边界,也是其社会属性价值的日益彰显。因此突破社会边界的意识形态风险也伴随生成式人工智能迭代而不容忽视。所谓生成式人工智能意识形态安全社会边界属性,主要涵盖社会技术治理、社会责任归属、社会生态维护、社会舆论引领、社会效用彰显以及社会主义核心价值观涵育等诸多领域。习近平总书记强调要“探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,用主流价值导向驾驭‘算法’。”技术的进步尤其是更趋智能化、具象化的形态呈现,一旦突破了意识形态安全社会边界,将会导致社会运行的无序、社会价值的混乱、社会发展动力衰减,被技术垄断的意识形态将会成为摧毁社会发展进程的重要催化剂。因此厘清生成式人工智能意识形态安全的社会边界,有助于更好构建“敏捷治理”社会生态,实现社会多元参与的维护社会意识形态安全合力。参与 AI 时代的进程中,要警惕意识形态安全社会边界的漏洞,遵循技术赋能美好生活的发展逻辑,谨防运用生成式人工智能的迭代造成对社会主义核心价值观的对冲,始终在社会主义核心价值观涵育下,注重科技创新,维护社会安定和谐秩序,创造更多、更先进新质生产力样态,更好地服务中华民族伟大复兴。生成式人工智能应用中的意识形态边界属性是一个综合概念体系。政治层面、经济层面、文化层面和社会层面只是其较为突出的内容彰显,同时还包含不同层面的价值观边界、道德伦理边界、法律法规的边界等等。现实中生成式人工智能应用中的意识形态边界并不是十分清晰的具象,往往是交织状态的呈现,是不同层面边界的有机融合统一,关乎总体国家安全的多种因素范畴和属性,因此不能局限于一种边界的单一的划定,面对人工智能发展需要秉持系统思维,综合考量生成式人工智能发展中的安全边界范畴,有的放矢更好规范生成式人工智能服务社会的目标实现,更好满足人们对美好生活的期待,助力中国式现代化更好发展。
三、生成式人工智能应用中的意识形态安全风险监测
马克思、恩格斯曾指出,“意识在任何时候都只能是被意识到了的存在,而人们的存在就是他们的现实生活过程”[19]。生成式人工智能技术已经接入人们现实生活,在生活中技术的兴盛彰显了意识形态属性强烈,影响着整体意识形态安全。随着新质生产力快速发展,人工智能应用的场景更加多元,突破边界的风险时刻存在。尤其是西方国家生成式人工智能的引入,基于根服务器和数据处理能力的优势以及生成式人工智能产品的研发创新能力强劲,一定程度引领了 AI 时代发展的趋势,给我国意识形态安全带来了潜在的风险。因此注重生成式人工智能应用中的意识形态风险监测尤为必要,更好筑起维护国家意识形态安全的坚固防线。
(一)信息失真导致必须进行意识形态安全风险监测
生成式人工智能工作的原理就是通过技术的迭代,实现算法和大数据模型的嵌入,快速生成用户需求的产品和内容的过程。既然其内容生成来源于强大的数据算法,同时数据的真实性并不在算法组合的逻辑考量之内,因此生产的内容是基于数据流的优化组合,这也就使得生成式人工智能输出信息失真变成了可能。在使用生成式人工智能过程中,部分大模型为了精准满足用户需求,刻意把不同资源进行整合,以目标用户的问题提示输出,事后通过与事实比对,发现存在与事实不符,产生“信息错误”现象[20]。但是人工智能为了迎合用户提出的问题,却是利用了数据整合的技术逻辑,实现形式上满足用户需求,并不对其信息内容提供的真实性负责,这就造成了生成式人工智能深度伪造(Deepfake)新闻(美国2020大选期间 AI 生成的虚假新闻扩散)、伪造学术研究对社会信用体系造成冲击的现实困境。因此如何做到信息失真风险的监测至关重要,因为信息失真意味事关意识形态的输出存在虚假情形。一方面,生成的失真信息会影响决策者的判断,随着生成式人工智能与我国政府部门等的合作逐步深入,一旦接入提供失真信息会一定程度影响政府部门的工作信度和良好形象,会对其社会公信力产生影响,这也会带来了意识形态领域信誉隐患。另一方面,一旦生成式人工智能提供了失真信息,为了查证信息真伪需要耗费大量人力物力财力,一定程度上,大众会对生成式人工智能产生怀疑,甚至抵制生成式人工智能发展,一旦社会舆论的发酵将不利于社会稳定。在科学研究领域,失真的信息数据将不利于学术精进,甚至产生科研方向误导,导致虚假信息泛滥。因此,要注重对信息失真风险的监测,在生成式人工智能的管理与服务进程中,牢固树立生成式人工智能是技术进步的结果,并不是知识创造的过程,因此要在生成式人工智能接入后,强化对其算法的输出内容的监测,前置信息失真监测技术,降低信息失真带来的不良影响。
(二)价值观冲突导致必须进行意识形态安全风险监测
生成式人工智能只是技术的迭代升级,并不是知识的创新创造[21]。因此,在生成式人工智能应用过程中,所产出的内容逻辑也都是数据资源的再次整合。不同的资源整合过程中,会带来生成内容价值观的重塑。面对西方生成式人工智能的接入,基于西方价值逻辑的内容生成与我国社会主义核心价值观逻辑产出的内容将会产生价值观冲突的风险。以西方所谓的“普世价值”为例,在进行内容输出时,并不会对“普世价值”的价值观属性进行甄别,因此在述及全人类共同价值的内容时“普世价值”可能就会作为一种备用选项出现。要警惕资本与技术衔接所带来的意识形态风险,资本通过对数字技术体系的占有和规则制定,建立起垄断一切信息和知识来源的“能指的霸权”,扭曲了现实世界的多样性和特殊性,旨在推动资本主义意识形态以技术无意识化的方式在全球拓展[22]。在全球意识形态领域,东西方价值观存在极大差异,西方国家遵循所谓的个性解放、自由主义、私有化等,因此一旦在生成式人工智能中渗透西方价值观,所生成的内容就会带有价值观偏好[23]。长期接触生成式人工智能群体很大部分是价值观还在培育期的青少年儿童,长期浸润西方生成式人工智能环境,其价值观的形成会与我国主流价值观教育产生对冲。因此在使用生成式人工智能时,尤其是青少年在使用过程中,要注重对输出内容的价值观监测。这一风险监测需要多部门协同配合,因为青少年作为国家未来,对价值观的判断能力还比较弱,因此需要加强甄别。同时还需要精准甄别利用生成式人工智能生成暴力、歧视性内容,或挑战人类主体性的情形,谨防生成式人工智能带来的伦理失范现象[24],坚定维护社会主义核心价值观安全。
(三)社会分化导致必须进行意识形态安全风险监测
生成式人工智能的发展所带来的社会分化成为社会发展新的态势。基于强大的算法逻辑,因此面对不同的客户,所产出的内容也会千差万别,即使同一问题的不同时段提问也会带来不同的答案[25]。不同价值观的人群运用人工智能生产的内容也会产生偏差,个别群体会利用生成式人工智能服务于其个人私利,甚至寻求破坏社会主义主流意识形态的情形出现。随着生成式人工智能的个性化需求增多,基于其强逻辑的内容输出,会造成一定程度的信息碎片化呈现,若每个目标客户基于得到的碎片化内容用于决策,将导致社会思想舆论的分化、片面化,进而形成多元化的价值观认知,甚至是片面的社会分化认知。这些多元价值观将与主流价值观产生冲突和摩擦,一定程度上削弱主流价值观的凝聚力和引领力,影响人们对国家和社会的认同感与归属感,会增加意识形态治理的风险。同时基于“算法茧房”的存在,通过算法推荐机制,生成式人工智能会定向内容投放,伴随信息轰炸的浸泡,一定程度上会影响公众判断,加剧社会分化态势[26]。因此要注重监测社会分化带来的风险,尤其是对社会主义主流意识形态的冲击,谨防“群体极化”现象产生[27],要加强对生成式人工智能的算法进行管理,嵌入社会主义主流意识形态,让算法逻辑服务于社会主义主流意识形态塑造,真正维护意识形态安全,进而维护总体国家安全。
(四)日常生活异化导致必须进行意识形态安全风险监测
随着 AI 时代的到来,生成式人工智能作为数字技术的创新,融入人们日常生活已经成为新常态。数字技术给人们带来便捷的同时,也隐蔽着意识形态安全风险。亨利·列斐伏尔曾对资本主义社会新的异化现象作出诠释,他认为,现代资本主义利用技术、消费、侵蚀工人闲暇时间等方式渗入日常生活,从而达到控制人、剥削人的目的,由此导致了人的普遍异化[28]。技术创新带来的人的异化往往不易察觉,甚至形成了广泛社会共识。随着生成式人工智能的发展,已经广泛运用于多元复杂场景,人工智能能够广泛收集人们日常生活偏好数据,精准推送偏好产品内容,深化大众日常生活氛围浸润,一定程度上使算法等工具在日常生活中拥有了相当的决策权,影响大众社会偏好、价值认同以及行为习惯等。人们日常生活偏好数据安全也是确保国家意识形态安全的重要监测指标,一旦忽略了资本主义意识形态日常生活的渗透,将导致我们在意识形态斗争中陷入被动境地。同时在生成式人工智能发展中潜藏着宣扬“非意识形态化”“意识形态终结论”“意识形态真空论”等企图淡化数字技术的意识形态属性情形,在人们生活中营造所谓的“中立、客观、自由”的假象,通过日用而不自觉的长期渗透,影响大众的行为习惯,让大众逐步陷入其碎片化“技术迷雾”,这也正是目前西方资本主义国家企图运用先进数字技术实现意识形态渗透的主要伎俩之一。因此,对于影响日常生活的人工智能技术的发展,要保持足够的警惕,谨防掉入西方国家资本、技术的逻辑陷阱,确保国家总体意识形态安全。生成式人工智能赋能新质生产力发展的事实不容置疑。但是作为科学技术的呈现其蕴含的意识形态属性也不容忽视。在逻辑输出过程中,基于不同算法和大模型设计,得出的结果差异性明显。注重生成式人工智能应用中的意识形态安全风险监测,更有助于认清意识形态安全风险存在的漏洞,在安全的边界范围内,做到监测前置,确保生成式人工智能发展健康和可持续,更好地服务于社会进步。
四、生成式人工智能应用中的意识形态安全规制理路
生成式人工智能的意识形态安全边界本质是数字时代国家软实力博弈的新战场,需要构建包含思想教育、技术规制、监管防御等的立体防护体系。党的二十届三中全会作出了要“建立人工智能安全监管制度”,“完善生成式人工智能发展和管理机制”等重要部署,这也为新时代生成式人工智能的发展与规制提供了政策遵循。厘清生成式人工智能应用中的意识形态安全边界,找准意识形态安全风险监测点,有助于实现生成式人工智能的科学健康管理与运用。面对生式人工智能应用中存在的意识形态风险,需要精准施策,强化意识形态安全意识,前置算法逻辑的有效规制,扎牢意识形态安全防线。规制的理路需要多元因素的协同配合,既需要思想的教育,也需要技术的精进,同时还需要相关政策层面的监管和社会层面的协同治理,确保人工智能应用中的意识形态安全。
(一)思想教育层面:回归技术赋能美好生活本质追求
生成式人工智能发展是一个基于不断训练、不断改进的技术精进过程。基于不同的目标设定、不同的价值诉求、不同的文化特质、不同阶段数流训练,所生成的内容的逻辑会不尽相同。作为一种新的大模型,其社会的认知度和参与度也在不断调适,目标人群对于其运行逻辑和应用价值还要不断磨合。如何合理使用生成式人工智能,需要分众化对使用者加强思想教育,增强合理合规使用人工智能技术的人文素养[29]。总体而言,对目标使用者思想教育致力于要帮其树立正确的世界观、人生观和价值观,强化法律意识和法治思维,明晰党的路线方针政策,明确技术为美好生活服务的宗旨意识,认清生成式人工智能输出内容的意识形态安全边界,坚决维护国家意识形态安全。
一方面,加强青少年思想教育,打好基本功。青少年将是未来拥抱生成式人工智能技术的主力军,是重要参与者和践行者,因此强化青少年的思想政治教育至关重要。在思政课堂上要嵌入对生成式人工智能本质的认知,强化青少年法治思维和法治意识的培养,明确技术发展的意识形态安全边界,从小树立科技赋能美好生活的价值导向,善于合理利用生成式人工智能服务社会进步。同时加强青少年对生成式人工智能的鉴别能力教育,加强“AI伦理必修课”教育,强化青少年坚定道路自信、理论自信、制度自信、文化自信,在使用生成式人工内容生成的文本、图片、音视频、代码等的过程中,注重鉴别能力提升,严防信息失真情形。继续强化青少年基础知识能力夯实,摒弃完全依赖生成式人工智能内容输出思想[30]。正如习近平总书记在 2025 年全国两会上强调,“现在,一方面,有了智联网、人工智能,教育的工具和方法会发生变化,学生能力培养会有变化,这些正需要与时俱进地进行改革。
另一方面,对于学生的心智、心灵的培养和基本的认知能力、解决问题能力的培养,是不能放松的。基本功还得有。”“教育,不能把最基本地丢掉。”[31]可见,习近平总书记为青少年学生如何面对生成式人工智能技术指明了方向,那就是基本功要扎实推进,不能过度依赖技术,要实现技术与基本功同频共振、同向而行。另一方面,注重社会群体思想教育,明确人工智能发展本质。多元复杂的社会环境,多样态的社会诉求以及多维度的社会价值认知,都一定程度影响了社会群体对于生成式人工智能使用的态度。因此需要强化社会群体思想教育,尤其是法治教育,明确生成式人工智能的法律边界,明晰生成式人工智能的运行机理,明确过度依赖人工智能技术的危害,明晰生成式人工智能存在的风险,通过典型案例强化社会群体的认知,采用多渠道宣传实现入脑入心。通过在全社会加强合法合理合规使用生成式人工智能的思想教育,激发社会大众通过诚实劳动和努力拼搏实现美好生活的意识,培养和强化拥抱人工智能的主动意识,真正让人工智能技术发展更好赋能社会快速发展。同时强化社会群体思想教育还要注重尊重人工智能生成的知识产权,加强知识产权意识保护,避免因过度使用生成式人工智能技术产生产权纠纷[32],虽然目前关于人工智能生成内容的知识产权归属还不够明朗,但是随着法律法规的完善和管理服务能力的强化,知识产权归属将提上日程,要超前部署,强化产权明晰的教育管理。同时还需加强生成式人工智能开发者的伦理意识培育,确保生成式人工智能的算法逻辑和大模型遵循基本伦理规范,确保内容产出的“科技向善”目标追求达成[33]。
可见,加强思想教育主要聚焦于社会各群体对生成式人工智能技术的态度认知问题,采取分众化教育模式更加聚焦、更具成效。通过思想教育的强化,注重意识形态领域风险防范,坚决摒弃不劳而获甚至违法获利的行为,让技术回归技术本身,以坚定正确思想引领,合理运用技术提升生活品质,改善生产效率,赋能中国式现代化新的发展进程。
(二)技术发展层面:注重技术精进筑牢社会安全防线
生成式人工智能发展是人工智能领域技术发展新的突破[34]。以其多样的形式、严整的逻辑输出更加贴近用户需求。据Sensor Tower数据统计,自2025年1月20日 DeepSeek-R1模型正式发布以来,DeepSeek 下载量持续保持领先地位。目前影响力较大的如美国 Open-AI 的 ChatGPT、Sora 和中国的 DeepSeek 等大模型,已经形成分庭抗礼之势,引发了全球人工智能领域关注。尤其是 Deepseek 增加的深度思考功能,能够清晰展示逻辑思考的过程,所产出的内容更加流畅、更具逻辑特色、更加智能。这也给技术发展层面提出更高要求,要确保生成式人工智能发展秩序,避免无序发展[12]。同时要推动技术精进,推动社会发展。
一方面,注重技术精进,消弭技术垄断引发意识形态风险。技术作为一种意识形态,一旦呈现技术的垄断态势,技术开发背后的群体价值逻辑的强加就会带来意识形态领域无法控制风险。因为,技术合理性引向的是对于社会生活改善和劳动生产率提升的屈从,那就不可能真正实现人的自由,技术内蕴的话语逻辑掩盖了剥削,掩盖了社会矛盾,这就是意识形态的作用发挥,也就是技术理性掩盖了矛盾。正如哈贝马斯认为的意识形态是基于现代科学基础上,构建的维护自身统治合法性的权利,这一权利是对传统统治合法性的批判,是在批判的基础上确立新的意识形态观念。这就是技术和科学也是一种意识形态的逻辑使然。因此生成式人工智能作为人工智能领域科学技术的新的突破,其本身就具有意识形态属性。尤其是长期的技术发展和依赖,就会产生适应了人工技术生成的舒适环境而陷入意识形态的循环逻辑。因此在技术层面,首先要明确人工智能发展的技术本质,避免技术路径的依赖引发意识形态的风险。随着开源大模型的持续更新,技术垄断带来的意识形态嵌入呈现润物无声状态。这就需要不断精进我国在生成式人工智能领域技术,重点突破价值观建模技术,强化算法治理[35],注重数据算法的自主和自控权,消弭算法偏见[36],内嵌中华优秀传统文化意蕴,从而更好地服务社会大众。避免美西方长期技术垄断带来的意识形态领导权的渗透。如ChatGPT 这一算法已经渗入了资本主义意识形态对抗的逻辑。以输入“新疆去极端化斗争”为例,输出的是“这些措施受到了一些国际方面的批评,是侵犯人权、大规模拘留和文化压制”。ChatGPT 所设置的话语逻辑完全站在西方所谓虚假人权的高地,对中国新疆去极端化措施故意抹黑,可见技术的背后也蕴含了意识形态控制的逻辑构成。因此唯有在人工智能领域掌握话语主动权以及更精进技术,才能避免陷入西方资本主义国家意识形态陷阱,维护总体国家安全。
另一方面,强化技术创新,避免陷入人工智能心理依赖陷阱。技术的无序发展带来便捷的同时,也会一定程度上消磨大众创新意识,形成技术路径依赖陷阱[37]。这就需要强化全社会对人工智能知识的普及,对于青少年而言,上文提出要加强社会主义核心价值观的培育,增强对生成式人工智能的鉴别力。在技术层面要注重青少年对生成式人工智能技术的学习和运用,一方面利用生成式人工智能技术赋能学习效率提升。更重要的是要提高青少年学习人工智能技术的积极性和主动性,强化自主学习能力,深入探究生成式人工智能底层算法逻辑,以及大模型架构的本质,不仅仅学习其技术创新,更要学习其创新路径,从而把生成式人工智能作为一种技术认知不断深化。强化青少年学习技术基本功,而不仅仅依赖于技术,消弭学习的动力和创新的意识。对于目前青年群体而言,是生成式人工智能的参与者和使用者,因此要规避使用人工智能带来的风险,大力推动中国拥有自主知识产权的生成式人工智能创新,坚决摒弃完全的技术输出依赖,更加规范生成式人工智能适用领域,明确生成式人工智能只是技术发展本质,唯有建立创新性的数据算法和先进的大模型,让技术更好地服务于人类。同时对于老年群体,要避免陷入“AI 陷阱”,提升老年群体的防骗意识,强化宣传教育,尤其是涉外人工智能设置的各类消费陷阱,曾经出现因受骗仇视社会等行为发生,产生不良社会舆情,因此这都对意识形态整体安全带来影响,需要强化技术路线,精准识别陷阱,实现生成式人工智能的健康发展。
可见,技术层面不仅仅需要创新人工智能技术路线,在技术发展和应用中还蕴含了意识形态安全的隐忧。因此在技术领域要不断寻求突破,不断创新人工智能技术,建立更加强大算法逻辑,构建更具效率的人工大模型,牢牢掌握技术的核心科技和领先优势,避免被技术垄断造成意识形态领域的控制。这就需要面对不同的群体采取差异化的技术推进路线,夯实基础知识学习,确保技术始终作为生产力的工具属性不能取代大众创新意识的本质彰显。
(三)政策监管层面:兼顾管理服务力促业态健康持续发展
习近平总书记强调,“加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源”[38]。因此,积极推动生成式人工智能发展是时代发展的必然逻辑要求。但基于人工智能发展进程中会关涉法律、道德、文化、经济等领域,以及呈现的意识形态属性,因此加强政策监管才能更好规制人工智能发展进程,更好地服务于社会进步。
一方面,强化法律和政策的约束力,形成震慑合力。习近平总书记强调,要“加强网络安全体制建设,建立人工智能安全监管制度”[39]。基于生成式人工智能快速发展态势,我国及时出台《生成式人工智能服务管理暂行办法》(以下简称《办法》),明确要“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。”[10],出台法律法规是为了更好地规范生成式人工智能应用的场景,在应用中严格遵守法律、行政法规,尊重社会公德和伦理道德。因此强化政策约束力需要与时俱进,加强动态评估,伴随生成式人工智能发展随着模型训练的更新,要注重原则性与灵活性政策管理相结合的原则,坚定维护生成式人工智能应用所涉及的意识形态安全边界,坚持定期检查与 24 小时不间断巡查相结合方式,确保政策贯彻落实到位。强化政策约束力还体现在对于违反我国法律法规、道德规范的行为要进行坚决的查处和处罚。严格按照要求对生成式人工智能所涉及的训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,并提供必要的技术、数据等支持和协助。严格坚持分级分类准入制度,要进一步明确生成式人工智能发展的主体责任和惩罚标准,一旦违反相关政策,立即采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,确保生成式人工智能应用合法合规,真正服务于生产力新飞跃。
另一方面,注重服务能力的提升,助力生成式人工智能健康发展。生成式人工智能因其方便快捷的特性,需要足够的资源作为算法的基础。正如《办法》所指出的那样,“推动生成式人工智能基础设施和公共训练数据资源平台建设。促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源”[10]。这也为做好服务工作指明的方向,通过平台打造和数据服务,更好促进生成式人工智能大模型的完善。正因为生成式人工智能蕴含了意识形态属性,因此服务能力的提升还体现在与生成式人工智能之间的协同,引导生成式人工智能通过数据训练和大模型精进,及时规避风险点,牢固树立意识形态边界安全意识,因为从事技术研发的进程更注重效率的提高以及运算能力的提升,会忽略数据重新组合后的价值传递,因此在模型精进过程中,要注重与生成式人工智能研发单位的沟通协作,既能确保相关数据的安全可靠,同时也能够更好运用技术赋能生活质量提升。注重服务能力的提升,也需要给予人工智能科技创新企业足够的自主权,鼓励创新发展,提供专利申请、通信保障、产权保护等服务,确保人工智能企业能够专心科研攻关,创造出更为先进的生成式人工智能产品,诸如 Deepseek 类型的生成式人工智能产品。真正彰显中国人工智能创造能力,为科技创新夯实服务保障,助力科技创新赋能新质生产力进步,夯实生成式人工智能蕴含的意识形态安全根基。
可见,对于生成式人工智能发展要兼具管理与服务并重,通过政策监管,更好地服务于生成式人工智能创新活力彰显。对于生成式人工智能要保持审慎的管理,坚决避免突破意识形态安全边界,消除给总体国家安全带来的隐患。同时要大力支持创新发展,让生成式人工智能回归技术创新本质,技术的进步能够给社会生产带来便利,变革生产生活方式,更好赋能美好生活。
(四)社会协同层面:多元主体共治格局推动技术向善
基于生成式人工智能社会边界意识形态考量,以及生成式人工智能发展中的社会因素参与与反馈机制强化,推动社会协同,注重多元共治,才能形成确保国家意识形态安全的整体合力。对于国内而言,构建多元主体参与的共建格局,推进预防、控制、救济三级治理体系的融会贯通,才能更好维护人工智能良好生态,更好地服务于社会发展进步。同时社会协同还涵盖国际社会协同,以更好实现国际合作和共同治理,服务人类发展。正如 2024 年 11月 18 日,习近平主席在二十国集团领导人第十九次峰会第二阶段会议关于“全球治理机构改革”议题的讲话中指出,“要加强人工智能国际治理和合作,确保人工智能向善、造福全人类,避免其成为‘富国和富人的游戏’”[40]。这也为人工智能技术未来的国际合作发展指明了方向。
一方面,就国内而言,注重生成式人工智能治理社会系统协同。生成式人工智能的多元应用场景决定了其明确的社会属性。随着进一步全面深化改革进程加速,新质生产力的加快发展,人工智能领域呈现井喷式发展态势,生成式人工智能如 Manus 等技术居于国际前沿。为有效规制生成式人工智能突破社会意识形态安全边界,给国家意识形态安全带来潜在威胁,要注重构建预防、控制、救济三级治理体系,确保生成式人工智能全程可管、可控、可用。就预防层面而言,在生成式人工智能研发立项阶段就应该实现多方参与机制构建,政府、公众、企业等共同搭建沟通平台,积极建立AI伦理委员会多方协商机制,明晰人工智能研发逻辑架构,及早排除可能引发意识形态安全风险的隐患。同时建议引入第三方评估机构,对生成式人工智能可能触及的意识形态安全边界及隐患点进行独立评估,确保客观公正评价生成式人工智能技术应用中意识形态安全。就控制层面而言,要加强社会风险预警网络建设,建构“算法吹哨人”保护制度,强化公民素质素养能力提升,及时有效识别生成式人工智能输出产品的意识形态安全属性,保障人工智能应用中的意识形态安全。就救济层面而言,注重建立数字身份认证体系,落实内容生成溯源制度,尝试探索建立人工智能保险制度,构建风险社会化分担机制,注重生成式人工智能意识形态安全救济制度完善,精准识别意识形态造成的危害,确保及时分级分类进行处置。生成式人工智能社会主体的协同治理,是确保其意识形态安全的重要抓手,需要各项协同治理机制不断完善和创新,切实夯实意识形态安全根基。
另一方面,强化生成式人工智能治理国际协同。生成式人工智能发展已经引发全球的震动。美西方国家利用人工智能技术对我进行意识形态渗透已经成为公开的事实。美西方国家一旦使用生成式人工智能技术对全球数据实现了垄断,将引发意识形态领域白热化的斗争,严重威胁社会主义国家的意识形态安全。注重生成式人工智能技术的国际社会协同就是为了避免陷入上述陷阱。目前,虽然各国都已经关注到人工智能规范的重要性,但是尚未产生各国一致认可的生成式人工智能发展规范,因此国际社会在这一领域可以基于全球 AI 技术发展以及安全因素考量,尝试协商建立共同应对生成式人工智能发展规范,避免人工智能技术无序发展,甚至危及人类自身。共通的技术及伦理价值有助于管控好意识形态安全界限,避免在人工智能领域意识形态误判。同时,基于国际社会协同,还要考量数据安全,核心数据关系各国切身利益,因此维护本国核心数据安全责无旁贷。这就需要国际社会努力促进构建跨境数据流动安全港制度,建立多边内容审核协作机制,确保维护国家核心利益关切,维护各国核心数据安全。基于共通价值的承认,在确保维护本国人工智能技术意识形态安全的前提下,鼓励在友好协商的基础上开展跨国联合技术攻关,共建意识形态风险防控知识库,从而有针对性避免人工智能技术带来意识形态风险。最终目标是促进生成式人工智能技术向上、向善的价值实现,在意识形态安全前提下,更好造福人类发展,充当人类美好生活向往的有益增量。
五、余论
习近平总书记指出,“谁能把握大数据、人工智能等新经济发展机遇,谁就把准了时代脉搏”[41]。这是拥抱人工智能发展的 AI 时代,是时代发展的必然趋势,也为国家发展指明前进方向。人工智能 DeepSeek、Manus、ChatGPT 、Sora 等应用已经渗透政治、经济、文化、社会等各领域,人工智能作为新一轮科技革命和产业变革的重要驱动力量,是大国竞争的战略制高点[42]。如 2025 年面世的以 DeepSeek、Manus 为代表的开源大模型正逐渐渗透到诸多行业,引发新一代人工智能技术发展新浪潮。因此抓住人工智能发展的机遇是促进社会进步,引领时代发展方向的新态势。我们需要进一步优化算法逻辑和开源大模型优势,更好赋能新质生产力发展,拓展人工智能服务的领域,创造更多服务细分市场,创造更多社会发展机遇,促进社会大众获得感、幸福感的提升。面对生成式人工智能新的发展态势,唯有主动出击、统筹规划,才能在国际舞台上掌握更多话语权,为国家长治久安、人民幸福安康奠定坚实基础。同时要注重紧绷生成式人工智能技术应用中的意识形态安全边界这根弦,警惕美西方国家依托技术垄断引发的意识形态安全风险,避免陷入西方国家制造的“技术陷阱”,坚决粉碎通过技术实现意识形态输入和渗透的目标,这就要求一方面强化我国人工智能技术的创新,掌握核心科技,不断推陈出新,确保人工智能关键行业和领域不受制于人;另一方面,坚持与时俱进,把准生成式人工智能发展脉搏,不断提升思想认知力,强化社会大众法治思维,增强意识形态安全鉴别能力,注重技术赋能意识形态领域监管,实现管理与服务并重,树立人工智能是技术革新而非知识创新主体的生产本质,夯实社会大众基本功素养的培育,真正为技术创新培育创新型人才,让技术更好赋能美好生活,助力中国式现代化发展新征程。
参考文献:
[1] 中央经济工作会议在北京举行[N]. 人民日报,2024-12-13(01).
[2] 李志,骆行. 智能革命下的人力重构:DeepSeek、Manus 类生成式人工智能对人力资源市场的挑战、影响及治理研究 [J/OL]. 重庆大学学报(社会科学版) .https://link.cnki.net/urlid/50.1023.C.20250311.1349.007.
[3] 王闻萱,王丹.中国生成式人工智能 DeepSeek 的核心特征、价值超越及路向[J/OL].统一战线学研究.
https://link.cnki.net/urlid/50.1215.C.20250228.1629.004.
[4] 许丹荔,王炳涵.数字文明新范式:DeepSeek 开源创新的生态建构[J/OL].统一战线学研究.
https://link.cnki.net/urlid/50.1215.C.20250226.1006.004.
[5] 哈贝马斯. 作为意识形态的技术与科学[M].李黎,郭官义,译,上海:学林出版社,1999:77.
[6] 曹克亮.“DeepSeek 时刻”:从技术开源到技术正义的政治学分析[J/OL].统一战线学研究.
https://link.cnki.net/urlid/50.1215.C.20250226.0959.002.
[7] 习近平. 习近平著作选读(第一卷)[M]. 北京: 人民出版社, 2023: 147.
[8] 张恩, 高鹏程. 国家意识形态安全视域下生成式人工智能治理论析[J]. 科学决策, 2025(1):178-190.
[9] 代金平, 覃杨杨. ChatGPT 等生成式人工智能的意识形态风险及其应对[J]. 重庆大学学报(社会科学版), 2023(5): 101-110.
[10] 生成式人工智能服务管理暂行办法[R]. 2023-07-10.
[11] 蒲清平, 向往. 生成式人工智能——ChatGPT 的变革影响、风险挑战及应对策略[J]. 重庆大学学报(社会科学版), 2023(3): 102-114.
[12] 谢俊, 吴阳琴. 智能算法推荐对主流意识形态话语权构建的挑战及其应对[J]. 西南大学学报(社会科学版), 2024(6): 144-154.
[13] 何大安. 通用人工智能的技术、经济与文化[J]. 学术月刊, 2024(11): 53-65.
[14] 雷浩然 . 生 成 式 人 工 智 能 领 域 的 垄 断 风 险 及 其 治 理 路 径 [J/OL]. 中 国 流 通 经济.
https://link.cnki.net/urlid/11.3664.F.20250305.0807.002.
[15] 温旭. 对象化数智劳动: AI 大模型的生产逻辑与本质探析[J]. 马克思主义研究, 2025(1): 108-118.
[16] 代金平, 覃杨杨. DeepSeek 类生成式人工智能赋能中华文明发展传播研究[J/OL].重庆大学学报(社会科学版).
https://link.cnki.net/urlid/50.1023.c.20250305.0808.002.
[17] 王维. 多模态 AI 赋能中华民族现代文明国际传播的逻辑机理、现实风险与路径创新[J]. 民族学刊,2024(6): 39-48, 134.
[18] 吴学琴. 从 ChatGPT 到 Sora:意识形态话语的“真相”审视[J]. 思想教育研究, 2024(8): 75-83.
[19] 马克思, 恩格斯. 马克思恩格斯选集(第一卷)[M]. 北京:人民出版社,2012:152.
[20] 郭金良. 生成式人工智能服务中 “信息错误” 的民事责任[J]. 政法论坛, 2025(2): 25-35.
[21] 郭全中, 张金熠. 生成式人工智能价值观存在的问题及伦理风险[J]. 新闻与写作, 2024(10):68-76.
[22] 吴静. 赛博资本主义的谎言和技术无意识化的真相[J]. 当代世界与社会主义, 2024(6): 12-20.
[23] 牛子牛. 生成式人工智能的意识形态风险与治理策略: 基于政治经济学批判方法的考察[J]. 人文杂志, 2025(1): 65-75.13
[24] 肖红军, 张丽丽. 大模型伦理失范的理论解构与治理创新[J]. 财经问题研究, 2024(5): 15-32.
[25] 梁玉成, 马昱堃. 生成式人工智能实践下的社会观念分化探析:基于自主行动者建模的仿真模拟实验研究[J]. 济南大学学报(社会科学版), 2024(6): 120-132.
[26] 刘悦坦, 王学敏. 算法推送机制下信息茧房效应的反思及规制:以今日头条为例[J]. 传媒,2024(13): 38-40.
[27] 晏齐宏. 算法推荐对网民意见极化的影响机制研究:基于舆论可见性视角的多层次分析[J]. 现代传播(中国传媒大学学报), 2024(8): 12-25.
[28] 杨俊哲. 数字化日常生活中“去意识形态化” 思潮的遮蔽与解蔽[J]. 马克思主义研究, 2024(12):137-147.
[29] 李超民,张帆. 生成式人工智能与思想政治教育主客体关系的重塑[J/OL]. 吉首大学学报(社会科学版).
https://link.cnki.net/urlid/43.1069.C.20250306.1003.004.
[30] 刘书文. 生成式人工智能的知识生产及其哲学反思[J]. 江汉论坛, 2025(2): 59-66.
[31] 两个维度,看总书记部署教育数字化[N]. 人民日报, 2025-03-11.
[32] 易在成, 宾兴扬. 生成式人工智能的性质及其生成物权利归属[J]. 国际商务研究, 2025(2):91-101.
[33] 杨淼, 乔魏若寒, 雷家骕. 基于“负责任创新” 范式的企业科技向善行为演化过程机理研究[J].科技进步与对策, 2024(21): 66-76.
[34] 周文斌. 生成式人工智能技术发展与意识形态风险审视[J]. 理论视野, 2024(10): 54-59.
[35] 冯健鹏. 基于主观程序正义的技术性正当程序:我国算法治理的一种路径[J]. 法制与社会发展, 2025(2): 149-164.
[36] 徐政,邱世琛,葛力铭. DeepSeek 赋能拔尖创新人才培养的理论逻辑与实践路径[J/OL]. 重庆大学学报(社会科学版).
https://link.cnki.net/urlid/50.1023.c.20250305.1737.007.
[37]刘伟兵. 人工智能时代意识形态风险的生成逻辑与科学防范[J]. 河海大学学报(哲学社会科学版),2024(6): 10-19.
[38] 习近平. 加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展[N]. 人民日报,2018-11-01(01).
[39] 习近平. 关于《中共中央关于进一步全面深化改革、推进中国式现代化的决定》的说明[J]. 当代广西, 2024(16): 4-6.
[40] 习近平. 携手构建公正合理的全球治理体系——在二十国集团领导人第十九次峰会第二阶段会议关于“全球治理机构改革”议题的讲话[N]. 人民日报,2024-11-20(02).
[41] 构建高质量伙伴关系 开启金砖合作新征程——在金砖国家领导人第十四次会晤上的讲话[N]. 人民日报, 2022-06-24(02).
[42] 高文. 抢抓人工智能发展的历史性机遇——深刻领会习近平总书记关于人工智能的重要论述[N]. 人民日报,2025-02-24(09).