SERVICE PHONE

363050.com
NEWS 区块链娱乐
你的位置: 首页 > 区块链娱乐
Casino USDT - 全球热门USDT游戏娱乐平台,安全稳定,极速出款刘宪权:人工智能时代深度伪造行为的刑法规制 政治与法律202511

发布时间:2025-11-12 17:29:02  点击量:

  Casino USDT 提供优质的加密数字娱乐体验,支持 USDT、比特币等数字资产参与游戏。平台安全稳定,极速出款,无门槛畅玩热门桌面游戏、电子竞技、体育竞猜等!立即注册,领取专属福利!casino usdt,USDT娱乐,加密货币游戏,区块链娱乐,数字货币投注,虚拟币游戏,去中心化平台,USDT竞猜,热门电子游戏,体育赛事竞猜【来源】北宝法学期刊库《政治与法律》2025年第11期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。

  内容提要:深度伪造技术系人工智能时代的产物,具有真实性与操作简易性的特征。人工智能技术广泛应用下的深度伪造技术对女性权益、公众认知能力、社会信任机制等多方面带来负面影响,有必要通过刑法对滥用深度伪造技术的行为进行规制。深度伪造涉性信息并传播的行为,可以构成诽谤罪,但不构成强制猥亵、侮辱罪。不应将间接故意传播深度伪造内容的行为纳入刑法规制范围。在人工智能时代,对于深度伪造行为的刑法规制,应当坚持“技术包容”的谦抑立场,既要警惕技术滥用引发的法益侵害,更要避免过度干预公民的合法表达空间。生物识别信息属于特殊种类的个人信息,应当通过修改司法解释将其合理归入刑法规制范围,从而既能实现与前置法的规范衔接,又能通过严格入罪门槛强化对技术黑色产业的打击力度。应当在侵犯公民个人信息罪中增设“非法使用”的行为类型以实现法益保护的全覆盖,同时构建人工智能技术应用下网络服务提供者分级责任体系并强化技术治理义务。

  关键词:人工智能;深度伪造;非法使用;身份盗窃;技术包容;侵犯公民个人信息罪

  目次 一、人工智能时代深度伪造行为刑法规制的必要性 二、人工智能时代深度伪造行为对现行刑法的挑战 三、人工智能时代深度伪造行为刑法规制的进路

  伴随人工智能技术的迅猛发展,伪造手段同样出现了巨大的变化。当前,作为人工智能伪造技术典型实例的深度伪造技术,已属于排名前五的身份欺诈方式。依照专门进行虚假内容识别工具开发的公司DeepMedia的报告,与2022年相比,2023年视频深度伪造数量增长了三倍,语音深度伪造数量更是以八倍的增速猛涨。应该看到,深度伪造技术拥有双面特性。一方面,深度伪造技术在影视特效、医疗影像等领域可以推动创新应用;另一方面,深度伪造技术也可为不法分子实施名誉侵害、金融诈骗乃至危害国家安全等行为提供技术方法。如果深度伪造技术遭到滥用,甚至还可能引起社会信任体系崩解等多种无法估计的深层次危害。在此背景下,如何在刑事法律层面合理规制深度伪造行为,成为一个亟待解决的问题。

  深度伪造是近年来新兴的人工智能技术,社会各界对深度伪造的概念及其底层技术逻辑的认识尚不全面。深度伪造行为不仅可能对公民人格权和财产权等法益造成严重侵害,而且可能成为新型犯罪工具而使现有犯罪出现新的行为类型。因为我国民法等前置法以及刑法对涉深度伪造不法行为的规制效果十分有限,所以滥用深度伪造技术的行为事实上已经对现有法律体系形成了重大挑战。为了使理论研究更加具有针对性和现实基础,我们在讨论人工智能时代深度伪造行为刑法规制的相关问题时,首先应当明确并统一深度伪造的概念及其底层技术逻辑。具体而言,“深度伪造”一词的出现最初是源自一场网络社区的恶作剧。2017年年底,网名为“深度伪造”(deepfakes)的用户在Reddit平台上传了AI换脸处理过的色,其将《神奇女侠》某主演的脸庞换到成人影片演员身上。该账号在两个月间发布了几十条类似视频,每条皆有数万点击量。媒体最初报道时普遍采用AI换脸等中性表述,但随着事件渐渐升温,2018年1月的报道首次将“deepfake”作为正式术语,并把它定义成“借助人工智能制作出的虚假视听内容”。深度伪造技术产生于人工智能时代,且是人工智能技术应用的产物。深度伪造技术存在狭义、广义两种定义,狭义深度伪造技术指的就是换脸技术,也即利用深度学习算法把目标人物的面部特征迁移到其他视频中,让其看起来像是在做源人物的动作、说源人物的话。广义深度伪造技术则是指涉及深度伪造的所有技术,含有面部交换、唇形同步、木偶操纵技巧等多种伪造样式。面部交换技术是借助AI提取人物的面部特征,并把它动态迁移到其他人的身体或者视频中。唇形同步技术则能够精准调节人物的口型,让其跟任意输入的语音内容相匹配。木偶大师技术能够实时捕捉操作者的面部表情,把这些表情马上投射到目标人物脸上,由此制造出逼真的实时互动场景。通常情况下,这些技术被组合运用,制造出多维度高度逼真的虚假内容。

  深度伪造技术的核心是生成对抗网络模型(GANs)。GANs由生成器和判别器两个人工智能神经网络组成,两者采用零和博弈实现能力的逐次迭代。生成器可接收随机噪声或者特定输入,生成伪制数据。例如,在换脸场景中,生成器会对源人物A的面部特征进行分析,并把它反映到目标人物B的视频里,同时把B的原始表情和动作留存。判别器可以接纳真实数据(如真实名人照片)以及生成器输出的虚假数据,并通过分类器判别输入是否为真实的。其本质上类似于一个“数字鉴伪师”。在早期阶段,判别器通常仅能识别面部边缘模糊等低级特征。随着训练进一步深入,其可察觉微表情不自然、光影逻辑有差错等深层瑕疵。两者通过反复对抗训练,使生成内容真实性快速提升。可以说,深度伪造技术结合了“深度学习”和“伪造”。需要注意的是,虽然深度伪造技术与Sora等文生视频技术均是人工智能时代的产物,但两者并不完全相同。深度伪造以GANs为基础,聚焦于对已有内容的篡改替换。其本质是对现实素材的部分重构,技术难点在于特征吻合与融合的自然度。Sora作为扩散模型驱动的文生视频工具,则是从零生成全新动态场景,通过文本指令直接合成包含复杂物理交互的虚构内容,其技术突破在于跨模态理解与长时序连贯性建模。在生成式人工智能迅猛发展的当下,如果说Sora等文生视频技术代表着“创造现实”,那么,完全可以说深度伪造技术代表着“修改现实”。人工智能时代诞生的深度伪造技术,凭借其算法层面的创新性突破,正在对社会认知范式形成颠覆性冲击。该技术通过重构人类感官认知体系,不仅突破了传统伪造技术的真实性边界,而且对数字时代的信任机制造成根本性威胁。深度伪造行为所具备的感官欺骗性与技术普及性特征,已从技术伦理层面跃升为具有严重社会危害性的法律问题。因此,深度伪造行为在本质上构成一种利用技术手段实施的、具有高度欺骗性的“实质伪造”行为,核心刑法属性在于对真实性的严重扭曲和对受刑法保护法益的直接或潜在侵害,其引发的系统性风险亟需通过刑法规制予以回应。

  深度伪造技术最显著的特征在于其感官层面的真实性欺骗能力,更易造成比文字造假等传统诈骗方式更严重的犯罪后果。根据我国《刑法》第13条的规定,犯罪具有社会危害性、刑事违法性和应受刑罚惩罚性三个基本特征,其中严重的社会危害性是犯罪的本质特征。深度伪造行为可能具有比传统诈骗行为更为严重的社会危害性,因此,通过刑法规制深度伪造行为的必要性愈发凸显。依托于人工智能的强大算力,深度伪造技术已突破人类感官的天然防线,正在重塑“眼见为实”的认知法则。传统伪造内容往往存在可追溯的物理破绽。例如,苏联时期修改历史照片,需人工涂抹背景人物轮廓;好莱坞电影中的换脸特效,常因面部光影与身体投影角度不匹配而露出破绽。人工智能深度伪造生成的虚假内容,却能在视觉、听觉甚至生理反应层面构建起近乎完美的欺骗性。1758年,本杰明?富兰克林写道:“一半的真相往往是一个巨大的谎言。”深度伪造是这句话在人工智能时代的数字表现形式。这种技术将真实与虚假编织成难以拆解的混合体。2024年韩国发生的“N号房2.0”案件中,犯罪分子利用公开的社交媒体照片,将普通女性的面孔移植到色中,连睫毛抖动的频率都与源人物生理特征一致。2024年香港地区某跨国公司遭遇的AI诈骗案中,骗子通过YouTube公开视频克隆了英国CEO的声纹与微表情,在视频会议中下达转账指令。如果当时财务主管没有注意到背景窗帘褶皱不符合伦敦办公室实景,公司将损失2亿港元。当技术能够以科学精度伪造现实,社会信任的根基便面临前所未有的侵蚀危机。此外,由于视觉信息在人类认知体系里起到了主导作用,深度伪造的欺骗性影响绝非文字欺诈所能企及的。基于人工智能技术的深度伪造技术不仅能篡改语言内容,而且可彻底转变如人物口型或动作态势等信息传递的视觉特征。科拉维塔视觉主导效应实验说明,如果视觉刺激与听觉刺激同时呈现,受试者多数会忽略声音信号,优先去响应视觉方面的信号,即人类感知系统存在“视觉优先”的现象。传播学相关研究证明,人们往往更能记住视觉信息,而容易忘掉听觉等其他信息。误导性视觉内容的迷惑程度远超文字误导,这源于“真实性认知偏差”——因为视听媒介和现实体验更贴近,人们本能地就对其给予更高信任。这种偏差让深度伪造内容更轻易地影响甚至扭曲受众的认知。人工智能时代的技术进步放大了此类认知缺陷,使数字造假拥有了生物学层面的欺骗优势。这种感官层面的真实性欺骗能力不仅突破了人类生物识别的最后防线,而且在认知维度重构了真相的验证机制,最终导致社会信任体系面临系统性解构风险。

  人工智能技术广泛运用下的深度伪造技术极大地影响了公众的认知能力,损害了人类对视频媒介的信任根基。有学者指出,视频过去被看成“真实性最高标准”。这是因为,视觉信息承载的细节大大超过文字与图片,人们天生认定眼见的就是事实。这种信任归因于视觉系统在认知中的主导地位。然而,依托于人工智能技术,深度伪造让视频变得跟照片一样可遭篡改。就算是面对真实视频,观众也有可能因怀疑其真实性而拒绝采信。这种认知危害的本质体现为:技术使人类借助影像获取客观世界知识的能力变弱,当公众普遍对视频真假表示怀疑时,会明显削弱新闻行业营造社会共识的能力。社会共同认知体系也许会因此崩溃,因为人们不再共同采用对基本事实的判断标准。深度伪造技术明显加大了虚假内容被误判为真实的概率,进一步加剧了认知危害。深度伪造技术使得逼真的虚假伪造视频更容易生成,引发视频媒介的整体信息可信度大幅下降。以某知名官员受贿视频为例。在深度伪造技术全面普及之前,预设此类视频的线%,技术普及实现后,线%。这意味着,如果观众仅凭视频判断该官员受贿,其判断出错的概率较过去增加五倍。即便该视频是真实的,这种基于视频的认知也难以被视为可靠知识——因为判断正确的概率仅有50%。视频可信度出现系统性下降,从根本上削弱了人们借助影像媒介获取可靠知识的能力。

  深度伪造技术对社会信任体系造成了极大危害。深度伪造技术借助先进的人工智能算法,已成为炮制网络虚假信息的实用法宝。先进的人工智能神经网络同海量数据结合在一起,使伪造的内容近乎实现以假乱真,甚至能够欺骗专业鉴伪的程序。深度伪造技术让虚假新闻传播变得更为迅捷,甚至对公共安全构成重大威胁。并且,伪造内容可能激化国家间的政治或宗教矛盾,误导公众判断,甚至引发金融市场动荡。随着技术发展,恶意应用已蔓延至政治领域。2022年3月,社交媒体出现伪造视频,显示乌克兰总统泽连斯基“命令”士兵向俄军投降。此外,犯罪分子借助此项技术搞欺诈勒索等违法行径,还可伪造证据对司法调查造成干扰。技术赋予个人调整视频内容的能力,严重削弱了公众对真实信息认知的正确性。当这些伪造信息借由社交媒体迅速扩散的时候,其传播的速度与影响范围远远超越传统监管手段的控制能力,这种失控状态不断对社会信任体系造成破坏。

  深度伪造技术的另一核心特征在于操作层面的平民化趋势。这一核心特征在很大程度上也导致了利用深度伪造技术实施犯罪行为的技术门槛有所降低。虚假视频并非全新现象。二战期间,纳粹曾制作宣传片虚构犹太人的优渥生活。早在深度伪造技术出现前,阿波罗登月视频的真实性就引发过广泛质疑。从历史角度看,深度伪造并未开创认知威胁的先河,但该技术显著改变了虚假视频的生产模式。传统伪造技术需要专业团队、昂贵设备与数月制作周期,而深度伪造技术通过开源工具链与平民化算力,使伪造行为变为人人可操作的数字游戏。人工智能时代的开源社区与模块化工具链,使得技术应用呈现出“去技能化”特征。以开源软件DeepFaceLab为例,其图形化界面与详细教程使普通用户经过3小时学习即可完成换脸视频制作。更为严重的是,这种简易操作特性使深度伪造技术成为了危害女性权益的有力工具。网络安全公司Deeptrace在2018年的报告称,大约有14698个深度伪造视频在互联网上流传,其中有96%被用于伪造非自愿色情材料,在排名前四的深度伪造上总共有134364438次观看。令人震惊的是,在线%是女性色情描绘。深度伪造技术的滥用不仅延续了传统性别权力结构中对女性身体的规训与物化,而且通过算法凝视的隐蔽性将女性主体性消解为可编辑的数字碎片,形成系统性性别暴力链条。其危害已超越个体侵害层面,演变为技术赋能下性别歧视的制度化再生产。可以说,深度伪造色情是数字时代性别暴力的新形态。“过去我们难以辨别真伪,如今人人皆可制造虚假——这种普及性正在瓦解社会信任体系。”技术大众化加剧了虚假信息的传播风险,使公众对媒介真实性的基础认知遭受系统性冲击。

  随着人工智能技术的突飞猛进,深度伪造技术的快速发展给国家政治、经济乃至人们的社会生活带来了巨大的风险,特别是会对人们的正常认知产生极为深刻的冲击和影响,甚至会直接导致人们观念的改变。所谓“假作真时真亦假”的传统常态,也会随着深度伪造技术的渗透而演变成“真作假时假亦真”的新型状态。这些变化会加剧相关违法犯罪行为社会危害性程度,集中体现为对现行刑法规范体系的强烈冲击,使得现行刑法规定具体条款的适用面临前所未有的复杂局面。刑事立法与司法上对深度伪造行为规制和适用上的困境必然导致刑法理论上争议不断,可谓众说纷纭、莫衷一是。

  有学者指出,基于人工智能的深度伪造技术可以分为信息的获取(上为)、算法的加工(中为)以及伪造音频或视频的发布(下为)。按此分析,笔者认为,目前刑法对深度伪造行为规制的困境主要集中在上为阶段与中为阶段。

  首先,现行刑事规范对深度伪造上为的规制存在局限。当前刑法对深度伪造上为规制的局限性,主要体现在对生物识别信息滥用行为的规制上,这方面存在系统性缺陷,难以有效应对深度伪造技术带来的身份盗用风险。根据最高人民法院、最高人民检察院于2017年发布的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(以下简称《侵犯公民个人信息罪司法解释》)第5条的规定,生物识别信息未被单独列为保护对象,在实践中只能归类为“其他信息”,需达到5000条以上的数量标准方可入罪。有学者指出,生物识别信息包含生理特征(如人脸、指纹)和行为特征(如步态、声纹),前者可勉强归类为“健康生理信息”。然而,根据2021年全国信息安全标准化技术委员会制定的《网络安全标准实践指南——网络数据分类分级指引》5.2.2的规定,个人生物识别信息与个人健康生理信息系两种完全不同的信息。依笔者之见,即便认为部分生物识别信息可勉强作为健康生理信息受到保护,也仍有部分生物识别信息无法作为特殊信息受到保护。例如,采用人工智能深度伪造技术合成出的语音或动作视频,其依靠的行为特征信息是现有法律概念难以覆盖的。可见,司法解释的规定与生物识别信息的特殊性并不相符。生物识别信息的特殊性决定了与司法解释中的“其他信息”相比,生物识别信息更值得突出加以保护。理由是:其一,生物识别信息与个体身份深度挂钩,单一条目泄露可能会造成人格权、财产权等复合性损害。例如,把某公众人物的面部特征伪造后制作虚假代言广告,哪怕仅关乎单一条目,其引发的商誉损失以及社会误导效应也远超“其他信息”批量泄露。其二,由于依托于人工技术的深度伪造的技术门槛较低,生物识别信息比“其他信息”更容易被滥用。伪造者无需进行大规模信息收集,仅借助社交媒体上的公开照片即可生成伪造内容,现行数量标准事实上让刑法保护失去了意义。

  需要指出的是,现有法律框架下,生物识别信息保护面临两难选择:如果将其强行解释为“健康生理信息”,虽可扩大保护范围,但会破坏法秩序统一性;如果坚持现有分类,则必然会留下规制漏洞。这种矛盾似乎在跨部门法协作中尤为突出。例如,我国《民法典》第1034条将个人信息与隐私权分离保护,而刑法未体现对生物识别信息中隐私属性的特殊关注。当人工智能深度伪造内容涉及性隐私时,被害人既难以借助司法机关追究行为人侵犯公民个人信息罪的刑事责任加以维权(需满足5000条的入罪要求),又无法借助司法机关追究行为人侮辱罪、诽谤罪的刑事责任充分救济(需证明“情节严重”)。法律保护手段的割裂,使受害人陷入两头落空的维权困境。

  其次,现行刑法对深度伪造中为缺乏规制手段。我国刑法仅规定了对上为与下为的处罚,而不包含对中为的否定性评价,这就会导致司法实践中对“产业链”共同犯罪的认定上出现困难。如在深度伪造技术产业化发展的情况下,技术服务提供者与下游犯罪行为人之间通常不存在“通谋”情况。服务提供者通常不清楚下游犯罪行为人利用该技术实施的具体犯罪,双方共同故意的认定存在很大困难。仅凭下游犯罪行为人的犯罪行为,不能将服务提供者行为以共同犯罪认定。

  对此,有学者认为可以通过增设“身份盗窃犯罪”对中为进行规制。持相同观点的学者指出,当前刑法对公民个人信息犯罪的规制存在显著盲区,难以应对深度伪造技术中“合法获取+非法使用”的新型危害模式。现有刑法规定将侵犯公民个人信息罪的核心置于非法出售、提供、获取等数据流转环节,实质上将“侵犯”等同于“非法获取”,导致合法渠道获得信息后的滥用行为脱离刑法规制。因此,有必要对使用行为独立设置罪名进行规制。持该观点的学者关注的焦点在于深度伪造技术对法律主体资格的根本性破坏。行为人利用高精度模拟技术盗取他人生物特征,利用人工智能深度伪造技术未经授权生成以假乱真的伪造内容,实质上构成了对个人法律人格的非法侵占。与传统身份犯罪主要损害财产权益不同,深度伪造通过篡改身份识别系统,直接冲击了法律关系中权利义务分配的基础,其危害性已超出普通犯罪范畴,演变成针对法律主体制度的系统性威胁。这种身份标识的非常规使用导致被冒用者面临数字替身失控的风险,被迫为自身未实施的行为承担法律后果,最终侵蚀现代社会运行所依赖的信任机制。与之相反,有学者对前述增设“身份盗窃犯罪”的立法论观点持否定态度,认为在难以证实不当利用“深度伪造”技术的行为已经侵犯某种特定的、有待在刑法中确立的新法益时,盲目采取立法犯罪化的路径并不具有正当性。刑法对深度伪造技术的理性回应需要立足于司法层面,也即通过适用现行刑法条文来实现对深度伪造行为的有效应对。

  目前,我国刑法中虽然也存在诸如招摇撞骗罪等能够起到一定身份保护效果的罪名,但却没有专门保护身份法益的条文。在人工智能时代背景下,对于中为,是否有必要通过立法的方式增设刑法条文进行规制,仍值得讨论。

  人工智能技术广泛应用下的深度伪造行为因其运作技术的复杂性与社会危害的扩散性,引发了刑法适用中的双重争议:一是罪名区分中法益保护与谦抑性原则的平衡问题,二是人工智能技术介入下犯罪故意的认定标准问题。

  第一,深度伪造行为适用罪名存在争议。司法实务通常认为,如果将人工智能技术介入下深度伪造的涉性视频、图片等内容在网络上散播,行为人属于实施了《刑法》第246条中“捏造事实诽谤他人”的行为,构成诽谤罪。有学者提出了不同观点,认为“从深度伪造涉性信息的危害来看,对女性而言,‘性’的色彩较之一般的侮辱行为来说是更为浓烈的,且不论行为人主观何种目的,客观上的确对女性的羞耻心造成了侵犯,抛开行为手段的评价,强制侮辱中对‘性’的评价适用于此种行为是较为合适的。在深度伪造涉性信息的传播中,虽然行为人客观上对受害人的人身并未进行强制,但如果肯定网络暴力的客观存在,未尝不可将其认定为一种强制行为”。根据该观点,人工智能技术介入下深度伪造涉性信息并传播的行为,也可以构成强制猥亵、侮辱罪。笔者认为,这种观点显然是错误的。

  首先,该观点违反了罪刑法定原则。《刑法》第237条强制猥亵、侮辱罪的构成要件明确要求存在“暴力、胁迫或其他方法”。传统刑法理论中,“强制”需具备物理或心理上的即时压迫性,例如,暴力是指使用外力对他人身体的强制,即使被害人处于“不能反抗”的状态;胁迫是指以威胁、恐吓等手段,对他人实行精神上的强制,即使被害人处于“不敢反抗”的状态;其他方法则是指以酒醉、麻醉手段或利用他人本身存在的酒醉、麻醉状态等手段对他人实施强制,即使被害人处于“不知反抗”或部分“不能反抗”的状态。但是,人工智能技术介入下深度伪造涉性信息的传播行为,虽可能引发受害人的羞耻感并导致社会评价降低,但本质上属于信息扩散的间接侵害。我国刑法将强制猥亵、侮辱罪与罪衔接加以规定,突出强调强制猥亵、侮辱罪是对被害人性权利侵害的犯罪。强制猥亵、侮辱罪中的“暴力、胁迫或者其他方法”应当与罪中的“暴力、胁迫或者其他手段”作相同的解释。行为人利用人工智能技术制作深度伪造视频并传播的行为显然并未达到直接对被害人性权利侵害的程度。行为人与被害人之间缺乏强制行为所需的直接接触以及“行为-结果”的直接关联性。“较之兼具接触性、共时性的传统猥亵形态,网络猥亵因网络世界的虚拟性、跨地域性而导致猥亵行为人、被害人、行为、结果等要素产生‘时空脱嵌’现象。”行为人通过网络视频等方式以暴力、胁迫或其他方法强制猥亵被害人的,尚存在构成强制猥亵、侮辱罪的余地,但由于信息传播的延时性,行为人通过深度伪造的方法伪造视频并在网络空间传播的行为难以符合“强制”所要求的即时性压迫特征。如果将该行为泛化解释为“强制”,实质上是对刑法用语的过度扩张,似乎与罪刑法定原则核心要义相悖。

  其次,该观点混淆了不同罪名的法益保护范围。通常认为,猥亵犯罪是一种具有性侵犯性质的社会危害行为。具体而言,强制猥亵、侮辱罪侵犯的法益是他人及妇女的性权利等人身权利。刑法设置该罪的核心在于防止他人通过强制手段对被害人性自由权造成直接侵害。诽谤罪则侧重维护公民的人格、名誉权。人工智能技术介入下深度伪造涉性信息虽带有“性”元素,但其危害本质在于通过虚假信息扭曲社会评价,而非直接侵犯属于身体控制权的性权利。例如,伪造的视频传播后,受害人遭受的是婚姻关系破裂、就业机会丧失等损害,而非身体被强制暴露的即时肉体侵害。如果强行将此类行为纳入强制侮辱罪,不仅会造成强制侮辱罪与诽谤罪法益边界的错位,而且可能导致刑法评价体系的混乱。持该观点的论者可能出于强化被害人保护的初衷,试图通过适用非亲告程序追究犯罪,以更加便捷地对该类犯罪实施打击,却在路径的选择上存在结构性错位。刑法将诽谤罪设为亲告罪,系基于名誉权损害的私益属性及证据收集的亲历性特点,因此仅在严重危害社会秩序时启动公诉程序。而强制侮辱罪作为公诉罪,源于对他人性自主权的直接强制侵犯具有较大的社会危害性。如果仅因诉讼程序便利性的差异,便将本属虚构事实并加以传播的诽谤行为升格解释为强制侮辱行为,实质是以程序需求倒置实体认定,违背了刑法罪名设置的基本逻辑。

  第二,间接故意传播深度伪造内容行为应否纳入刑法规制范围存在争议。为了规制网络诽谤等利用信息网络实施的违法行为,最高人民法院、最高人民检察院于2013年发布了《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》(以下简称《网络诽谤刑事解释》)。如前文所述,制作深度伪造视频、图片并散布的行为属于“捏造事实诽谤他人”行为,构成诽谤罪。在人工智能技术广泛运用的今天,对于间接故意传播深度伪造内容的行为是否应当被刑法规制,学界仍未有定论。

  有观点认为间接故意传播深度伪造内容的行为同样应通过刑法进行规制。有学者指出:“除刑法规定的目的犯以外,所有的故意犯罪都不应当限定为直接故意,即便是目的犯,也是以合理地推导才能得出只由直接故意成立的结论。普通的故意犯罪,行为人可以在追求任何目的实现的心理状态下放任特定危害结果的发生,从而不能排除间接故意犯罪成立之可能性。”“刑法规定没有要求毁损名誉的特定目的;随意割裂间接故意,既不符合故意理论也不符合客观实际。”还有学者认为,在网络诽谤治理中严格限定直接故意的标准面临现实困境,因为多数情况下,诽谤信息的传播者并不确知自己传播的是他人捏造的诽谤信息,且对名誉损害结果多持放任态度。固守传统直接故意标准既难以匹配网络传播心理特征,亦会导致放任型传播脱离刑法规制,最终削弱对公民名誉权的实质保护。

  与之相反,有观点认为应当对主观要件加以限制,将间接故意排除在外。有学者认为,在人工智能时代,机器学习算法的不透明性严重影响了法律的可预测性和确定性。在GANs等深度学习系统中,算法自动化决策往往干扰个人独立判断,使得公民难以充分认识算法的运作规则和实际后果。与经过深思熟虑后主动转发不同,利用深度伪造技术实现的一键式转发,其主观明知程度可能并未达到要求。如果一律以主观明知定罪,易陷入刑法工具主义。因此,应将滥用深度伪造技术行为的主观要件限定为直接故意,并要求行为主体对其手段及后果的危害性有明确认识。持相同观点的学者指出:“‘深度伪造’虚假信息的肉眼辨别难度较大,再加上‘算法黑箱’和溯源防伪和反向破解的验证、标记的强技术性,一般而言,网民出于对新鲜事物的好奇心和科技信息的热爱,会不由自主地转发‘深度伪造’的虚假信息。其中,大多数网民是基于半信半疑的主观心态去转发的。此时,刑法如果将该种间接故意主观心态下‘深度伪造’的刑法规制之中,很显然,绝大多数的网民在转发此类虚假信息时,均有可能涉嫌犯罪。因此,在虚拟的网络空间中,我们应该将《网络诽谤刑事解释》第1条第2款转发者的明知规定,限定为直接故意的明知情形。”

  笔者认为,否定通过刑法规制间接故意传播深度伪造内容行为的观点是正确的。但上述学者的论据存在问题。其一,上述观点混淆了故意类型与认识要素的规范逻辑。刑法中直接故意与间接故意的核心区分标准在于行为人对危害结果的主观意志态度,而不是对行为手段或对象属性的认识因素及认知程度。根据《刑法》第14条的规定,直接故意是指“明知自己的行为会发生危害结果,并希望这种结果的发生”的主观罪过;间接故意则是指“明知自己的行为可能发生危害结果,并放任这种结果的发生”的主观罪过。可见,直接故意与间接故意的明知均是对危害结果的预见,而不是对对象属性的认知。前述学者将“明知信息系深度伪造”等同于直接故意,将“半信半疑”状态直接对应间接故意,实则混淆了行为人对对象属性的认识与对行为造成危害结果发生的认识,存在明显错误。其二,上述观点误判人工智能技术特性与行为归责的因果关系。GANs本质是数据驱动的人工智能生成模型,GANs技术功能仅限于合成逼真音视频内容,并不具备信息自主传播的算法机制。所谓“一键式转发”实为网络平台预设的用户交互功能,与深度伪造技术本身无直接关联。传播行为的发生完全依赖于用户主动点击操作,技术系统既未强制用户转发,亦未替代用户作出价值判断。其三,上述观点混淆了技术中立性与行为违法性的评价边界。以人工智能技术中“算法黑箱”“技术不可控”为由主张限制主观要件,本质上是对技术中立原则的误用。技术中立原则仅豁免工具创造者的责任,而非使用者行为的违法性。人工智能技术应用下深度伪造本身具有中性属性,但该技术一旦被用于捏造、传播虚假信息,使用者的行为便具有独立可罚性。例如,GANs生成虚假视频的技术过程虽具有自动化特征,但用户选择转发该视频时已介入独立的意思决定。技术生成内容的“真实性判断难度”仅影响行为人注意义务的范围,而非直接阻却主观故意或过失的认定。如果依前述观点,任何利用高技术工具实施的犯罪均可主张技术不可知而减免责任,则将导致技术成为违法行为的避罪工具。

  笔者之所以认为间接故意传播深度伪造内容的行为不应纳入刑法规制范围以诽谤罪定罪处罚,是因为诽谤罪虽然不属于“法定目的犯”但属于“非法定目的犯”。“目的犯并不以法律有规定为限,某些犯罪法律虽未明文规定要有某种特定目的才能构成,但从司法实践和刑法理论上看,无此目的即无此罪,此犯罪仍不失为目的犯。”虽然《刑法》第246条并未明文规定诽谤罪的犯罪目的,但诽谤罪具有贬低他人人格、损害他人名誉的目的已是学界通说,也即诽谤罪属于非法定目的犯。因此,从刑法教义学角度,诽谤罪的构造天然排斥间接故意的适用。目的犯的本质在于行为人对特定结果的积极追求,这一主观状态与直接故意中“希望危害结果发生”的意志因素完全契合,而与间接故意中“放任结果发生”的意志因素存在结构性矛盾。此外,基于刑法的谦抑性与的平衡的价值考量,也应当排除对间接故意传播深度伪造内容行为的刑法规制。虽然人工智能深度伪造技术的特性确实加剧了虚假信息传播的社会风险,但刑事规制的介入必须恪守“最后手段性”原则。将间接故意排除在诽谤罪规制之外,并非否认其社会危害性,我们完全可以通过民法、行政法等其他层级的法律对相关的深度伪造行为加以分级治理。笔者认为,在人工智能时代,如果过度依赖刑法手段,不仅难以应对海量网络传播行为,而且可能抑制公众正常的信息交流。因此,坚守诽谤罪作为目的犯的主观要件边界,既是刑法教义学逻辑的必然结论,也是人工智能时代平衡法益保护与权利保障的理性选择。

  在人工智能高速发展背景下,深度伪造显现出法律层面的复杂性,其既能成为个体表达权利现代化呈现的正常渠道,也可能成为冲击法律秩序的高科技犯罪载体。基于这一现实,刑事规制应当依据技术特点与时代背景,坚持兼顾技术风险防控与创新激励的双重价值取向,以实现对人工智能技术介入下深度伪造行为的刑法规制。

  目前,深度伪造技术正处于技术创新的高速发展时期。刑法规制深度伪造行为的进路必须同时考虑到技术逻辑与法律逻辑,即既要给相关人工智能技术充分的发展空间,也要对具有严重社会危害性的新型犯罪行为加以法律规制。刑法是社会治理的最后手段,将某种行为纳入刑法规制的范围必须以“必要性”为前提。坚持“技术包容”的谦抑立场,在本质上就是刑法不应对科学技术本身设限过多,而是应当聚焦于特定使用场景中的“行为”是否具有严重社会危害性进而加以规制和防范。这也是对《刑法》第13条“情节显著轻微危害不大的,不认为是犯罪”等相关内容的遵循。同时,坚持“技术包容”的谦抑立场还要求对深度伪造技术的法律规制应当优先且主要依赖民法与行政法手段。例如,对于亲友微信群中转发娱乐类“换脸视频”的情形,如果相关行为没有对他人的人格权造成严重损害,应当优先适用《民法典》第1024条或者《网络安全法》第12条等法条对相关行为进行非刑事制裁,行为人需要承担的法律责任主要有停止侵害、删除内容、恢复名誉、赔偿损失等;如果相关行为对他人的人格权造成了严重损害且民法或行政法手段已不足以规制相关不法行为,那么应当适用《刑法》第246条侮辱罪等法条对相关行为进行刑事制裁。具体而言,处于人工智能深度整合的当今时代,深度伪造技术的法律管控需要系统考量其技术生态的连带作用。作为生成式AI的核心应用领域,借助深度学习框架与生成对抗网络的结合,辅以自然语言处理技术,深度伪造技术实现了功能升级。该技术在医疗影像合成、虚拟现实交互与文化遗产修复等领域具备实用价值。以医疗领域为例,利用GANs增强病理图像,可显著提升癌症早期诊断的精确度,其底层逻辑与深度伪造技术存在明显共通点。如果出于抑制虚假信息的目的对生成模型采取过度的法律限制,则可能迫使技术人员削减模型处理语义和复原图像的水平,进而拖慢医疗AI诊断技术的开发进度。更深层的矛盾在于,人工智能领域的突破性进展往往依托多领域技术融合与信息共享,倘若借助刑法条文对技术应用环节设置固定门槛,或许会妨碍数据传递与算法革新的技术循环,从而削弱人工智能安全体系的底层支撑。因此,刑法介入应当遵循必要性与最小化原则,以负面清单为工具明确技术操作的合法范畴,而非对技术架构进行前置封禁。

  在人工智能时代,深度伪造行为的刑法规制必须恪守谦抑性原则,既要警惕技术滥用引发的法益侵害,更要避免过度干预公民的合法表达空间。刑法的补充性定位要求其仅在行为的社会危害达到较为严重程度时方可介入。正是由于深度伪造既能作为无害娱乐的技术工具,又可能在特定情境下演变为对社会造成严重危害的隐患,必须在防范滥用与保障正当表达之间寻求平衡。贸然启动刑事追责不仅违反比例原则,而且可能抑制技术创新与正当表达。我国《宪法》第35条赋予公民权,第47条保障文艺创作自由,这意味着刑事立法需在技术治理与权利保障间构建动态平衡。对于未突破《刑法》第246条“情节严重”标准的戏仿性内容,应优先适用《民法典》第1024条名誉权保护条款或《网络安全法》第12条信息内容管理规则。只有当深度伪造行为实质扭曲公众认知、引发社会秩序混乱或造成重大财产损失时,才具备刑事可罚性的基础。

  此外,有必要进一步对行为人主观恶意的认定问题进行探讨,以便在保护公民正当表达的同时准确界定恶意利用深度伪造技术所应承担的法律责任。“行为人出于善良动机确信其接收的某个信息为真而予以传播的,或者原本想表达此意但实际表达了彼意却不自知的,不能认定其具有恶意。”所谓“恶意”,本质上体现为行为人利用人工智能深度伪造技术传播虚假信息时的主观心态。在认知层面,行为人必须明确意识到通过技术手段生成或传播的内容具有虚构性。这种认知不要求行为人精确掌握技术细节,但需具备“内容不实”的基本判断能力。如果普通人通过明显异常的画面瑕疵可识别伪造痕迹,而行为人仍选择传播扩散,即可推定其明知信息虚假。如果技术平台生成内容可信度较高(如系官方认证的AI工具),或行为人没有相关深度伪造技术基本辨别能力,则可能因认知局限而排除行为人具有恶意的认定。在意志层面,行为人需要具备通过技术造假损害他人名誉的直接故意。如自媒体为了流量,利用人工智能深度伪造技术把某人的公开演讲改成辱国内容,该伪造行为足以证明具有希望名誉损害后果产生的积极心理。与之不同的是,影视公司为艺术创作虚构历史人物对话且标明“虚构剧情”,则由于不存在针对特定个体的贬损意图而不构成恶意。界定恶意时应着重考察技术使用场景。普通大众借助开源工具制作娱乐性质的换脸视频与专业机构利用深度伪造制造证据诋毁商业对手,二者对技术风险的认知程度与主观动机具有本质性不同。严格限定恶意要件是为了防止把人工智能技术探索中的无心过错纳入刑事打击的范围。科研人员测试生成算法期间意外泄露了伪造内容,或普通用户因自身辨识能力不足转发虚假内容,对于此类行为,以技术警示标识、信息溯源机制等非刑罚手段来实现规制可能更好。采用区分技术能力与主观恶意的做法,既能遏制以人工智能深度伪造为工具的网络诽谤,也为人工智能时代的技术创新与合理表达保留了必要的空间。

  第一,确立生物识别信息的独立法律地位并优化分类标准。如前文所述,现有法律框架下,生物识别信息保护面临两难选择。如果将其强行解释为“健康生理信息”,虽可扩大保护范围,但会破坏法秩序统一性;如果坚持现有分类,则必然留下规制漏洞。根据《侵犯公民个人信息罪司法解释》第5条第3项,行踪轨迹、通信内容、征信信息等直接影响人身财产安全的信息被列为可以严重影响人身、财产安全的公民个人信息。但是,在涉深度伪造技术的违法犯罪中,生物识别信息的敏感性和重要性显然并不低于行踪轨迹和通信内容。泄露生物识别信息的后果更加具有社会危害性与不可逆性。将生物识别信息纳入该解释第5条第3项,不仅具有技术合理性与刑事政策的现实针对性,而且是在人工智能时代背景下构建现代化刑法规制体系的重要一环。其目的不仅在于惩罚犯罪,而且在于通过刑法明确个人信息的边界,从而建立人工智能时代“可识别即可保护”的刑法规制逻辑。

  将生物识别信息纳入《侵犯公民个人信息罪司法解释》第5条第3项规定,是基于其技术特性与法益侵害风险的必然选择。生物识别信息具有唯一性、不可逆性和强关联性三重特性,生物识别信息泄露可直接导致身份盗用、财产损失等严重后果。例如伪造人脸信息突破金融支付系统或冒用身份实施精准诈骗,其危害性已超越普通个人信息而与行踪轨迹等第一层级信息相当。现行司法解释将行踪轨迹、通信内容等归入第3项,正是基于其直接威胁人身安全的核心属性,而生物识别信息与行踪轨迹、通信信息相比,技术风险似乎更甚。因为,一方面,生物识别信息的唯一性使其成为身份识别的“数字密钥”,泄露后可直接被用于解锁手机、登录银行账户等,这与行踪轨迹暴露后遭物理侵害的风险具有等价性;另一方面,生物特征一旦泄露,其损害具有不可逆性。与通信内容(如聊天记录)的隐私泄露相比,生物识别信息修复成本更高。从法秩序统一性看,《民法典》第1034条将生物识别信息与隐私权并列保护,《个人信息保护法》第28条还将其列为敏感信息。刑法如果将生物识别信息归入第3项,既能实现与前置法的规范衔接,又能通过严格入罪门槛强化对技术黑产的打击力度。此外,司法实践中生物识别信息多用于身份伪造与金融犯罪(如伪造人脸盗刷银行卡),其危害链条与行踪轨迹引发的绑架、抢劫等犯罪具有相似性,将二者同层级规制可避免因分类错位导致量刑失衡,形成梯度化保护体系,更契合人工智能时代技术风险防控需求。

  在将生物识别信息纳入《侵犯公民个人信息罪司法解释》第5条第3项后,还应进一步明确涉深度伪造行为的入罪标准。在认定相关信息是否属于应受刑法保护的“生物识别信息”时,司法机关应参考技术处理指标,建立全国统一的司法判断标准。笔者认为,可以将经技术处理且可用于识别特定自然人的生物数据,作为生物识别信息的界定标准。申言之,在人工智能时代,我们不能将照片等具有一定生物识别属性的信息简单等同于生物识别信息。根据《欧盟数据保护条例》(GDPR)第9条规定,个人生物特征识别数据属于特殊种类的个人数据(个人敏感数据),适用区别于一般个人信息的特殊保护规定。根据GDPR第三部分关于个人敏感数据的规定,生物识别数据需通过特定技术处理将生物特征转化为可识别的数学模板(如面部特征向量),才能被认定为敏感数据。照片作为生物特征的原始记录,未经技术处理时仅是物理特征的数字化呈现,不具备唯一识别功能,因此不属于生物识别数据。如社交平台存储的未加密照未被用于身份验证时,仅构成普通个人信息;但如果通过算法提取面部几何结构并构建识别模型,则转化为受GDPR严格规制的生物识别数据。从比较法视角看,GDPR将生物识别数据列为特殊类别数据并适用严格处理规则,我国司法解释通过对第3项的扩容,可实现对深度伪造技术滥用风险的前置防控,避免因信息分类错位导致技术黑产链条失控。

  第二,增设非法使用个人信息行为类型以完善刑事规制链条。笔者认为,在现行刑法框架下,通过修订《刑法》第253条之一的侵犯公民个人信息罪,增设“非法使用”行为类型,与增设独立罪名“身份盗窃犯罪”相比,更具合理性与可行性。如前所述,生物识别信息的滥用风险集中体现于技术中游环节,其本质是对个人信息处理权的非法行使,而非创设新型法益。现行刑法将“侵犯”限制为“非法获取、出售或提供”,导致合法获取后滥用行为脱离刑法规制,形成了对“合法获取-非法使用”行为的规制漏洞。如果将“使用”纳入本罪构成要件,即可通过司法解释将“非法使用”明确为独立行为类型,适用与非法获取同等的法定刑,以实现法益保护的全链条覆盖。反对增设“身份盗窃犯罪”的核心论点在于其可能破坏刑法谦抑性,但是,将“使用”纳入现有罪名体系中恰恰体现了适用刑法的克制立场。现行刑法通过帮助信息网络犯罪活动罪、非法利用信息网络罪等罪名已对技术滥用行为形成部分规制,只是存在评价不足的问题。帮助信息网络犯罪活动罪要求“明知他人利用信息网络实施犯罪”,而深度伪造技术提供者则常以“技术中立”为由加以抗辩;非法利用信息网络罪侧重“设立网站或通讯群组”,似乎难以覆盖技术中游的算法滥用行为。修订侵犯公民个人信息罪则可突破此困境,因为将“非法使用”纳入刑法规制范围可直接针对信息处理行为本身进行规制,无需证明下游犯罪意图。此外,我国刑法体系强调法益保护的体系性,将“非法使用”纳入侵犯公民个人信息罪,既能保持罪名体系的稳定性,又可通过司法解释细化“非法使用”的认定标准。例如,可以通过司法解释明确“非法使用”限于数据加工(如特征提取)、场景移植(如伪造视频)等典型行为,以此限定刑罚范围。

  第三,构建网络服务提供者分级责任体系并强化技术治理义务。在现有的刑事法律框架内,对人工智能深度伪造技术的刑法规制,网络服务提供者乃是关键主体。根据《刑法》第286条之一的规定,平台未履行信息网络安全管理义务且经监管部门责令改正而拒不改正的,可能构成拒不履行信息网络安全管理义务罪,关键要点是平台没有对技术风险主动履行管控职责。例如,在“假靳东事件”中,抖音平台虽然依靠算法识别出了该违法行为并下架了侵权账号,但是,如果其未建立敏感内容过滤算法,或对监管部门指令的响应有延迟,造成虚假内容不断扩散,则可能会因不履行作为义务承担刑事责任。因此,在平台主导型的涉深度伪造不法行为中,其规制难点在于平台本身是否应当承担刑事责任。有学者认为,技术是中立的,技术提供者原则上不对该技术造成的危害承担责任,目前美欧等国家和地区均未要求网络技术提供者承担一般性的主动审查义务,而是要求其履行合理的注意义务并根据过错承担有限责任。笔者认为,技术本身确实具有中立性,但是技术使用行为则并非绝对具有中立性特征。在人工智能时代,简单通过技术中立来规避平台刑事责任的法理依据必然被撼动。如果平台在算法设计中具有明显的价值取向或利用目的,那么相关技术使用行为就不再具备“中立性”特征。例如,如果平台在算法设计上有意引导用户生成具有争议性、煽动性或误导性的深度伪造内容,以获取点击量与流量红利,那么其行为就不再属于提供中立技术,而应被视为具有明确目的性与方向性的技术操控行为。在此情形下,平台虽未直接制作虚假内容,但其通过算法推荐、内容引导或流量分发机制,在深度伪造行为的制作与传播过程中发挥了关键作用,应当依法追究其相关刑事责任。随着各大平台商场垄断地位的不断巩固,平台在很多情形下都已经不再是中立的信息中介,而是深度参与信息筛选、价值判断乃至意识形态导向的能动主体。因此,对于平台涉深度伪造等行为,应当根据相关平台在犯罪链条中的位置、作用程度与主观明知程度,依法认定其刑事责任。笔者认为,管理过失责任的归责逻辑能够适用于主体较为分散且技术链条较为复杂的人工智能平台。在此背景下,可以将整个人工智能平台或人工智能系统视为归责对象,同时将相关平台或系统内部的结构性风险与制度性缺陷也纳入刑法评价范围。通过明确平台责任与技术提供者的归责边界,刑法可以突破“直接加害人”的思维束缚,进而实现对复杂人工智能平台因结构性失控而产生深度伪造行为的有效规制。对于在设计算法、处理数据等环节中长期存在系统性问题的人工智能平台,刑法可以直接追究相关平台或人工智能大模型算法设计者以及运营者的管理过失责任。

  此外,相关网络服务平台需构建“预防-识别-阻断”全链条责任体系。预防义务要求平台在用户协议中明确禁止深度伪造滥用行为,并通过敏感内容过滤算法(如AI生成内容检测模型)拦截高风险内容;识别义务需运用活体检测、区块链溯源等技术追踪内容来源,例如要求用户在上传换脸视频时进行身份验证,并在视频原数据中嵌入不可篡改的数字水印;阻断义务则需根据内容性质分层处置——对涉嫌诈骗、诽谤等犯罪的内容立即删除,对一般性伪造内容(如娱乐换脸)添加可验证标识(如“本视频含AI合成内容”提示)。此类分级处置机制既能避免“一刀切”式删除对创作自由的侵蚀,又可有效遏制高危内容的传播风险。法律规制应进一步厘清平台责任的动态边界。一方面,就非违法的内容而言,平台不应承担主动监控的义务,以免平台过度审查侵害到;另一方面,应强化平台针对高风险技术应用的合规审查义务。就使用生成式AI技术的企业而言,应当向网信部门备案算法模型及数据训练来源,并定期提交安全评估报告。在司法实践中,要综合平台技术能力、内容审查机制与主观明知程度去判断平台责任。与技术能力相对薄弱者相比,具备AI内容识别技术的平台,在放任伪造内容传播上不作为的违法性明显较高。当然,技术赋能和法律规制的协同同样十分关键。平台有必要开发多模态鉴伪系统,将生物特征异常检测、物理环境一致性分析等技术整合,实时察觉伪造痕迹。同时,司法机关应当搭建区块链存证平台,做到内容流转各环节的全流程溯源,保证证据链完整且不可篡改。除此之外,还要警惕“技术中立”抗辩的不当滥用,对于明确知道技术被用于犯罪而拒绝进行防护措施升级的平台,应判定其存在主观恶性,在一定条件下按照法律追究刑事责任。

  《政治与法律》是上海社会科学院主管、上海社会科学院法学研究所主办的,把政治学和法学融于一炉、以法学为主的理论刊物。《政治与法律》恪守“研究政法理论,推动法制建设”的编辑方针,设有“热点问题”、“法学专论”、“经济刑法”、“立法研究”、“学术争鸣”、“案例研究”等栏目;积极推出国内外法学研究的最新成果。

  本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  四川阿坝红旗特大桥垮塌无伤亡,提前发现险情的巡逻人员被赞“立大功”,官方回应是否会奖励

  阿坝州双江口红旗桥引桥为何垮塌?官方:已成立专项工作组,原因尚需进一步核查

  河北廊坊通报“新人婚车遭拦截被索要50条烟”:系误传,实为索要9条香烟,对胡某某、殷某某等6人给予行政处罚、批评教育处理

地址:Casino USDT永久网址【363050.com】  电话:363050.com 手机:363050.com
Copyright © 2012-2025 Casino USDT 版权所有 非商用版本 ICP备案编: