一、什么是《互联网用户公众账号信息服务管理规定》?
《互联网用户公众账号信息服务管理规定》(以下简称《规定》)是一项旨在规范互联网用户公众账号信息服务的部门规章。它由国家互联网信息办公室在2017年首次发布,并于2021年5月21日修订后重新施行,其核心目标是维护网络信息传播秩序,保障公民、法人和其他组织的合法权益,促进互联网信息服务健康有序发展。
《规定》的核心定义与适用范围:
- 定义:《规定》所称“公众账号信息服务”是指通过互联网站、应用程序等网络平台,向公众发布文字、图片、音视频等信息内容的活动。它涵盖了各类允许用户注册并向不特定社会公众提供信息服务的账号类型。
-
适用主体:主要规管两大类主体——
- 公众账号信息服务平台运营者:指为公众账号提供信息发布、传播平台服务的组织,例如微信公众平台、微博、抖音、快手、知乎、今日头条等拥有用户生成内容(UGC)或专业生成内容(PGC)发布功能的平台。
- 公众账号信息服务使用者:指注册并使用这些平台发布信息的个人、法人或其他组织,也就是我们通常所说的“内容创作者”、“自媒体账号”、“官方账号”等。
- 适用客体:所有通过公众账号发布的信息内容,无论是原创、转载、评论还是互动信息,均受此《规定》约束。这包括但不限于文字文章、图片集、短视频、直播内容、音频节目等多种形式。
《规定》的主要目标:
- 净化网络环境:打击通过公众账号传播虚假信息、淫秽色情、暴力恐怖、谣言以及危害国家安全等违法有害信息。
- 规范运营行为:明确平台和账号运营者的责任和义务,促使其建立健全内部管理制度,提升自我规制能力。
- 保护用户权益:防止滥用公众账号进行网络诈骗、侵犯隐私、不正当竞争等行为,维护广大网民的合法权益。
- 促进行业发展:通过规范管理,为互联网信息服务行业创造一个公平、有序、健康的生态环境,鼓励优质内容生产。
二、为何出台此规定?理解其背景与必要性
《互联网用户公众账号信息服务管理规定》的出台并非空穴来风,而是为了应对互联网,尤其是移动互联网时代,公众账号信息服务爆发式增长所带来的一系列新问题和挑战。其必要性体现在以下几个方面:
1. 维护网络信息传播秩序的迫切需求:
- 谣言泛滥与社会恐慌:在缺乏有效监管时,一些公众账号为追求流量或特定目的,发布未经证实甚至恶意编造的虚假信息,引发社会恐慌,扰乱公共秩序。例如,关于食品安全、突发事件、公共卫生等方面的谣言,曾造成严重负面影响。
- 违法有害信息传播:部分账号成为传播淫秽色情、赌博、毒品、诈骗、暴力、极端思想等违法信息的渠道,严重危害青少年身心健康,侵蚀社会道德底线。
- 内容低俗化与流量至上:一些公众账号为吸引眼球,热衷于发布低俗、媚俗、庸俗内容,甚至进行恶意炒作、煽动对立,严重拉低了网络内容的整体质量。
2. 保护用户合法权益的现实考量:
- 个人信息泄露与滥用:公众账号在运营过程中可能收集用户个人信息,若缺乏规范,极易导致信息泄露、被非法利用,甚至成为精准诈骗的工具。
- 虚假广告与消费欺诈:一些公众账号利用其影响力发布虚假不实广告,进行消费欺诈,损害消费者合法权益,但消费者维权却往往面临举证难、追责难的困境。
- 版权侵权与不正当竞争:未经授权转载他人作品、抄袭原创内容、恶意贬低竞争对手等行为时有发生,严重打击了原创积极性,扰乱了正常的市场竞争秩序。
3. 应对新媒体发展挑战的治理方略:
- 平台责任缺失:在《规定》出台前,部分平台对公众账号的管理存在漏洞,对违法违规行为反应迟缓或处置不力,导致“法不责众”的局面。
- 新业态新模式的出现:短视频、直播、知识付费、社群团购等新业态的兴起,使得信息传播方式更加多元、复杂,对传统监管方式提出了更高要求。例如,直播带货中的虚假宣传、打赏行为的争议等。
- 提升网络治理能力:通过法律法规的形式明确各方责任,构建完善的监管体系,是提升国家网络空间治理能力的重要一环,确保互联网在法治轨道上健康发展。
《规定》的出台,正是为了填补此前法规在公众账号信息服务领域的空白,明确平台与账号运营者的权责边界,为构建清朗有序的网络空间提供了坚实的法律依据和执行准则。
三、规定在何处生效?其管辖范围与信息获取途径
理解《互联网用户公众账号信息服务管理规定》的生效范围和信息获取渠道,对于平台和用户都至关重要。
1. 地域与平台适用性:
- 地域范围:《规定》适用于中华人民共和国境内的所有互联网用户公众账号信息服务。这意味着,无论公众账号的运营者是境内个人还是组织,只要其服务和内容面向境内的用户,或者其服务器、平台运营主体在境内,就必须遵守此《规定》。对于部分跨国平台,其在中国境内运营的服务和账号,也应符合中国法律法规。
-
平台类型:《规定》并未限定特定平台类型,而是涵盖了所有提供公众账号信息发布服务的网络平台。这包括但不限于:
- 社交媒体平台:如微信(公众号、视频号)、微博等。
- 短视频/直播平台:如抖音、快手、B站等。
- 长视频平台:如优酷、爱奇艺、腾讯视频等的用户自媒体频道。
- 知识问答/社区平台:如知乎、豆瓣等。
- 新闻资讯平台:如今日头条、网易新闻、腾讯新闻等的用户内容发布功能。
- 电商平台内容板块:如淘宝、京东等平台上的商家直播、内容导购等。
只要是面向公众提供信息发布功能的账号,无论其展现形式如何,均在《规定》的管辖之下。
2. 官方发布渠道与查询方法:
获取《规定》的完整、准确文本,应通过官方权威渠道:
-
国家互联网信息办公室官方网站:这是查询《规定》最新版本和相关政策解读的首要途径。通常在“法律法规”或“政策文件”等栏目下可以找到。
具体路径通常是:国家互联网信息办公室官网 (cac.gov.cn) -> 法律法规/政策文件。 - 中国政府法制信息网:该网站汇集了中央和地方政府发布的法律法规、规章制度,是查询各类行政法规的权威平台。
- 国务院公报:《规定》作为部门规章,其发布通常会在国务院公报中刊载。
- 专业法律法规数据库:一些大型法律服务平台或数据库也会收录并提供查询服务,但建议优先选择官方渠道进行核对,以确保文本的最新和准确性。
3. 违规举报机制:
为了鼓励社会监督,形成合力治理,各平台和政府部门均设立了便捷的举报渠道:
- 平台内部举报:几乎所有公众账号信息服务平台都会在账号主页、内容详情页或评论区等位置设置“举报”、“投诉”按钮。用户可以通过这些入口,针对具体内容或账号行为进行举报,平台会根据内部审核流程进行处理。
- 国家互联网信息办公室举报中心:“12377”是中国互联网违法和不良信息举报中心的热线电话和官方网站。用户可以通过该渠道举报任何违反《规定》的平台或公众账号,其举报范围更广,且直接面向政府监管部门。
- 各地网信办:省级、市级等地方互联网信息办公室也设有举报渠道,负责处理辖区内的网络违法违规行为。
- 其他相关部门:根据违法行为的具体性质,还可以向公安机关(如涉及刑事犯罪)、市场监管部门(如涉及虚假广告、消费欺诈)、文化执法部门(如涉及低俗色情)等进行举报。
四、规定对“多少”内容进行规制?细化违规类型与管理尺度
《互联网用户公众账号信息服务管理规定》对信息内容的规制是其核心要义,它明确划定了哪些信息是严禁发布的,以及平台和用户在内容管理上应达到何种尺度。
1. 明确禁止发布的九类信息(核心内容底线):
《规定》第六条明确指出,公众账号信息服务使用者不得制作、复制、发布含有以下内容的违法信息:
- 反对宪法所确定的基本原则的;
- 危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的;
- 损害国家荣誉和利益的;
- 煽动民族仇恨、民族歧视,破坏民族团结的;
- 破坏国家宗教政策,宣扬邪教和封建迷信的;
- 散布谣言,扰乱社会秩序,破坏社会稳定的;
- 散布淫秽、色情、赌博、暴力、恐怖或者教唆犯罪的;
- 侮辱或者诽谤他人,侵害他人合法权益的;
- 法律、行政法规禁止的其他内容。
这九类信息构成了网络信息发布的“红线”,任何公众账号和平台都必须严格遵守。这意味着在内容策划、制作、发布及审核全流程中,都必须以此为基准进行自查自纠。
2. 账号分类管理与精细化运营要求:
《规定》鼓励平台对公众账号进行分类管理,并根据账号的性质、功能和内容属性,实施差异化的管理措施。这体现了精细化治理的理念:
- 个人账号与机构账号:平台通常要求个人账号提供真实身份信息,机构账号则需提供统一社会信用代码等资质证明。这确保了账号主体责任的落实。
- 新闻信息服务账号:对于从事互联网新闻信息服务的公众账号,必须按照《互联网新闻信息服务管理规定》等法律法规,取得相应的资质和许可,否则不得发布、转载新闻信息。
- 商业营销账号:对于以商业营销为目的的账号,要求其明确标识广告内容,不得进行虚假宣传、诱导消费,并遵守反不正当竞争法、广告法等相关规定。
- 专业领域账号:对医疗、教育、金融等特定专业领域的账号,平台可能要求其提供相关资质证明,并对其发布内容的专业性、准确性进行更高标准的审核。
3. 内容审核的广度与深度:
《规定》对平台的内容审核提出了全方位、多层次的要求:
- 事前审核与事后巡查并重:平台不仅要在内容发布前进行审核(尤其是对于新闻、时政等敏感内容),更要建立常态化的巡查机制,对已发布内容进行动态监测,及时发现并处置违法违规信息。
- 人工审核与技术辅助:大型平台通常会建立庞大的专业审核团队,结合人工智能技术(如自然语言处理、图像识别、语音识别)进行内容筛查。AI可以高效过滤大量低级违规内容,人工审核则负责处理复杂、争议性强或需要深度理解上下文的内容。
- 全链条审核:审核范围不仅包括正文内容,还包括标题、图片、视频、音频、评论、弹幕、点赞、转发等互动环节,确保整个信息传播链条的合规性。
- 信息源头管理:平台有义务要求公众账号信息服务使用者加强对其发布信息内容的审核管理,从源头上防范违法有害信息。
- 特定机制:对于被多次举报、有违规记录的账号,平台可能会对其内容实施更严格的“先审后发”机制,甚至限制其部分功能。
《规定》通过对信息内容类型的明确界定和对内容管理尺度的细致要求,构筑了一道道网络空间的信息安全屏障,旨在引导所有参与者共同维护一个健康、负责任的信息生态。
五、如何操作?平台与用户合规实践指南
《互联网用户公众账号信息服务管理规定》对平台运营者和公众账号信息服务使用者都提出了具体的操作要求。了解这些“如何做”,是实现合规运营的关键。
(一)平台运营者如何落实管理责任
平台作为连接用户与信息的桥梁,承担着首要的审查和管理责任。
-
建立健全管理制度:
- 内部管理规范:制定并公示针对公众账号注册、运营、内容发布、投诉举报处理、违规处置等全流程的详细管理细则和平台公约。这些细则应明确告知用户其权利和义务。
- 责任分工:设立专门的团队或部门,明确各岗位在信息内容安全管理中的职责,包括内容审核、技术安全、用户服务、合规审查等。
- 技术标准:制定并不断完善内容识别、信息过滤、风险预警等技术标准,提升自动化管理能力。
-
实施用户真实身份信息核验:
- “后台实名,前台自愿”原则:要求公众账号注册者通过手机号码、身份证信息、统一社会信用代码等多种方式进行真实身份信息验证。个人账号需提供身份证件,机构账号需提供营业执照等法人资质。
- 信息核验的严格性:确保核验过程安全、准确,防止虚假信息注册。对用户身份信息进行加密存储和严格保密,非因法定事由,不得泄露。
- 账号类型区分:根据个人、机构、媒体等不同账号类型,核验不同的身份信息,并进行相应的标识。例如,新闻信息服务类账号必须核验并显示新闻资质。
-
强化内容审核与风险处置:
- 配置专业团队:配备足够数量与专业技能的审核人员,确保对发布内容的及时有效审查。审核团队应具备政治敏感性、法律素养和专业判断力。
- “先审后发”与“即时处置”:对于新闻、时政类信息,以及被判定为高风险的账号内容,实行“先审后发”机制。对于普通内容,在发布后进行实时巡查,发现违法违规信息应立即采取删除、屏蔽、断开链接等处置措施。
- 技术辅助审核:运用人工智能、大数据等技术,对图片、音视频、文字等内容进行自动识别和初筛,提高审核效率和准确性,尤其是在识别色情、暴力、赌博、涉恐等信息方面。
- 应急响应机制:建立针对突发事件、大规模谣言传播等的应急处置预案,确保在关键时刻能够迅速响应、有效控制。
-
健全投诉举报机制:
- 畅通举报渠道:在产品页面显著位置设置投诉举报入口,明确举报流程、受理范围和处理时限,方便用户发现并举报违法违规内容或行为。
- 及时受理和反馈:对用户举报信息进行及时受理、认真核查,并按规定时间向举报人反馈处理结果。
- 保护举报人信息:对举报人的身份信息严格保密,防止打击报复。
-
技术保障与应急响应:
- 数据留存:依法依规留存公众账号信息服务使用者发布的记录,以及平台自身的日志信息,以备监管部门核查。
- 安全防护:建立完善的网络信息安全防护体系,防止数据泄露、篡改、丢失等安全事件发生。
- 配合监管:积极配合网信等相关管理部门的监督检查,提供必要的数据和技术支持。
(二)公众账号信息服务使用者如何合规运营
作为信息的发布者,公众账号运营者是内容安全的第一责任人。
-
遵守法律法规与平台规则:
- 学习法规:主动学习并掌握《互联网用户公众账号信息服务管理规定》、《网络信息内容生态治理规定》等相关法律法规,以及所使用平台的各项管理规则。
- 签署协议:在注册和使用公众账号时,仔细阅读并遵守与平台签订的服务协议。
-
规范信息发布行为:
- 内容合法合规:严格遵守《规定》第六条明确的“九不准”原则,绝不制作、复制、发布、传播违法和不良信息。
- 真实性原则:发布信息前进行核实,确保信息来源可靠、内容真实准确。不得编造、传播虚假信息,特别是新闻信息。
- 原创保护与授权:尊重知识产权,发布内容如涉及他人作品,应获得合法授权或注明出处。不得剽窃、抄袭他人作品。
- 规范商业行为:开展商业营销活动时,应当遵守广告法等法律法规,明确标识广告内容,不得虚假宣传,不得通过删除评论、设置障碍等方式侵犯用户合法权益。
- 维护公共秩序:不得煽动对立、地域歧视、人肉搜索等,不得发布可能引起群体性事件、社会恐慌的信息。
- 管理评论互动:对评论区、弹幕等互动内容进行有效管理,及时清理违法有害信息,引导用户文明互动。
-
履行主体责任:
- 真实身份信息:提供真实准确的注册信息,并确保信息的持续有效性。
- 账号管理:妥善保管账号密码,防止账号被盗用或滥用。对账号发布的所有内容负责。
- 配合调查:在平台或管理部门进行调查时,积极配合,提供必要的信息和说明。
-
处理用户举报与投诉:
- 积极响应:对于用户通过平台或私信进行的投诉、举报,应积极响应并核实处理,若发现确有不当之处,应及时删除或修正。
- 沟通解释:在处理投诉过程中,可以与投诉方进行沟通解释,化解矛盾。
平台运营者和公众账号信息服务使用者如同网络空间的双轮,只有各自规范运行,才能共同推动互联网信息服务的健康发展。
六、违反规定会怎么样?后果与责任追究
《互联网用户公众账号信息服务管理规定》详细列明了对违反者采取的处罚措施,这些措施不仅旨在纠正违法行为,更在于警示和预防,确保法律法规的有效执行。违规行为的严重程度不同,所受到的处罚也不同。
(一)对平台运营者的处罚
平台运营者若未能有效履行其管理责任,将面临来自网信部门及其他相关监管部门的严厉处罚。具体措施包括:
- 约谈与警告:对于轻微违规或首次违规,监管部门可能会对平台负责人进行约谈,指出问题并要求限期整改,同时给予警告。
- 责令限期改正:要求平台在规定时间内纠正其管理漏洞、健全管理制度、完善技术措施,并提交整改报告。
- 通报批评:对未能及时有效履行管理责任的平台,监管部门会进行公开通报批评,损害其行业声誉和社会形象。
- 罚款:根据《网络安全法》等相关法律法规,对于情节严重、拒不改正或造成恶劣影响的违规行为,可处以相应的行政罚款。罚款金额根据违法行为的性质、情节、危害程度和违法所得等因素确定,可能涉及数十万元乃至数百万元人民币。
- 暂停相关业务或停业整顿:对于管理失职严重、导致大量违法信息传播、造成重大社会影响的平台,监管部门有权责令其暂停部分或全部相关业务,进行停业整顿,直至符合监管要求。
- 关闭网站、吊销相关业务许可证或者取消备案:这是最为严厉的处罚措施之一,适用于屡教不改、情节特别严重、造成重大危害或触犯刑法的平台。一旦被吊销许可证或取消备案,意味着该平台将无法继续提供公众账号信息服务。
- 对直接负责的主管人员和其他直接责任人员的处罚:除了对平台主体进行处罚外,对平台内部直接导致违规行为发生的主管人员和其他直接责任人员,监管部门也可依法进行罚款,甚至建议相关部门进行行政处分。
(二)对公众账号信息服务使用者的处罚
公众账号的运营者若违反《规定》发布违法信息或从事违法活动,同样会受到严厉的处置,处罚通常由平台执行,并可能由监管部门介入。
- 删除、屏蔽违法信息:一旦发现公众账号发布违法违规信息,平台会立即删除相关内容,或对其进行屏蔽处理,使其无法被其他用户查阅。
- 警示、暂停更新:对于轻微违规或首次违规的账号,平台可能会进行警告提示,并要求其暂停更新一段时间,以示惩戒和自我反省。
- 限制功能、关闭账号:对于发布严重违法信息、多次违规或造成不良社会影响的账号,平台会视情节轻重,采取限制评论、点赞、私信等部分功能,直至永久关闭账号的措施。账号一旦被关闭,其所有内容和用户积累将付诸东流。
- 纳入黑名单:被关闭的违规账号及其注册主体(个人或机构)可能会被平台纳入黑名单,限制其再次注册或使用平台服务。
-
依法追究法律责任:
- 行政处罚:如果发布的违法信息构成违反《治安管理处罚法》的行为(如散布谣言、侮辱诽谤、传播淫秽物品),将由公安机关依法予以行政拘留、罚款等行政处罚。
- 民事责任:如果发布的内容侵犯了其他公民、法人或其他组织的合法权益(如名誉权、肖像权、著作权),受害者有权依法提起诉讼,要求侵权方承担赔礼道歉、消除影响、赔偿损失等民事责任。
- 刑事责任:如果发布内容涉嫌构成犯罪(如诈骗罪、非法经营罪、诽谤罪、传播淫秽物品牟利罪、危害国家安全罪等),将由司法机关依法追究刑事责任。例如,利用公众账号进行网络诈骗,数额巨大者可能面临有期徒刑甚至更重的刑罚。
《规定》及其配套法律法规,构筑了一套从平台到个人、从行政到刑事的多层次责任追究体系,旨在确保网络空间的清朗与秩序。任何试图通过公众账号进行违法违规活动的行为,都将面临严重的后果。
七、如何应对新挑战?创新技术与未来展望
互联网技术日新月异,公众账号信息服务也在不断演变,这给《互联网用户公众账号信息服务管理规定》的实施带来了新的挑战。应对这些挑战,需要监管部门、平台运营者和公众账号信息服务使用者共同努力,持续创新管理思路和技术手段。
(一)人工智能在内容治理中的应用
人工智能(AI)技术是应对海量内容挑战的关键工具。
-
智能识别与过滤:
- 多模态内容识别:利用图像识别、语音识别、自然语言处理等AI技术,实现对文字、图片、音频、视频等多种形式内容的智能识别,快速发现涉黄、涉暴、涉恐、谣言、虚假广告等违法有害信息。例如,通过深度学习模型识别视频中的特定手势、武器,或音频中涉及敏感词汇的语音片段。
- 语义理解与风险预警:AI能够更深层次地理解内容的潜在含义和情感倾向,对可能引发争议、煽动对立或具有潜在风险的内容进行预警,辅助人工审核人员进行精准判断。
- “深度伪造”技术(Deepfake)的识别:随着AI换脸、AI合成音视频等“深度伪造”技术的发展,利用AI进行鉴别和溯源成为重要课题。监管部门和平台应投入资源研发或引入先进的AI技术,用于识别和打击利用“深度伪造”技术进行造谣、诈骗或诽谤的行为。
-
提升审核效率与准确性:
- 智能辅助审核:AI可以作为人工审核的强大辅助,自动筛选出高风险内容,将更复杂的、需要上下文判断的内容推送给人工审核,从而大幅提升审核效率和准确性。
- 重复内容检测:智能比对技术能有效识别和阻断同一违法内容在不同账号间的批量传播或多次发布,减少漏审风险。
(二)区块链技术的可探索性
区块链技术以其去中心化、不可篡改、可追溯的特性,在内容溯源和版权保护方面展现出巨大潜力。
- 内容版权存证与确权:利用区块链对原创内容进行时间戳存证,为创作者提供有效的版权保护,降低侵权成本和维权难度。一旦发生侵权,可以更便捷地证明作品的原创性和发布时间。
- 责任主体溯源:在某些场景下,区块链技术有助于记录信息发布的全流程和参与者信息,实现内容责任主体的可追溯,这对于打击匿名发布违法信息具有积极意义。
- 信用体系建设:结合区块链的分布式账本特性,可以构建公众账号的信用评价体系,将违规记录永久、透明地记录在链上,对失信账号进行有效惩戒。
(三)用户行为规范的引导
技术手段固然重要,但引导用户形成自律、负责任的行为习惯同样不可或缺。
- 普法教育与警示:通过平台公告、弹窗提示、互动科普等多种形式,持续向公众账号运营者和广大用户普及相关法律法规知识,告知违法违规行为的严重后果。
- 信用激励机制:对于长期合规运营、积极生产优质内容的账号,平台可以给予流量扶持、功能开放等激励措施,形成正向引导。
- 社会监督与共治:鼓励公众积极举报违法违规信息,发挥社会各界在网络治理中的作用,形成平台、用户、监管部门多方协同的共治格局。
(四)持续迭代与动态调整
鉴于互联网的快速发展,任何管理规定都不是一成不变的。《规定》本身在2021年就进行了修订,体现了监管的动态性。
- 定期评估与修订:监管部门应定期对《规定》的实施效果进行评估,根据新的技术发展、业务模式和出现的问题,适时启动修订程序,确保法规的适应性和前瞻性。
- 细化配套细则:针对《规定》中的原则性条款,根据行业特点和实践需要,及时出台更为具体、可操作的配套实施细则,指导平台和用户更好地执行。
- 国际交流与合作:学习借鉴国际上先进的网络治理经验,加强国际合作,共同应对跨国网络犯罪和信息安全挑战。
未来的互联网用户公众账号信息服务管理,将是技术与人文的深度结合。在《规定》的指引下,通过持续的技术创新、精细化的管理措施和全社会的共同参与,我们才能构建一个真正健康、负责、繁荣的网络信息生态。