编者按:2012年末至2022年末的10年,是我国法治建设取得巨大成就、数字技术迅猛发展的10年。南京大学新闻传播学院硕士研究生姜晨,上海交通大学媒体与传播学院长聘教授、博士生导师陈堂发在《传媒观察》2023年第4期刊文,认为社会进步带来私权利意识的觉醒,技术扩张带来伦理问题的扩散,媒介法规与伦理研究也揭开了新的篇章。这10年中,《民法典》颁布,《著作权法》修订,隐私权、著作权成为私权利探讨中的重要议题,算法技术的伦理问题频现,算法推荐、算法权力、人工智能成为热点话题,与媒介技术有关的伦理规范探讨也逐渐转向立法规范探讨。总体上看,媒介法规研究与媒介伦理研究呈现出逐渐交叉的态势,呈现出具体研究内容不断细化与研究外延不断扩展的特点。
大数据、人工智能、区块链等互联网传播技术近10年逐渐嵌入社会生活,更新传播模式,这不仅带来一系列传播理论与业务范畴的新问题,也产生了诸如传播行为恰当性、传播价值选择、传播权利与义务、权益与责任等方面的新探讨。这些新的矛盾构成了10年来媒介法规与伦理研究的热点议题与焦点话题,并或显或隐地呈现一个本质问题——技术在多大程度上遮蔽了理性价值和权利?媒介法规与伦理研究领域学者大多怀有这样的问题意识。
(资料图)
媒介法规与伦理研究的旨趣
(一)媒介法规研究以“私权利”为探讨核心
媒介法规研究包括新闻传播法的立法研究、新闻信息传播和新闻从业人员的管理制度研究、传媒与人格权利研究、传媒与著作权研究等。数字信息时代,媒介法规研究更加关注重大现实问题,与新闻传播有关的私权利研究已成为媒介法规研究中的核心议题。以“主题=新闻”或者“主题=传播”或者“主题=媒介”并且包含“主题=著作权”为检索词,在中国知网期刊数据库进行检索(文献发表年度为2012年至2022年,下同),再以“隐私权”“名誉权”“姓名权”“肖像权”为关键词分别进行检索,结果显示,与新闻传播有关的私权利研究在此10年间始终属于热点话题,成果数量众多。其中,著作权、隐私权为主要研究主题,名誉权、肖像权、姓名权为次要研究主题。
10年间,围绕具体侵权案件、法律修订及法条适用、新传播技术带来的问题等议题,与著作权保护措施、理论构造等相关的讨论最受学者关注。2012年,国家版权局草拟了《著作权法》(修改草案),公开征求社会各界意见,引发学界、业界持续性的大范围讨论。2020年,《著作权法》第三次修订,又引发新一轮大讨论。隐私权研究一直属于媒介法规领域的重要议题,一方面是因为在人格权具体化的新兴个别人格权中,以隐私权最为重要。特别是2020年,《民法典》“人格权”相关法条便对民事主体的人格权益及其保护和限制作了系统规定,明确了隐私权的概念,确立了以往法律尚未规定而只是以司法解释加以明确或仅仅在司法案例中体现的许多规范。另一方面是因为新技术、新业态引发的隐私安全问题越发突出。
(二)媒介伦理研究以“技术伦理”为探讨核心
传媒伦理研究包括与相关概念有关的理论研究、以案例分析为主的媒介报道伦理研究以及媒介技术伦理研究。以“主题=新闻”或者“主题=传播”或者“主题=媒介”并且包含“主题=伦理”和“主题=技术”为检索词,对中国知网期刊数据库进行检索,再将“技术”替换为“报道”“理论”等关键词分别进行检索。结果显示,媒介技术伦理研究的文献数量在这10年中始终处于上升趋势,并在2018年后成为媒介伦理研究中的主要研究主题。媒介报道伦理研究在2016年前属于主要研究主题,2016年后则处于下降趋势,媒介伦理的理论研究属于次要研究主题,研究趋势较为平缓且数量较少。
媒介技术伦理研究的井喷式增长与互联网技术深入绑定传播领域有关,技术常常被看作是达到目的的手段和人的活动,兼具工具性和人类学的特质,新技术已经革新了信息传播领域的伦理和价值观念,使得媒介技术伦理成为当下学界讨论的热门话题。
媒介法规研究尤为关注著作权、隐私权
(一)智媒环境下的著作权议题
著作权作为保护独创性表达的制度,涉及的保护对象广泛,常被置于交叉学科的讨论范畴。在“网络连接一切”和“创新驱动发展”的今天,著作权法已率先从知识产权法中“脱颖而出”,从一直规制少数主体的“小法”变成了全民参与其中的“显学”。洗稿、AI创作等与著作权相关的热点话题常成为全民讨论的焦点。在大数据技术的影响之下,数字著作权成为媒介法规研究的新方向,新传播技术带来的著作权客体问题、与媒体有关的著作权法修订及法条适用规则颇受学者关注。
1.智媒环境下的著作权客体讨论
著作权客体问题,被认为是著作权纠纷中最值得关注和探讨的问题,也是近10年来著作权研究中的关键议题。著作权客体指的是由作者创作并对其享有狭义著作权的作品,其核心问题实际上就是《著作权法》所指的作品究竟该如何界定。
从印刷术、电子技术到网络技术,每一次巨大的科技进步都会催生出新的著作权客体和专有权利,人工智能生成物以及由前沿技术带来的新表达形式能否成为著作权法上规定的作品引发了广泛的讨论,形成了“肯定说”和“否定说”。
“肯定说”的代表学者认为,从以作品为中心的客观判断标准来看,人工智能创作过程中的“思维”超出了著作权法的调整范围,应该从已经生成的表达本身进行作品独创性判断;人工智能生成物在客观上符合“最低限度的创造性”要求,在一定程度上证明了其具备独创性;人工智能生成物是模仿人类智力活动所形成的知识产品,可以体现人类的思想、态度等个性化因素,具有一定程度的创作“智力”性;在没有明确标明来源的前提下,人类创作的作品与人工智能出版物的区分难以辨别。因此,人工智能生成物可以作为著作权法中的作品进行保护。
“否定说”的代表学者认为,著作权是人格主义范畴内的权利,独创性则要求作者独立创作了作品并把思想融入其中,强调自然人思想创作的重要性,认为自然人作者对原创性作品的创作决定了作品的多样性、价值性与稀缺性,是著作权制度的前提和基础。部分学者认为,承认人工智能自主生成的表达形式是著作权法上的作品颠覆了法律基础且违反了法律伦理,从法理学理论基础出发,学术观点绝对不能违背著作权制度自身的内核DNA,即著作权制度的原始基点是为了保护人类创作的作品。
也有学者持保留意见,认为人工智能发展的未来时代,“算法创作”将更多在自我意识、自我思维的状态下完成,应该寻找人工智能创作中的人格要素对“机器作品”的“可版权性”作出合理解释。可以预知的是,在强大的自然语言生成式模型ChatGPT的类人化特性受到广泛热议的今天,人工智能的“人格化”成为可能,类似的前沿技术著作权客体讨论将成为未来持续性的热点话题。
2.与媒体有关的著作权保护讨论
随着新媒体技术的发展,新闻合作化采集趋势不断加强,新闻类作品的著作权主体样态呈多元化趋势。新闻聚合媒体、微信、微博、网络直播、短视频等新传播方式对传统纸媒造成冲击的同时,也带来了诸如新闻聚合平台著作权纠纷、短视频著作权纠纷、洗稿等问题,基于此,学者研究也集中于新闻传播条款的《著作权法》修订以及规制新传播方式带来的著作权侵权问题。
新传播方式带来了一系列的著作权纠纷。首先,新闻聚合平台将来源公开的新闻信息以技术手段抓取并重新组合再集中向受众投放的做法,被新闻媒体指责“侵犯新闻版权”,“今日头条”这一新闻聚合平台就曾引发一系列著作权纠纷。面对新闻聚合平台的规制问题,部分学者认为新闻媒体更倾向于将聚合平台视为商业伙伴而不是侵权者,可以引用著作权集体管理制度解决新闻媒体与聚合平台之间的授权难题,以集中许可的方式保障新闻媒体在数字网络空间获取新闻报道收益。也有学者另辟蹊径,为了避免新闻媒体是否为“适格诉讼主体”的争论,以反不正当竞争法来规制该类纠纷。
其次,短视频著作权纠纷是新媒体领域的一大难题,其复杂性在于短视频有合理使用的可能性,但储存平台难以判断其合法性,这导致适用于长视频的“通知-删除”规则、“红旗标准”无法适用于短视频。部分学者提出,重新定义“通知-删除”规则,提高平台的注意义务,以改变平台“高收利,低作为”的不合理现状是解决此类问题的最佳途径。也有学者认为,构建集中许可机制,实现创作激励与传播激励的平衡,才能够为全民创作时代短视频版权治理困境的解决提供最优方案。
自媒体“洗稿”行为也常常引发争议。有观点认为,“洗稿”行为可以被认定为高级剽窃,应该在明确《著作权法》中“剽窃”内涵的前提下,通过著作权法进行规制。也有观点认为主流新闻媒体所指责的“洗稿”行为并不必然地侵害著作权,在“思想与表达二分”原则指导下,著作权保护并不能延伸到思想,“洗稿”争议更本质地体现为自媒体与主流新闻媒体的利益纠纷,为了平衡各方利益,“洗稿”行为可以以行业道德规范为主的伦理规制和以版权法为基本救济手段辅以反不当竞争法的法律规制进行治理。
(二)大数据、人工智能传播环境中的隐私议题
以大数据、人工智能为代表的新一代信息技术在传播领域的普遍应用,导致社会性的隐私忧虑意识日渐强化,主要原因在于个体隐私防守能力脆弱以及隐私保护传统策略失效。与之相对应,数字化生存的隐私新形态、隐私风险与隐私认知成为理论研究的热点议题。
1.大数据与智能技术环境下的隐私新形态
新的传播环境下社会整体面临隐私不保的忧虑,重要原因之一即隐私存在形态产生变化。传统媒体环境下的自然型隐私或非数据隐私不再是隐私侵害的唯一形态,数据隐私即以个人数据形式记录或以数字方式描绘的自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息等成为隐私的常态形式。
有学者提出了“合成型隐私”概念,指网络技术运用及大数据环境产生了无处不在的隐私侵犯新形式,即足够的一般个人信息经由互联网平台大数据技术的综合处理而形成的严格意义上的隐私。这类新形态的隐私之所以面临更大的侵害风险,是因为其中有些个人信息或行为事项虽具有私的属性,但其单项信息本身不能独自构成典型意义上的隐私事项,只有这些私信息或事项作为综合体才具有隐私特质。
亦有学者就泛数据环境下隐私伤害的“无感”特征提出了“整合型隐私”观点,整合型隐私是指通过数据挖掘技术将人们在网络上留存的数字化痕迹进行有规律整合而成的隐私。与生物特征隐私的主体对隐私清晰可知不同,整合型隐私对于隐私主体甚至有着“无感侵犯”的特点,隐私主体很难知道可以成为隐私的数字化信息被谁整合、如何整合、何时整合,以及怎样使用,这种侵犯隐私行为的“隐形性”使得法律监管在面对合成型隐私时具有责任主体身份确认及举证、责任主体的过错认定依据及标准的困难。
2.作为隐私权延伸的被遗忘权
被遗忘权作为隐私权的延伸形态,是互联网存储及多平台信息自动关联技术运用的产物。自2014年欧盟法院判决支持西班牙冈萨雷斯案并以司法途径确立“被遗忘权”,以及2018年欧洲《一般数据保护条例》(简称“GDPR”)正式确认“被遗忘权”,国内学者对于被遗忘权话题的关注在较短时间呈现比较高的热度。主要涉及如下方面内容:中国语境下的被遗忘权应该归属个人信息权,在确立个人信息权的基础上明确被遗忘权的保护路径。有学者则提出隐私权在逻辑上已经包含了被遗忘权,其本身蕴含了对个人信息的自决以期不受干扰的内涵。更多学者主张被遗忘权应该属于隐私权的范畴。
“被遗忘权”的提出是为了应对大数据环境下数据主体难以确立“被遗忘权”的局面,作为隐私权的扩展保护,被遗忘权赋予了信息主体以自决控制信息的权利,并且可以更深刻和自觉地修复大数据时代的记忆伦理。在被遗忘权本土化的理论探讨方面,确立本土语境下的被遗忘权需要考量三个要素,即运用权利的正当性、权利位阶和利益权衡,以确定权利出现冲突时的优先保护,具体表现为在权利目标上符合正当合理,在权利位阶上尊重自由本体,在利益权衡上坚持均衡保护。
3.数字化生存下的隐私认知
学者们关于隐私认知议题的讨论涉及几个方面:一是微观研究思维,即基于特定属性群体的个体隐私意识测量。测量结果显示的普遍性问题在于:相对高位的隐私察觉意识与个体在生活中隐私防守的实际能力之间存在一定的落差。
二是宏观研究思维,即抽象层面的隐私悖论意识的关注。隐私悖论即用户表达的隐私担忧与披露个人信息行为之间的矛盾。为了判断隐私悖论是否存在,有学者使用了荟萃分析方法进行分析,发现隐私悖论存在边界条件,社交媒体平台与隐私悖论的关联性最高,非社交媒体平台不存在隐私悖论。
有关隐私话题的研究虽然成果非常丰富,质化研究、量化研究都得到学者的重视,但该类研究成果存在两个方面的特征:
一是部分研究成果采取泛隐私观念,或者对隐私作泛化理解。这种研究思维未能照顾到“隐私”概念的学科归属,缺少对隐私概念之所以成立的理论基础的深究,研究成果对推进数据化生存环境下隐私本质及隐私权益理性处置的深化认识作用有限。
二是部分研究成果既不属于社科法学研究思维,亦不能归为教义法学研究思维,学科研究范式意识不够清晰。目前的多数研究成果仅是抽象地将隐私作为“风险”、“隐私不保”或“伤害”问题对待,但对缓解问题的对策思考或理论解构的关注不足,对新的语境下隐私理论的重新阐释还有待强化。
媒介伦理研究更为关注算法技术
(一)智媒时代下算法技术的伦理问题探究
智媒时代来临,算法技术深度嵌入传播领域,追求利益最大化的算法运行逻辑使其在运用过程中存在漠视人的存在与价值这一底层问题。算法技术已经具备了工具理性特征,却难以维持工具理性和价值理性的平衡,引发了诸多伦理问题讨论。总体上看,在围绕算法展开的伦理讨论中,算法推荐技术、算法权力、人工智能是学界集中探讨的方向。
1.算法推荐技术的伦理反思
算法推荐系统是解决当下“信息过载”问题的一种有效工具,在海量信息资源的快速处理和精准分发方面有着天然的优势,然而算法推荐在带来技术红利的同时也带来了一系列伦理问题,如算法偏见、回音室、过滤气泡、信息茧房、群体极化等信息窄化效果。
算法的客观性主要体现在程序运行或数据计算过程中的无偏差,但实际上算法技术在智能新闻信息分发的实践过程中却被揭露出隐藏着算法偏见,这一现象受到了学界的广泛关注。有学者认为,算法偏见是“算法程序在信息生产与分发过程中失去客观中立的立场,造成片面或者与客观实际不符的信息、观念的生产与传播,影响公众对信息的客观全面认知”;也有学者认为,“算法偏见是社会偏见在人工智能时代的延伸”,个性化推荐为受众创造了狭隘的认知空间,加之算法技术的不透明使得用户甚至很难发现内容中的歧视和不公,这容易导致现有的社会不平等和偏见以不可预知的方式被强化。
除此之外,算法推荐的效果研究证明,算法推荐具有在应用环境下所产生的如回音室、过滤气泡、信息茧房、群体极化等信息窄化效果。有关回音室的诸多研究中,代表强个性化筛选现象的“过滤气泡”都如影随形,信息定制化推送意味着“自主权”的让渡,个人用户接受定制化信息服务意味着在一定程度上接受了算法代替个人决策“看什么不看什么”“多看什么少看什么”,从而构建了一个由算法意志和部分个人意志共同决定的“拟态环境”。在个性化算法推荐系统的应用中,新闻内容与用户画像匹配的精准度越高,用户越容易被圈进一个自己建构的信息闭环,并在推荐系统的持续推荐下,经过不断循环往复形成一个顽固的信息闭环,用户陷入“信息茧房”的同时,知情权也难以得到保障。用户对信息的“自我选择权”与“知情权”在很大程度上被让渡给算法,导致受众“被动”接收更多与其自身所持立场相似的观点,驱动形成了基于算法推荐技术的“被动”群体极化现象,社会隔阂不断加深。
2.算法权力的异化风险
算法的技术权力和数据权力延伸出社会控制能力,这使算法权力已然成为媒介伦理研究中的高频词。算法对新闻业的介入引发批判研究对“权力迁移”的关注,这种权力的转移主要包括新闻分发权从媒体平台向算法平台的转移和新闻把关权从人力到技术的“后移”,除了用户自主权、知情权等“权利”的让渡外,原本由人所掌握的“权力”也因算法所具有的高效、智能等优势,转移到了机器的手中。
面对学界对算法权力的批判,有学者提出,算法权力的自为状态并无善恶之分,只有算法或算力被偏移或背离人文价值目标的主体操纵时,才会产生被学者所批判的“算法权力”,因此,想要弱化算法权力,还需从算法透明机制的设计与实现出发,结合算法内生性的生产逻辑和外生性的监管逻辑,在算法透明性和商业利益之间寻找一个恰当的平衡点,做到算法披露的要素透明、程序透明、背景透明,结合法律规制和社会监督,从而制衡并规范算法权力。
3.人机交互条件下的人工智能伦理隐忧
新闻传播领域对于人工智能技术的伦理问题探究是围绕着“人机交互”展开的。以智能算法为内核的人工智能技术正在重塑人、技术与社会之间的互动关系。
单向输出的人工智能虽然已具有拟人化特点,但无法根据人类的行为动态调整交互行为,自然语言处理技术和自然语言生成技术的兴起改变了这一现状,机器不再仅仅扮演单向输出的媒介角色,双向交互的社交机器人开始应用,对应的伦理问题探究也随之展开。例如基于ChatGPT的强大算力,它给人机关系中的伦理问题带来的挑战是严峻且未知的。
此类话题研究尚处在起步阶段,目前的研究更多侧重于从既有的道德法则、伦理原则或技术哲学信条中寻求理论解释力。该研究可以拓展的方向有两个方面:一是细分或辨析人工智能运用的伦理问题、道德问题。二是技术是否中立性的深层次诠释。技术透明性已经成为有一定约束力的规范,但对于技术透明后的代码编写内隐逻辑的真正领会,是定性技术是否具有价值诱导性的关键,需要跨学科的研究,否则,研究成果的说服力是相当有限的。
(二)算法治理:由伦理规制向法律规范演进
已有文献从算法技术本身、算法伦理制度、相关立法的角度探讨了算法技术的规制方法。人工智能算法作为技术手段,负载着设计者的知识背景、社会文化与价值判断,因而内在地关涉伦理问题,而且,算法因其技术的复杂性与后果的不确定性而天然地具备不透明性与失败的可能。面对人工智能算法侵权、歧视等伦理问题,部分学者认为,算法风险产生于算法应用没有受到伦理约束,可以从算法本身出发,将伦理规制写入技术程序,在算法伦理原则的指导下优化算法设计,规避伦理问题。
学界也有观点认为算法应用过程中所引发的治理挑战当前还处于发展阶段,在具体政策体系尚不完善的情况下,通过算法伦理制度的引导有助于在不限制技术发展可能性的同时缓和并控制相关风险。
也有学者认为,仅仅从伦理原则层面规制算法难以切实保障公民权利,建立有效的法律规范体系才是规避算法风险的有效手段。例如面对算法不透明的问题,有学者建议从法律制度出发,建立具体的算法透明制度。还有学者建议通过强化法律问责消解算法技术的制度不确定性向度,加强算法问责的可操作性,制定责任清单、厘清责任边界,推动主体责任的充分落实等,健全算法问责体系。
(载《传媒观察》2023年第4期。原文约12000字,题目为《技术与理性的博弈:中国媒介法规与伦理 10 年研究》。此为节选,图表、注释从略,学术引用请参考原文。)
【作者简介】姜晨,南京大学新闻传播学院硕士研究生
陈堂发,上海交通大学媒体与传播学院长聘教授,博士生导师
关键词: