程明(程明:中国智能传播研究年度报告·2023)

2024-05-13 04:51 来源:爱美欣 浏览量:

作者:程明(武汉大学媒体发展研究中心研究员,武汉大学新闻与传播学院教授、博士生导师);孙嘉蔚(武汉大学新闻与传播学院博士研究生)

来源:《青年记者》2023年第24期

导 读:

本报告围绕CNKI数据库中高级检索到的2023年刊发的107篇智能传播研究相关文献进行梳理和总结,在对文献的全面把握的基础上,概括出2023年中国智能传播研究的大方向。

引 言

随着智能技术的革新和发展,人们的交流行为被重新定义。智能传播是数字时代的核心概念之一,通过大数据分析、自然语言处理、机器学习和自动化技术,更精准的信息传递、个性化内容推荐以及更高效的决策支持正在逐步实现。目前,智能传播已经在学界、业界和整个社会引发了广泛的关注。

周葆华等指出,智能传播是指人工智能技术所主导并参与的各种传播行为。这些行为既可以在生产阶段出现,例如人工智能生产新闻,也可以在分配和应用阶段出现,如算法推荐和分发。[1]彭兰则指出,智能传播最为本质的特征即机器为传播主体。[2]这一领域的研究和实践正在不断推动新的创新,如为广告、社交媒体、新闻、教育、医疗、金融等领域提供更多可能性。但在智能传播深入渗透和发展的同时,也面临着相应的技术风险与伦理困境。本文回顾学术文献以及政策趋势,呈现2023年中国智能传播领域的前沿发展,提炼核心研究问题,并对未来的研究方向进行展望。

研究方法

本报告所检索的文献均来源中国知网(CNKI)数据库,以“智能传播”为主题进行高级检索,时间跨度为2023年1月至12月,在限定的CSSCI与全国中文核心期刊中,以“智能传播”为主题检索到的文章共107篇。

本文以此研究样本进行文献的计量化分析、归纳和总结,将全部文章的关键信息:题目、作者、期刊名称等数据导入VOSviewer软件。对研究样本进行关键词检索并生成关联图谱。结果显示,2023年,智能传播研究关键词出现频次从高到低依次为:智能传播(53)、ChatGPT(25)、人工智能(21)、生成式人工智能(10)、人机传播(7)、算法(7)(括号内为频次)。结合知识图谱,本报告对重点研究主题中具有代表性和高影响力的文献进行全面的分析、提炼和把握,从研究框架、核心论点、学术价值和意义方面回顾2023年中国智能传播研究,并进行前瞻性思考。

2023年中国智能传播热点议题

(一)以ChatGPT为代表的AIGC研究勃兴

ChatGPT是一个基于自然语言处理(NLP)、大语言模型(LLM)等技术驱动的智能聊天机器人。自2022年11月OpenAI推出后,ChatGPT便引发了全球热议。比尔·盖茨等人都认为这是一场科技革命,美国前国务卿亨利·基辛格与谷歌前任总裁埃里克·施密特以及麻省理工学院丹尼尔·哈藤洛彻共同撰写了一篇文章,认为ChatGPT是“自印刷出现后前所未有的震荡……将重塑人类的认知,加快我们的现实世界,重塑我们的政治与社会”[3]。这一对科技、工业和传播等领域具有深远影响的技术革新,也成为学界研究的热门话题。目前,国内学界在ChatGPT的某些基础的问题上尚未形成完整明确的共识,但这并不能阻止学者们讨论的热情。由ChatGPT引起的学术讨论,包含了学界对于现在和未来的思考。

ChatGPT的应用场域很广,它可以在自然语言处理、机器翻译、语音识别、搜索等方面发挥重要作用,如影像识别等,也可以应用于新闻、教育、医疗、客户服务等各行各业。此外,ChatGPT的兴起与运用强化了数据资源、信息获取以及人工智能等领域的优势,在推动新技术产业发展和传统产业转变的过程中,将产生大量的新产业、新职业和新形态。[4]目前来看,ChatGPT有两个相对重要的技术突破。一是“开放领域”多轮对话,打破了“对话”仅限于一个问题和一个回答的阶段,这种改变可以更好地适应复杂的会话模式,也可以为未来的人机交互提供新的可能性。二是文图生成技术,ChatGPT使用类似于“接龙游戏”的文图生产路径[5]。这两项技术上的突破,推动了人类与计算机的交互进入一个新的时代,使人机交往由单纯的信息处理演变成更加接近人与人的沟通交流。而且,ChatGPT这样的应用形式,只是整个大语言模型中的一小部分,人们需要更加关注大语言模型这个技术基石。

具体来看,ChatGPT渗透内容的生成与分发格局,拓展了智能传播的研究面向。

1.机器深度参与内容生产

AIGC可以帮助创作者优化标题、关键词和内容的结构,甚至生成新内容,以增加其在线可见性和吸引力。无论是将其嵌入搜索引擎输出相关内容,还是提问和列出提纲要求它完成完整的内容生产,ChatGPT都将人工智能写作的能力提升到了一个新的高度。[6]在信息超载时代,人们对信息的整合加工处理有更高的需求, AIGC的影响下,内容从业者正经历角色的重新定位、技能素养的更新迭代与专业价值观等的转型。这些行业中的劳动力密集型工作从业人员将进一步缩减,许多专业性不强、重复性强的模式化作品将由AI自动生成,智力劳动和情感劳动的比例也将不断增加。此外,新的内容生产力将引发生产关系的变化,过去的内容生产者掌握内容生产核心的体制将面临重构,信源、内容生产者和用户或将构成新的结构系统。

也有学者认为,机器在创作过程中并没有以完全取代人类为目的,其高效生产力和深层次挖掘的能力,可以将人类从一些基本重复的工作中解放出来,将更多的精力投入需要思考和创作的工作中去。在此背景下,人和机器独立或协作生产的作品,将以不同的风格满足用户的不同需求。对于媒体来说,基于人的视角、人的观察、人的情感由人主导完成的作品,仍将是主流。[7]未来,人与机器的合作将更加深入,在理想的状态下,ChatGPT将成为解放人类部分工作的一环,与人类的日常与工作内容形成互补的关系。

2.内容分发:从单一平台分发到多平台整合生成后分发

20世纪90年代,互联网革命爆发,其在技术和应用方式上的革新,推动了人类社会信息传播方式与机制的演化。短短几年内,以抖音、快手为代表的短视频平台已经成为改变全球信息传播格局的中坚力量。短视频平台以算法和大数据为基础,运用机器实现了对用户个性化的内容分发和推荐。每一种全新交流形态的诞生,都有新的信息生产模式以及新的传播手段来驱动,以ChatGPT为代表的技术将改变现有的内容分发模式。以往大平台的内容分发如抖音、小红书、快手等智能分发和推送本平台现有的内容,但基于AI技术,可以分发、推送和整合不同平台的信息和内容,并进行知识的“聚合性”整合,AI技术为人们提供了更加完整且有针对性的回答,因为其可以从众多原始数据中学习并提炼,对数据进行推理和处理,发现其背后更加隐蔽和复杂的信息,甚至可以生成一些观点,帮助人们思考或进行决策。

推荐算法运用于移动互联网信息分发领域,不仅带给应用推荐算法的互联网平台强大用户聚集能力,而且带给它们巨大舆论影响力、社会动员能力。[8]摩根士丹利预测,谷歌或将会失去其在信息搜索领域的大部分份额,以ChatGPT为代表的智能技术将推翻谷歌在互联网上的统治地位,因为其搜索界面更加简单,也可以提供更准确的数据,使用者无需去另一个站点浏览无关的内容就可以直接获得想要的答案。[9] ChatGPT也让智能内容突破了专业领域的壁垒,走入普通人的生活,随着它深度渗透社会生活,可能促进知识的“民主化”进程[10]。例如,与搜索引擎相比,老年人可以通过ChatGPT获得资讯,降低其信息获取成本。也有许多人表示ChatGPT对编程有很大的帮助,因为其变相缩小了技术学习层面的鸿沟。

3.ChatGPT所带来的技术风险

ChatGPT的勃兴也引发了学界诸多关于其技术风险的思考。每当技术变革,一种可能成为超级媒介的技术出现时,人类必须重新审视其潜在影响。首先,ChatGPT的数据和算法是人为输入的,这些数据的背后都是可被“操控的”。数据本身是人为建构的而不是既定的,数据并非自然地重现真相本身,而是由这些有限的信息碎片重新组合而成。而且机器作为一种“社会参与者”,其主观能动性依然依赖于个体或者机构,所以人与机器之间的权力关系实际上依然是其使用者和互联网企业之间的关系,而非人和程序、代码之间的关系。[11]在用户使用ChatGPT的过程中,表面上看似是用户控制AI来达成自己的目的,实际上用户仍然被其背后编写算法和程序的企业或平台所控制。周葆华认为:“当机器生成的知识成为公共知识,成为公共对话、讨论和社会运作的资源,必然对公共舆论、公共交往与公共生活产生重要影响。”[12]因此,以ChatGPT为代表的AI技术通过新闻行业等渗透舆论,将影响用户的认知,甚至影响整个社会意识形态的建构。目前,ChatGPT的设计虽遵循了法律规定和伦理要求,但“受限于ChatGPT研究历史较短,关于其潜在风险的研究大多仅停留于问题的呈现和浅层分析,缺乏长期性和系统性”[13],对其所带来的技术风险,应从专业审核制度的建立等方面未雨绸缪,加强监管与治理。

此外,ChatGPT等大语言模型的训练对算力资源和高技术门槛的需求也制约了学界对大模型研究的不断深入,未来可能只有极少数的公司和机构才有资格进入这一领域。在信息生产的过程中,算力的垄断还会导致应用市场的垄断,进而影响到信息生产的多元化。大语言模型的开发过程也可能会出现“价值垄断”的风险,其所承载的价值观偏差与社会刻板印象会进一步放大。在未来,国家之间的大语言模型的竞争是无法避免的,技术的先发优势因马太效应可能会带来“赢者通吃”的局面,我们应提前布局,以获得更多的主动权。

结合上述分析,笔者认为,互联网下一个阶段的竞争或将面临以下问题:大语言模型技术是否成为互联网公司进入市场的一个门槛?云计算之争是否真的已经来临?资本的竞争是否将成为算力的竞争?

(二)智能传播:人机深入交流与新人机共存空间的构建

早在1968年,麻省理工学院的约瑟夫·利克莱德和罗伯特·泰勒就认为电脑不仅仅是“计算器”或者“电子处理程序”,而是一种可以让使用者提供“面对面交流的自然延伸”的人际交往机制[14]。从机器只会接受指令的模式,过渡到智能服务模式,再到如今以ChatGPT为代表的人机对话交流模式,人机交互关系持续深化,机器不仅仅是具有“互动性”的工具,而且成为有“主体性”的交流对象[15]。ChatGPT等使AI技术从过去的“能听会看”,迅速发展成如今的“能思考、能创造”。AIGC要求将人的经验、知识、判断与机器的快速运算与识别能力结合起来,达到人机知识与信息的互换转移。人与机器之间的沟通和交流提升到一个新的高度,让人对机器产生了更多的信赖和期望,人机交互变得越来越普遍。[16]设计人员通过数据、算法、图形等硬件终端生成拟人化对象,通“人言”、拥有“人形”。比如百度输入法上的“林开开”和“叶悠悠”,都已经具备了高度拟人化特征。大部分社交类AI都支持个性化定制相貌和性格,用户可以根据自己的喜好设计想要的角色,满足自己的交际需要。人们能打破生理、社会等方面的局限,创造出属于自己的“美好世界”。这些智能体具有“机器人的客观特征和类人的情感黏度”,在“似人非人、胜于人”的交往过程中,会形成一种特殊的情感依赖体验[17]。

然而智能时代人机交互的深入共存,必将影响人的主体性与独立性。人在判断一件事物的时候更倾向根据其固有的观念和主观性,但机器在判断同一件事情的时候会依据现有的数据和事实。同样在思考问题和创作事物的问题上,人与机器也有很大的区别,人类多数情况下会根据自己的主观情绪和思考来判定与创作内容,但机器通常是根据客观事实和数据进行判定与创作。从理论上讲,人类的经验导向还可以和机器的数据导向相互补充,但这往往是一种理想的情况,现实生活中,机器的精准度和高效率通常让人放弃主观判断而选择服从。[18]AI技术正在模糊人脑和机器之间的界限,以一种更加自然的方式来影响意识形态的构建,进而驯服人类的大脑。[19]古兹曼与刘易斯认为,在将AI技术应用于新闻的生产与交流过程中,“以人类为中心”的传统沟通模式不再适用,人们有必要重新反思人与机器之间的关系。[20]在面对AI技术时,人类需要有一种反抗心理。在电视出现后,人们需要抵制在沙发上消磨时光;移动电话出现后,人们需要抵制做“低头族”;在与机器交互的过程中,我们要积极维护自己的独立和人格,不能沦为技术的附庸。

算法伦理审视与智能传播应用风险的再思考

社会信息环境让人们重新塑造自我、改造认知,AI技术对社会信息环境的构建起到了至关重要的作用。AI技术深入发展的同时必然会面临伦理挑战和风险。

(一)认知茧房效应的加剧

智能传播是建立在算法和数据上且由人工智能主导的传播方式,算法与数据也是智能传播的核心要素,以数据为基础的信息生产与分发模式,也是智能传播的关键。算法即基于数据和模型分析来解决具体问题的一种“决策规则”。[21]我国学者就“算法不是一种绝对价值中性的技术,它是人类价值观的一种反映”达成共识。[22]

算法使用户信息获取途径和范围受限,从而导致认知和思维的固化。[23]算法与大数据共同搭建了一个智能化社会,随着算法深度渗透大众的日常生活,用户在互联网上面的每一个动作,包括但不限于喜欢、点赞、收藏、转发、评论等所有行为与信息都会被各大平台作为大数据的基本“养料”来采集,并根据收集而来的个人信息与偏好对其进行个性化的内容推荐。也就是说,每个算法都会根据用户的行为记录进行推荐,如果有类似的内容被大量推送,那么就会有更多的人点击关注,从而形成了一个循环。这一循环周期是将用户过往的短期行为视为当前兴趣倾向的评判准则,已无法满足其不断变化的需求。这种技术表面上是为了满足读者的需求,实际上却把读者困于“信息茧房”之中,让他们很难聆听到不同的意见。[24]算法也会引导用户向更为细分的市场和领域迈进,用户接受越来越多同质化的信息,当这种细分化信息积累到某种程度时,就会强化某种观念或者认知上的趋势,甚至会使人产生偏激乃至极端的看法。[25][26]智能算法所展示出的精准度本身也是其偏见性的表现形式,加剧了刻板印象、种族歧视、阶层歧视的问题。[27]

另外,在内容生产和分发的过程中,智能算法的深度渗透也带来了更多的“信息快餐”,信息和资讯可以被迅速获得,人们往往深陷其中,对信息的深加工和理解能力不断降低。人们越来越多地追求眼前的利益,而失去对延迟性满足的耐性,然而现实生活的多数事情是延迟满足的,深陷“信息快餐”中的人们已经渐渐丧失了这种耐性。这一切都表明,高速发展的信息生产带给人类的是一种“奴役”,人类的认知自主性和思维自主性正在被蚕食殆尽。[28]

算法的运用下,人与人之间也会有明显的知识鸿沟。[29]算法素养概念和算法教育的概念近年来也被学者们多次提出,ChatGPT等AI技术的深度普及有可能在后真相时代带来更多问题,此时算法素养就显得至关重要,它将成为一道内化的壁垒,让人们在纷繁的信息海洋中拥有更好的认知系统,不被算法所侵蚀。

(二)算法操控导致用户自主权的丧失

算法能够操控社会关系的建构,影响个人生活和工作状况,对他们的社会地位产生制约作用,甚至对其行为进行监控和控制。[30]简单来说,算法带给人的差距已经不局限于简单的“信息—符号转码”,它对生产和生活有着巨大的影响。[31]尽管算法可以给人们更多的信息可供选择,但算法“黑箱”的存在,使用户只能够被动地接受被算法处理的结果,而无法了解其背后的逻辑与机制。大平台对数据、算法和新技术的掌控,以及不透明的知识产生过程,使得这些新兴媒体大企业能够把握“知识中枢”。[32]用户所能看到的、被推荐的内容都是可以被垄断性大平台操控的,用户将逐步失去对信息的自主权。所有人生活在一个可辨识、可挖掘和可预测的海量信息体系之中,被干涉、被纠正,并逐步习惯地服从,无处不在的数据库为规范的执行过程提供监控,由此产生了权力效应。[33]因此,算法掺杂着平台经营者和大资本的意愿,在某种程度上影响着这个世界的话语权,因为大平台垄断着绝大部分数据,也加剧了话语权集中的现象。除平台推荐算法外,还存在外部组织或个人对平台舆情进行干预的现象,例如“机器水军”,使得社会信息大环境暴露于被多重力量控制的平台之中,并对其所处的舆情以及社会意识形态产生重大影响,有时甚至会对社会的资源配置产生重要作用。[34]

(三)虚假信息的泛滥

在算法的加持下,智能传播环境中,虚假信息的传播速度很快,甚至出现了“病毒式”传播的现象,而网络的核查制度往往是事后核查,远远跟不上信息的传播速度。[35]AIGC的勃兴或将使人们进入一个真假难辨的信息空间中,这将给人们的社会生活以及信息大环境带来挑战。这种大语言模型可能会生产大量虚假或误导信息,并利用其进行舆情操控等行为。例如,国际舆论场上的AI深度合成伪造的假新闻、假数据,激化了国际矛盾。目前来看,智能媒体大平台缺少配套的审查算法与机制来应对相关状况,如新冠疫情期间,虚假信息的快速发酵引发了不必要的社会恐慌。

(四)个人隐私的泄露

在现代社会中,隐私通常被认为是一种人权,每个人都有权享受自己的私生活而不受到他人的非法干涉,也不愿信息被其他人非法收集和公开,当一个人私生活的平静得到了合法的保障时,才能够真正过上体面而又有尊严的生活。[36]虽然《中华人民共和国数据安全法》和《中华人民共和国个人信息保护法》等法律的出台使得我国用户个人信息保护有法可依,但随着算法深度参与到普罗大众的日常生活,公众的每一句话、每一个动作都变得“透明化”。[37]在技术的发展与个人隐私之间也存在着一个悖论,即技术发展需要收集用户的更多数据作为基本“养料”,然而随着更多的数据被收集、被使用,用户的隐私也逐渐被侵蚀,甚至完全透明。Open AI曾被披露收集了互联网上3000亿字符来训练ChatGPT的模型,其中就包含了大量个人信息。[38]隐私与虚假信息仍然是未来需要重点探索的话题。

关于智能传播研究的未来展望

智能传播的研究内容和范式因技术发展的变革正处于转折点上,未来智能传播的研究离不开技术、人文、伦理三个维度。AIGC等技术的深入变革与深度应用,会引导智能传播扩展延伸其研究范围。

虽然当前的AIGC还面临着诸多问题,但其从科技层面上推动了智能内容的生产、分发和人机交互,拓宽了智能技术在信息交流中的应用,这类技术的崛起也明示了智能传播的前进方向,同时也期待其实现更大的突破。

(一)AIGC仍将是研究的重点和热点

以ChatGPT为代表的AIGC技术必将应用于国际竞争的诸多领域,我们要清楚先发优势在国际竞争中的重要作用,提前做好战略布局,抢占技术高地,将大语言模型视为重要的战略性资源,以获得更多的主动权。此外,ChatGPT这类大语言模型工具的应用需进行知识的采集和整理,过去这些都是由人类自己完成的。AIGC虽然能让人迅速获取知识,却不能让人得到充分的思维训练,随着时间的推移,人们的思维会逐渐退化,面对AIGC的影响,教育系统或需要调整教育方向和内容以进行应对。

(二)机器深度参与的内容生产将会持续引发关注

未来,内容之间的界限将会越来越模糊,内容与内容之间的竞争也会越来越激烈,但内容生产规模也将大大提升,以更好地满足当代社会的多元化需求,内容的生产线将会继续延伸。用户可以更容易地获取更多个性化信息,虽然目前内容的专业生产者仍然不可替代,但是他们也将面临一个全新的变革局面,如何继续保持自己的内容生产地位,怎样才能在与技术的竞争中获得更大的话语权,值得深思。

(三)智能媒介素养与算法素养研究将更深入

智媒时代,媒介素养与算法素养必将对人类的生产生活产生巨大的影响。智能技术的普及将引发一系列不平等和不公正现象。这种现象不仅存在于个人、企业之间,也存在于地区、国家之间。在未来,智能媒介素养的差距将会越来越大,并以各种新的方式呈现出来,弥合这种差距是一项艰巨的任务。掌握了数字资源霸权的组织或个人,又该怎样对待自己的权利,整个社会系统又该如何制衡这种霸权,都是值得研究的课题。

同样,在算法主导的传播环境的社会中,算法素养同媒介素养同样值得关注。算法会对人带来一定的囚禁风险,但至今仍有很多人对此浑然不觉。帮助人们正确认识这些风险,是提升算法素养必须考虑的问题,如何正确“赋权”用户,如何让用户在使用的过程中学会驾驭算法,保持作为人的价值、尊严与自主性是学界仍需要深入探讨的话题。

(四)重思新型人机关系及人的新生存图景

智能传播由人与机器两大系统交织融合而成,随着人机交流的逐步深入,人与机器之间的关系问题也将面临从需求式互动到情感交流的转向。在未来,学界也需思考,人对机器是否会产生和人一样的情感关系,这种关系是否会影响到正常人与人之间的关系。我们应担忧的或许不是机器像人一样思考,而是人类的思考模式越来越像机器。在算法等技术持续影响人的思考能力的背景下,人类如何重新理解和定义“自我”?

参考文献:

[1]周葆华,苗榕.智能传播研究的知识地图:主要领域、核心概念与知识基础[J].现代传播.2021(12).

[2][7]彭兰.从ChatGPT透视智能传播与人机关系的全景及前景.新闻大学,2023(04).

[3]KISSINGER HS,HUTTENLOCHER D.ERIC. ChatGPT heralds an intellectual revolution[N].The Wall Street Journal,2023-02-24(12).

[4]钟祥铭,方兴东,顾烨烨.ChatGPT的治理挑战与对策研究——智能传播的“科林里奇困境”与突破路径[J].传媒观察,2023(03).

[5]张尔坤,张一潇.ChatGPT启示:大语言模型时代传播学研究新问题[J].国际新闻界,2023(06).

[6]王沛楠.人工智能写作与算法素养教育的兴起——以ChatGPT为例[J].青年记者,2023(05).

[8]陆小华.探索意识与变革先机:以有效运用推动智能变革[J].青年记者,2023(21).

[9]史安斌、刘勇亮.聊天机器人与新闻传播的全链条再造[J].青年记者,2023(03).

[10]张尔坤,张一潇.ChatGPT启示:大语言模型时代传播学研究新问题[J].国际新闻界,2023(06).

[11]姜泽玮.功能局限、关系嬗变与本体反思:人机传播视域下ChatGPT的应用探讨[J].新疆社会科学,2023(04).

[12]周葆华.或然率资料库:作为知识新媒介的生成智能ChatGPT[J].现代出版,2023(02).

[13]罗昕.聊天机器人的网络传播生态风险及其治理——以ChatGPT为例[J].青年记者,2023(07).

[14]转引自方兴东,钟祥铭.重估媒体融合——50年数字技术驱动下的媒体融合演进历程与内在价值观[J].西北师大学报(社会科学版),2022(02).

[15]Guzman,A.L.,Lewis,S.C.,“Artificial Intelligence and Communication:A Human–Machine Communication Research agenda,”New Media & Society[J],2020,22(1):70-86.

[16][30]彭兰.智能素养:智能传播时代媒介素养的升级方向[J].山西大学学报(哲学社会科学版),2023(05).

[17]曹博林,罗炼炼.陪伴型聊天机器人的发展特征与机制效果[J].青年记者,2023(02).

[18][28][34]彭兰.智能传播中的伦理关切[J].中国编辑,2023(11).

[19]赵如涵.媒介演进中的知识重构与认识论变革[J].新闻与写作,2023(10).

[20]R.C.,Guzman,A. L. and Schmidt,T.Lewis,S. Automation,Journalism,and Human-Machine Communication :Rethinking Roles and Relationships of Humans and Machines in News[J].Digital Journalism.2019,7(04).

[21]John Danaheral.et.:Algorithmic Governance:Developing a Research Agenda through the Power of Collective Intelligence[J]. Big Data & Society,2017,4(02).

[22]王秋菊,陈彦宇.多维视角下智能传播研究的学术图景与发展脉络——基于CiteSpace科学知识图谱的可视化分析[J].传媒观察,2022(09).

[23]彭兰.智能素养:智能传播时代媒介素养的升级方向[J].山西大学学报(哲学社会科学版),2023(05).

[24]林凡,林爱珺.打开算法黑箱:建构“人-机协同”的新闻伦理机制——基于行动者网络理论的研究 [J]. 当代传播,2022(01).

[25]吴献举.聚合媒体的新闻生产方式变革、社会影响与优化路径 [J].编辑之友,2018(06).

[26][33]洪杰文,常静宜.人工智能的新闻传播与实践及反思[J].青年记者,2023(01).

[27]赵静宜.主体性回归:论智能传播的界限问题及控制方向[J].编辑之友,2023(05).

[29]陈逸君,崔迪.用户的算法知识水平及其影响因素分析——基于视频类、新闻类和购物类算法应用的实证研究[J].新闻记者,2022(09).

[31]杜骏飞.定义“智能鸿沟”[J].当代传播,2020(05).

[32]李彪,喻国明.新闻2.0时代硅谷如何驯化美国新闻业[J].江淮论坛,2018(03).

[35][37]匡文波.算法治理:网络空间治理的新挑战[J].人民论坛,2023(19).

[36]张新宝.从隐私到个人信息:利益再衡量的理论与制度安排[J].中国法学,2015(03)

[38]Uri Gal.,ChatGPT is a Data Privacy Nightmare,If You've ever Posted Online,You ought to be Concerned,Says,Researcher[EB/OL].(2023-02-08). https://techxplore.com/news/2023-02-chatgpt-privacy-nightmare-youve-online.html.

本文引用格式参考:

程明,孙嘉蔚.中国智能传播研究年度报告·2023[J].青年记者,2023(24):24-28.

友情链接: