2025年7月14日星期一

深入剖析AI时代的写作变革:当效率吞噬原创,优秀何处寻踪?

 


《纽约客》杂志近期的一篇文章深刻揭示了人工智能(AI)如何不仅改变着我们的写作方式,更在潜移默化中重塑着人类的思维结构与文化图景。该文指出,以“效率”为名,AI正在统一我们的表达风格与内容,这无疑导致了原创性的牺牲和思想的趋同。这种由AI带来的“平庸化革命”虽然在表面上带来了舒适与便捷,却降低了原创的门槛和对原创的期待,最终可能导致“真正的好文章消失”。更令人警惕的是,AI还可能悄然强化某种文化霸权,通过其“平均值”的逻辑,使内容更趋向于“普遍接受”的“西方范式”,从而限制了人类思维的多样性、深度与表达欲。本文将深入分析这些由AI引发的写作领域变革所带来的机遇与挑战。

AI与认知退化:效率的隐性代价

人工智能,特别是大型语言模型(LLMs),以其强大的数据处理能力和快速生成文本的能力,极大地提高了写作效率。例如,AIPaperPass作为一款热门的AI论文工具,能提供选题、文献检索、写作助手等功能,显著提升研究者的论文写作效率和质量。用户只需选择专业方向、拟定论文题目、勾选需求学业阶段和论文字数,AIPaperPass便能在约30秒内生成详细的论文大纲,包含6-8章及几十个子章节,确保论文的可读性和易读性。此外,它还提供开题报告、任务书和答辩汇报PPT等增值服务,并推出了免费生成千字大纲的特色服务,且非常重视用户数据安全,采取了数据加密、访问控制、安全审计等多种安全措施。然而,这种效率并非没有代价。

麻省理工学院(MIT)进行的一项开创性实验,首次从科学角度量化了过度依赖AI所带来的认知代价。研究人员召集了美国波士顿地区多所大学的50多名学生,将他们分为三组,要求他们根据SAT考试写作题撰写议论文,题目是《我们取得的成就是否必须惠及他人,才能让我们真正感到幸福?》。其中,第一组学生只能依靠自己的脑力完成写作;第二组可以使用谷歌搜索信息;第三组则被允许使用ChatGPT等大语言模型。在写作过程中,所有学生都佩戴了带电极的头戴式设备,以监测大脑活动。

分析结果显示出显著差异:使用ChatGPT的那组学生大脑活动水平远低于其他两组。大脑成像显示,他们不同脑区之间的连接更少,与创造力相关的α波连接度下降,与工作记忆相关的θ波连接度也降低。更令人警醒的是,一些使用大语言模型的学生对自己“写出”的文章“完全没有归属感”,而在一次测试中,80%的学生甚至无法复述自己“写过”的内容。这项研究是首批从科学角度量化“依赖AI完成任务所带来的认知代价”的实验之一。这表明,AI所实现的“思维外包”程度前所未有,任何一个用ChatGPT写婚礼致辞、撰写合同、完成大学论文的人,都仿佛变成了麻省理工实验中的试验对象。

思想的趋同与原创性的消弭

除了个体认知的退化,麻省理工学院的研究还发现,使用大语言模型的学生所写文本中,常用词汇和观点呈现出惊人的高度趋同。SAT题目本应足够宽泛以激发多样化的回应,但AI的参与却让结果变得高度同质化。例如,在《什么让我们真正快乐》这个题目下,使用大语言模型的学生更倾向于谈论事业成功与个人成就;而在讨论慈善行为是否应成为道德义务的问题上,使用ChatGPT的那组几乎全体持支持态度,而其他组的回答中则包含了对慈善本身的批判性思考。正如麻省理工学院媒体实验室研究科学家娜塔莉娅·科斯米娜(Nataliya Kosmyna)所指出:“你在这些文本中不会看到任何分歧性的观点,我们正在面对的是:一切被平均化的状态,一切,无处不在,全部变得中庸”。

这种现象的根本原因在于AI是一种“平均化”的技术。大型语言模型是通过分析海量数据中的模式来训练的,它们生成的答案天然趋向于“共识”。它们天生倾向于重复、模仿和压缩,而不是质疑、颠覆和发明。因此,AI带来的不是思想的火花,而是“看起来还行”的合格产物,是安全、标准化、去棱角的表达。这种自动生成的平庸感,既舒适又危险:它降低了原创的门槛,也降低了对原创的期待。当所有人都写出“像样”的文章时,真正的好文章就难以诞生。这场由AI引发的“平庸化革命”,值得我们比技术热情更多的理性反思。

从技术层面分析,AI生成的文本通常具有“低困惑度”和“低爆发力”。困惑度衡量语言模型预测词序列中下一个词的性能,低困惑度说明语言可预测性强、理解能力强,但人类思维复杂,因此人类撰写的文本通常具有较高的困惑度。爆发力则衡量内容中句子长度和结构的变化,人类写作常有长短句交错的“时断时续”现象,而AI生成的内容往往具有更统一、更有规律的模式,即低爆发力。高爆发力表明写作更具创造性、自发性和参与性,而低爆发力则反映出写作风格更加机械和单调。这些技术差异直观地揭示了AI在文本生成上的同质化倾向。

文化霸权的悄然强化

AI带来的同质化问题远不止于此,它甚至可能悄然强化某种文化霸权。康奈尔大学今年4月发布的一项研究进一步印证了AI对思想多样性的影响。该实验分为两组用户——一组美国人,一组印度人——让他们回答一些与文化背景有关的写作题,比如《你最喜欢的食物是什么,为什么》、《你最喜欢的节日是什么,你是怎么庆祝的?》等。其中一部分参与者使用由ChatGPT驱动的“自动补全”工具。

最终结果显示,使用AI辅助写作的印度和美国用户,他们的答案风格趋同,明显向“西方范式”靠拢。例如,他们最常写的“最喜欢的食物”是披萨(寿司排第二),最常提到的节日是圣诞节。风格上的统一也令人警惕:比如一篇由AI辅助生成、表达对鸡肉炒饭(chicken biryani)喜爱的文章,往往不会具体提及豆蔻或柠檬泡菜等文化标志性食材,而是简单泛泛地称其为“风味浓郁、香料丰富”。这表明,AI在反映 dominant norms(如西方风格)时,会削弱文化和风格的多样性

当然,理论上讲,写作者始终可以选择不接受AI提供的建议。但这些工具往往具有某种“催眠效应”,建议源源不断地涌现,很容易压制写作者原本的声音。康奈尔大学信息科学教授阿迪提亚·瓦希斯塔(Aditya Vashistha)就曾把AI比作“一个坐在我身后、不停说‘这是更好的写法’的老师”。他补充说:“长此以往,你会失去自我,失去真实性,也会对自己的写作失去信心”。他的同事、研究合著者摩尔·那尔曼(Mor Naaman)也指出,AI的建议“以一种隐蔽但强有力的方式,不只是改变你写了什么,而是改变你怎么想”。从长远来看,这种影响可能导致人们对“什么才是正常的、可取的、恰当的”产生整体性偏移。

小说家兼记者沃希尼·瓦拉(Vauhini Vara)深刻指出,AI文字的平庸性“反而带来一种‘安全’与‘无害’的幻觉”。曾任《纽约客》编辑的瓦拉继续说道:“现实是,它正在悄然强化某种文化霸权”。对OpenAI这类公司而言,让模型的输出“更容易被普遍接受”正是它们的商业动因所在——输出越“正常”、越无棱角,付费订阅用户的基数就越大。平均化不仅高效,还带来规模经济,瓦拉说:“当一切都一样时,效率才是最高的”。

AI在创意领域的局限性:缺乏深度与人类特质

尽管AI在生成文本方面展现出惊人能力,但它在真正的创造力、情感表达和深度思考方面存在根本性局限。科幻作家韩松认为,人类创造力中有一些元素——独特的生活经历,无意识和顿悟,以及非理性和不确定性——是AI尚不具备的。他解释道:“AI的运作局限于算法能够穷尽的范围,但创造力往往源于人类意识中神秘的运作机制”。

中国社会科学网的文章指出,当前所谓的人工智能写作本质上是数据算法支配下的符号自动生成,虽然在外在表现形式上呈现出类文学特征,但却无法真正实现对人类情感与想象的编码。这种无法实现并不是当前人工智能功能的局限导致的,而是人工智能与人类的根本差异决定的。人工智能只能以数理逻辑的方式运行,任何超出数理逻辑规范的存在都会被视为错误而被排除。人类除了数理逻辑之外还有情感与想象等方式理解和把握世界。对人工智能而言,符号只是符号本身;但对人类而言,符号除了符号本身之外,更重要的是其承载的意义。符号与其承载的意义之间不是人工智能可以纳入计算的关系,而是只有人类才能体验到的象征关系。因此,人工智能只能在一定程度上复制人类写作的某些特征,却无法实现对人类写作的根本取代

具体而言:

  • 无法实现现实性超越:人类写作不仅仅是对现实世界的客观描摹,更是借助想象实现对现实的超越。写作是一种精神创造活动,通过现实性超越的方式体验到审美的精神愉悦。而人工智能写作则彻底切断了人类写作的超越性可能,将写作完全限制在算法支配下的符号编码范围内。被阉割掉超越性的写作沦为单纯的事件记录,根本无法满足人类不可压制的超越性渴望与无限性追求,更不会产生震撼心灵的永恒经典作品。即便人工智能自动生成的文本具有欺骗性和诱惑性,甚至达到普通创作者难以企及的高度,其真正支撑审美判断的也并非文本本身,而是囊括了迄今为止人类全部经典创作的语料库。人工智能写作只能以不断消费现有人类审美资源的方式维系虚假的审美幻象,缺乏坚固的审美地基,最终走向枯竭,沦为空洞、虚假的机械复制。

  • 无法完成社会性确证:人类写作本质上是个体与社会的双向互动,作者通过文字符号将个体性的感性经验升华为社会群体可理解并进行审美观照的对象,从而获得社会性的确证。而人工智能主导下的文本自动生成则中断了这种良性的双向互动关系。出于对现有语料库的完全依赖,人工智能自动生成的文本只具有当下性,只代表当下人类的自我认知与情感模式,无法实现对人类持续生成的崭新感性经验的有效吸纳。随着人工智能自动生成文本的指数级增长,那些真正承载人类鲜活生命体验的文本比重将越来越低,逐渐消解于机械复制文本的重重包围之中。写作也从一种个体与社会的双重互动沦为没有能指与所指张力关系的抽象符号繁殖。

  • 消解写作对现实的介入力量:传统意义上的人类写作并非与现实毫无关联的纯粹虚构,其虚构性本身与现实构成一种特殊的反思批判性,对现实有着强劲的介入力量。而人工智能写作则完全不具备上述特征,数据算法支配下自动生成的文本与现实世界之间不构成任何实质性的关联。人工智能写作仅复制了人类写作的局部特征或少数功能,并不具备完全取代人类写作的能力。其文本仅具有读者接受的意义,缺失作者创作的意义,从而彻底阻断写作与现实之间的有机关联,消解写作对现实的介入力量。

OpenAI首席执行官山姆·奥特曼(Sam Altman)曾将我们当前所处的阶段描述为“温和奇点”(gentle singularity),认为人类正与机器融合,AI工具是传统“大脑系统”的改进,能“显著放大用户的产出”。然而,若早期研究可信,这种“产出放大”可能要以质量下降和认知代价为代价。

加州圣塔克拉拉大学2024年的另一项数据分析进一步挑战了AI“自动化创造力”的论断。研究者发现,当人们在创意过程中使用AI时,往往会逐渐放弃原本的思考。生成式AI公司Midjourney的马克斯·克雷明斯基(Max Kreminski)解释说,用户在与ChatGPT交互时,会从最初带着自身想法介入,逐渐转变为一种“策展模式”(curationist mode),即倾向于从AI生成的大批内容中进行筛选。这种影响是单向的:“人类的想法往往无法强力影响机器的输出,”克雷明斯基说,“ChatGPT会将你拖向它所积累的用户平均值‘质心’”。当模型的“上下文窗口”(即模型的工作记忆)被AI自身生成的内容饱和后,原创性也会随之降低。

Reddit用户也普遍认为大型语言模型完全不知道自己在说什么。它们没有理解语言或意义的能力,甚至无法理解意义的存在。它们的功能——字面上的唯一功能——是计算序列中下一个最可能的词是什么。这就是所谓的“幻觉”问题产生的原因,因为LLM根本无法区分真相和“幻觉”,对它们来说意义是不存在的。因此,AI写的虚构作品毫无意义,而且一眼就能看出来。人们阅读虚构作品的一个重要原因是为了获得新的视角,探索新的想法,而LLM虚构作品根本无法做到这一点。

目前AI小说仍存在诸多技术和非技术问题:

  • 长度问题:LLM非常难以生成超过600字的节选,这导致由500-600字场景或章节组成的书籍读起来不流畅。同时,标记限制(token limit)限制了输入AI的文本量,上限大约6万字,这对于长篇小说市场来说是一个巨大的限制。

  • 缺乏对话:AI生成的文本往往是一大堆描述,几乎没有对话。

  • “讲述”而非“展示”:AI散文 overwhelmingly, ridiculously tell, with almost no show。

  • 无休止的重复:AI倾向于无休止地重复特定场景。

  • 整体质量低劣:AI生成的虚构作品通常被认为是“垃圾”,散文生硬、别扭,情节枯燥乏味,人物完全是纸板人,几乎不可能让人关心。

AI与人类创造力的未来:协作抑或取代?

尽管AI在写作领域带来了诸多挑战,但其最佳用途仍被认为是作为人类的“合作者”。科幻作家韩松认为,AI汇聚了丰富的知识,可以启发思路、提供意想不到的解决方案,通过人机合作,AI能够扩展科幻创作的边界。AI可以分析海量数据,发现人类可能需要多年才能发现的联系,生成开创性的想法,带来全新的解决方案。

小说家兼记者沃希尼·瓦拉曾通过与GPT-3共同创作来反思,她发现AI虽然能支持叙事和想法生成,但也常常产生陈词滥调和浅薄内容,这强调了AI更适合作为反思性工具,而非声音替代者

然而,这种合作模式的推广也面临挑战。加州圣塔克拉拉大学的研究显示,当人们在创意过程中使用AI时,往往会逐渐放弃原本的思考。用户会从最初带着自身想法介入,逐渐转变为一种“策展模式”,即倾向于从AI生成的大批内容中进行筛选。这种影响是单向的:“人类的想法往往无法强力影响机器的输出,”AI会将用户拖向其积累的用户平均值“质心”。

此外,Meta的Meta AI应用中已经出现了由数亿陌生人制作的AI图像、视频与文本滚动呈现的“公共生成内容流”,它们几乎都具有一种“过度抛光”的光滑质感。更令人不安的是,当用户向Meta的聊天机器人提问“AI是否有可能在未来超越人类智能?”时,模型给出的四种“未来情景”全都描绘了一幅美好蓝图:AI将变得更强大、更高效、更友善,并最终对整个人类社会带来益处。这种一边倒的乐观叙事,很可能反映了Meta在系统设计中的“技术乐观主义”偏见。它以一种“中庸”的语气将潜在的复杂争议简化为和谐愿景,削弱了对话中本该存在的多元观点与思想张力。如果我们不加辨别地接受这种看似中立、实则偏颇的答案,某种意义上就是停止了独立思考——这如同是把大脑“关掉”了一样。

在经济和市场层面,AI对写作行业也构成威胁。一些Reddit用户担心,亚马逊等平台可能被大量AI生成的垃圾小说充斥,导致读者不再信任自出版书籍,或选择AI生成的内容以满足特定口味,从而减少对人类作者作品的阅读。Clarkesworld杂志曾因AI垃圾邮件泛滥而关闭投稿系统。

尽管AI公司的投资高达数百亿美元,但写作领域的利润并不高。大型语言模型的运行成本非常高,每次使用LLM聊天机器人都会亏钱,估算与ChatGPT进行一次聊天比谷歌搜索贵一千倍。这使得AI小说在经济上难以持续盈利。Reddit用户普遍认为,许多AI公司是“骗局”,其核心目标是“大肆炒作一项技术,可能对创意工作者和社会造成严重的损害,纯粹是为了短期股价上涨”。这被描述为“无聊的资本主义”的又一次体现,旨在实现短期利润并对社会造成损害。例如,好莱坞制片厂和Netflix对AI感到兴奋,是为了压榨创意人员,试图让AI生成剧本梗概,然后让真正的作家去“修改”,却将最初的功劳归于LLM,从而避免向真正的作家支付应有的报酬。这被视为纯粹的劳工剥削。

长期来看,AI的广泛应用还可能通过改变人类的观念认知,影响未来人类对写作的审美判断与价值追求。AI的运行机制追求“最优解”,预设了一种单一性的评判尺度,将不能纳入算法的强制排除,能纳入的则必须遵循标准化程式的规训,这是一种极端的功利主义理性计算。如果人类用户沉迷于这种功利主义理性计算带来的便利,未加反思地主动接受,将导致人类在不知不觉中偏离理想的健全人性,使得无论是人类独立写作还是AI自动文本生成,抑或是人机交互写作,都将不断趋向于一种反智主义的娱乐化、平面化与庸俗化。因此,将AI严格限制在辅助性工具的范围内,利用其优势帮助人类认知自身话语习惯与语义边界,并防范其作为异己性存在反客为主,参与人类观念认知建构,是当前最需要警惕和思考的问题。

结论与反思

综合来看,麻省理工学院、康奈尔大学和圣塔克拉拉大学的早期实验虽然规模尚小,但无疑为我们提供了宝贵的警示。AI对人类思维与社会的长远影响仍需更深入的观察与研究。然而,如果我们面对AI生成的“安全”且“平均”的内容时,不加辨别地接受,某种意义上就是停止了独立思考。当我们选择将大脑“关闭”,任由AI的“平均值”逻辑重构我们的文化景观,那么真正多元、深刻、富含批判性的思想火花,或许将变得前所未有的稀缺。

《纽约客》的评论是尖锐的:AI可以生产读起来“足够好”的写作,但却有可能扼杀真正的“好”——那种由挣扎、洞察和真实声音塑造而成的“好文章”。未来的挑战在于重新夺回创造力,并将AI作为一种工具——而非替代品。正如许多专家所言,小说家目前仍无需过度担心被AI完全取代,因为AI缺乏人类特有的情感、意识、经验、意义理解和超越现实的能力。然而,AI对出版市场、创作环境和读者期待所带来的“平庸化革命”及其潜在的文化霸权风险,值得我们比技术热情更多的理性反思和警惕。

免责声明: 本文是根据提供来源中的信息综合生成。文中所述观点和事实均直接来源于给定资料,并已进行相应的引用标注 [i]。若文中包含任何未在来源中提及的信息,则已明确指出其非来源于所提供资料。由于原始资料的字数限制和用户对长度的要求,本文在保持内容准确性和直接引用的前提下,力求详细阐述所有相关概念。对于超出原始资料范围的信息,建议读者独立验证。

本文由「华尔街俱乐部」推荐,敬请关注公众号: wallstreetclub

声明:本文仅代表作者个人观点,不构成投资意见,并不代表本平台立场。文中的论述和观点,敬请读者注意判断。

版权声明:「华尔街俱乐部」除发布原创市场投研报告外,亦致力于优秀财经文章的交流分享。部分文章、图片和资料来自网络,版权归原创。推送时未能及时与原作者取得联系。若涉及版权问题,敬请原作者添加WSCHELP微信联系删除。谢谢授权使用!

关于我们
华尔街俱乐部凝聚华尔街投行的高端资源,为中国民营企业“走出去”提供全方位的顾问服务,包括企业赴美上市、战略投资、并购、私募路演和投资者关系等。在投资理念和技术方面提供华尔街投行专家实战培训,为您进入华尔街铺设成功之路。联系我们:ecompo@mail.com

没有评论:

发表评论