跳到正文
Back to Feed

总结

Adam Aleksic指出,社交媒体算法与AI大模型在利益驱动的筛选机制下,正重塑人类语言、价值观与自我认同。研究发现,ChatGPT等模型受训练数据偏差影响,会高频使用如“delve”等词汇,促使人类在日常交流中模仿“AI腔”,形成语言层面的正反馈循环。在文化消费上,Spotify等平台通过数据聚类生成“hyperpop”等标签,推动创作者与用户迎合算法分类,使原本流动的兴趣被固化为身份认同,并将行为数据转化为更刚性的社会标签,影响文化潮流与用户自我认知;若缺乏反思,公众可能在偏见累积中弱化对多元现实的感知。

正文

🤖 算法与AI模型对人类语言及自我认同的重塑作用 Adam Aleksic指出,社交媒体算法与AI大模型通过利益驱动的筛选机制,正在重塑人类的语言与价值观。研究发现,ChatGPT等模型由于训练数据的偏差,表现出频繁使用"delve"等特定词汇的倾向,进而引发人类在日常表达中模仿此类"AI腔调",形成了语言上的正反馈循环。在文化消费方面,Spotify等平台利用数据聚类生成如"hyperpop"之类的标签,迫使创作者与用户迎合算法分类,导致原本流动的个人兴趣被固化为刻板的身份认同。这种从"统计学聚类"到"本体论分类"的跃迁体现了算法权力,平台通过将行为数据转化为刚性社会标签,在制造文化潮流的同时规训了用户的自我认知。若缺乏对该循环效应的反思,公众可能因数据偏见而逐渐失去对真实多元现实的感知。 (科技圈)
发布时间: