Perplexity的Discover页面把实时资讯包装成可交互的问答形式,每个新闻就好像一个聚合的知识库,用户可以对任何热点话题进行深度提问。 Particle在官方网页就直指这一痛点:“理解正在发生的事本应更容易,为什么跟上新闻比工作还累?”如今,在AI的编排下,几分钟内就能把握复杂事件的核心与来龙去脉。 从产物架构看,它们不再是简单的链接聚合或压缩摘要列表,取而代之的是以“事件”为最小单位重构信息组织逻辑。AI更像一位“总编辑”:自动识别热点、汇聚多源证据、生成可交互的解读。 传统新闻应用的逻辑是“收集文章—按时间排序—推送给用户”,而新一代AI新闻产物的逻辑是“识别事件—多源汇聚—结构化呈现—个性化解读”。 首先是以事件为纲的多视角汇聚。Particle将不同媒体的报道、社交媒体发言与延伸阅读整合为“Stories”,用户可以在一个页面内看到事件的要点、关键引语、相关链接以及涉及的人物、机构、地点信息。 第二是可调风格的AI摘要与问答功能。用户既能获得"5W"式的新闻要素总结,也能要求AI“像给5岁孩子解释一样”来简化复杂议题,甚至可以直接向AI提问获得针对性解答,能够根据个人需求调整信息的呈现方式。 第三是可溯源和可导流。两款产物都特别重视信息的可追溯性和“向原站导流”的策略。Particle在摘要旁边并列原始媒体链接,Perplexity自带标明引用原文和外链的基因,并将Discover中的热点话题制作成Daily播客进行分发,甚至形成了从文字到音频的全媒体矩阵。 第四是人机结合的审核机制。面对AI生成内容可能出现的幻觉和偏见问题,这些产物都建立了人机协作的审核机制。Particle公开强调“人机协作抑制幻觉”,Perplexity也表示在选题与深度研究场景中结合人工审核,确保内容质量和客观性。 Particle在“故事页”中并列展示多家媒体的报道、关键引语、实体背景和相关线索,用户既可以快速扫描要点,也能通过实体页深入了解相关人物和机构的背景。Web端上线后,这种结构化组织被完整移植到浏览器中,实现了移动端和桌面端的无缝连接。 从用户体验角度看,两者的差异很明显:Discover的基本单位是“话题/问题”,更像是“实时热榜+答案”;Particle的基本单位是“事件/故事”,更像是“专题页+摘要+线索”。 最直观的变化是信息的“原子化”——AI 会把复杂新闻拆解成最小的事实单元,再按场景动态重组:同一条新闻,在手机上是30秒摘要,开车时变成3分钟语音播报,回到电脑前又成为直观的知识图谱,有时又是10分钟的深度解析长文。 AI时代必须补上两个关键环节:“验证”和“授权”——既要用技术手段守住准确性,也要与原创媒体建立清晰、公平的分润机制。这不仅是工程问题,更是行业生态和规则的重构。 人类将更专注于 AI 难以替代的核心价值——深入现场的调查能力、复杂情境下需要高情商与价值判断的取舍、以及对 AI 输出的监督与纠错。 另外一个残酷现实是,AI 创作的速度以指数级增长,我们很难想象在这种加速度下未来的阅读将呈现怎样的面貌——AI 把人类投喂的信息重组、无限再生,再反馈给人类阅读。 他给我的回答是:“因为我觉得在全世界都越来越AI化的情况下,作为人的光辉、人的本能,还有那一股活人感,可能才是最难能可贵的。”


