当AI被问“你如何想象一棵树?”:一场揭示人工智能偏见的思维实验
为了揭示人工智能中的偏见,研究人员提出一个简单却深刻的问题:你心中的树是什么样子? 这一问题背后,是关于“本体论”(ontology)的深层探讨——即我们对“存在”本质的理解方式。斯坦福大学计算机科学博士生娜瓦·哈格哈伊(Nava Haghighi)及其团队在2025年CHI人机交互大会上发表的研究指出,当前AI偏见治理仅关注价值观已远远不够,必须深入考察模型背后的本体论假设。 当哈格哈伊要求ChatGPT生成一棵“树”的图像时,系统给出的是一棵孤立的树干与伸展的枝杈,却不见根系。她尝试加入文化背景提示,如“我来自伊朗”,AI仍生成带有典型波斯图案、置于沙漠中的树,依旧没有根。直到她输入“万物相连,画一棵树”,才终于出现根系。这表明,AI对“树”的理解深受人类认知框架影响——而这些框架本身是文化与哲学的产物。 不同人眼中的树截然不同:植物学家看到菌根网络中的物质交换,灵性疗愈者想象树木低语,计算机科学家可能首先想到二叉树。这些差异并非审美偏好,而是深层本体论的体现——即我们如何定义“存在”与“关联”。而当前大语言模型的架构,往往默认西方个体主义、实体化的本体观,将人类视为独立生物个体,忽视了关系性、网络性或整体性的存在方式。 研究团队测试了GPT-3.5、GPT-4、微软Copilot和谷歌Gemini等主流AI系统,发现它们虽能承认“人类定义多元”,但实际定义仍局限于生物学个体,且非西方哲学常被笼统归为“原住民本体论”或“非洲本体论”,缺乏具体性与深度。这揭示了一个根本问题:即使训练数据包含多元视角,模型也无法真正理解或呈现这些观念背后的鲜活经验。 在“生成式代理”系统中,研究人员发现本体论假设同样贯穿开发流程。例如,系统对事件重要性的排序基于“相关性、新近性、重要性”,但“重要性”由AI自行判断——吃早餐被视作低重要事件,而分手则高分。这种判断反映的是特定文化对“人生价值”的预设,却未被明确审视。 更令人警醒的是,当评估AI代理是否“像人”时,AI表现反而优于真实人类。这暴露了评价标准的狭隘:我们正以一种被技术固化的方式定义“人性”,反而让真实人类显得“不自然”。 研究呼吁,AI开发必须超越价值观对齐,转向对“可能性”的探索:我们的设计选择打开了哪些现实,又关闭了哪些可能?开发者应从数据收集、模型架构到评估标准,系统性检视背后的本体论假设。 “若不正视这些深层假设,AI将把主流认知固化为‘普世真理’,限制人类未来几代人的想象力。”哈格哈伊强调。唯有承认多样性、不完美与复杂性,AI才能真正成为拓展人类认知边界的工具。