时间:2024-06-04 11:40:55浏览:580
普林斯顿大学和华威大学的这篇人工智能论文提出了一种新颖的人工智能方法,以增强法学硕士作为认知模型的实用性,这个方法能够有效的校正大型语言模型 (LLM) 做出偏离理性规范的判断和决策,下面我们来详细了解一下普林斯顿大学提出的这种新颖的人工智能方法。
一、新人工智能方法的必要性
研究大型语言模型 (LLM) 的科学家发现,LLM 在认知任务中的表现与人类相似,经常做出偏离理性规范的判断和决策,例如风险和损失规避。LLM 还表现出类似人类的偏见和错误,特别是在概率判断和算术运算任务中。这些相似性表明,LLM 有可能被用作人类认知模型。然而,仍然存在重大挑战,包括 LLM 训练所基于的大量数据以及这些行为相似性的来源不明。
由于几个问题,LLM 是否适合作为人类认知模型存在争议。LLM 是在比人类大得多的数据集上训练的,并且可能已经接触过测试问题,从而通过价值调整过程人工增强了类似人类的行为。尽管存在这些挑战,但在人类选择数据集上对 LLM(例如 LLaMA-1-65B 模型)进行微调可以提高预测人类行为的准确性。先前的研究也强调了合成数据集在增强 LLM 能力方面的重要性,特别是在算术等问题解决任务中。对此类数据集进行预训练可以显著提高预测人类决策的性能。
二、新人工智能方法的实现方式
普林斯顿大学和华威大学的研究人员建议通过以下方式增强 LLM 作为认知模型的实用性:(i) 利用 LLM 和理性代理必须掌握的计算等效任务来解决认知问题;(ii) 检查 LLM 表现出类似人类行为所需的任务分布。Arithmetic-GPT 是一种在生态有效算术数据集上预训练的 LLM,它应用于决策,特别是风险和跨期选择,比许多传统认知模型更能预测人类行为。这种预训练足以使 LLM 与人类决策紧密结合。
研究人员通过定义数据生成算法来创建合成数据集并获取对决策至关重要的神经激活模式,解决了使用 LLM 作为认知模型的挑战。一个具有生成预训练变压器 (GPT) 架构的小型 LM,名为 Arithmetic-GPT,在算术任务上进行了预训练。生成了反映实际概率和值的合成数据集以供训练。预训练细节包括上下文长度为 26、批处理大小为 2048 和学习率为 10⁻³。重新分析了风险和跨期选择中的人类决策数据集,以评估模型的性能。
三、新人工智能方法的实验结果及结论
实验结果表明,在生态有效的合成数据集上进行预训练的 Arithmetic-GPT 模型的嵌入最准确地预测了人类在决策任务中的选择。与其他模型(包括 LLaMA-3-70bInstruct)相比,使用嵌入作为自变量、人类选择概率作为因变量的逻辑回归显示出更高的调整 R² 值。针对行为模型和 MLP 的基准测试表明,虽然 MLP 通常优于其他模型,但 Arithmetic-GPT 嵌入仍然与人类数据具有很强的对应性,尤其是在跨期选择任务中。通过 10 倍交叉验证确认了稳健性。
研究得出的结论是,LLM(特别是在生态有效的合成数据集上进行预训练的 Arithmetic-GPT)可以紧密模拟人类在决策任务中的认知行为,其表现优于传统认知模型和一些高级 LLM(如 LLaMA-3-70bInstruct)。这种方法通过使用合成数据集和神经激活模式解决了关键挑战。研究结果强调了 LLM 作为认知模型的潜力,为认知科学和机器学习提供了宝贵的见解,并通过广泛的验证技术验证了其稳健性。
以上就是普林斯顿大学提出了一种新颖的人工智能方法的相关内容。如果您对美国留学感兴趣,欢迎您在线咨询托普仕留学老师(Tops6868)。托普仕留学专注美国TOP30名校申请,采用5v1服务模式,21步精细服务流程,硬性四维标准+六维背景提升等留学服务体系,为学生申请美国名校提供保障。
扫一扫添加托普仕留学客服,了解更多资讯!
微信:Tops6868