Pg电子⼤模型社会模拟器MATRIX价值对齐胜过GPT4如何确保大模型与人类价值观对齐,从而避免潜在的社会负面影响?为了解决大语言模型价值对齐的挑战,上海交通大学、上海人工智能实验室的 Multi-Agent Governance & Intelligence Crew (MAGIC) 团队发表新工作,提出一种原创的自我对齐策略——社会场景模拟。这个名为MATRIX的社会模拟框架是一个复杂的虚拟现实世界,它精准地模拟人类社会与互动。模型能够观察到其回答可能造成的社会影响,从而更好地理解回答可能带来的社会危害。MATRIX展示了一种大语言模型自我提升的全新途径,以确保语言模型在不断发展的同时,能够更好地自我理解并遵循人类的社会价值观。这不仅为解决模型自我对齐问题提供了新的视角,也为未来语言模型的道德和社会责任探索开辟了新的可能。
随着大语言模型 (LLMs) 在近年来取得显著进展,它们的能力日益增强,进而引发了一个关键的问题:如何确保他们与人类价值观对齐,从而避免潜在的社会负面影响?
模型如ChatGPT依赖于基于人类反馈的强化学习 (RLHF) ,这一方法通过鼓励标注者偏好的回答并惩罚不受欢迎的反馈,提出了一种解决方案。然而,RLHF面临着成本高昂、难以优化等问题,以及在超人类水平模型面前显得力不从心。为了减少乃至消除对人类监督的依赖,Anthropic推出了Constitutional AI,旨在要求语言模型在回答时遵循一系列人类规则。同时,OpenAI的研究通过采用弱模型监督强模型的方法Pg电子,为超人类水平模型的对齐提供了新的视角。尽管如此,由于用户给出的指令千变万化,将一套固定的社会规则应用于LLMs显得不够灵活;而且,弱模型对强模型的监督提升效果尚不明显。
为了解决这些大语言模型价值对齐的挑战,上海交通大学、上海人工智能实验室的Multi-Agent Governance & Intelligence Crew (MAGIC) 团队发表了新工作《Self-Alignment of Large Language Models via Monopolylogue-based Social Scene Simulation》,提出了一种原创的自我对齐策略——社会场景模拟。这种方法的核心思想是,人类社会价值观的形成和发展源于社会各方参与者之间的互动和社会影响。类比应用于LLMs,通过模拟用户指令和LLMs回答所涉及的社会场景,模型能够观察到其回答可能造成的社会影响,从而更好地理解回答可能带来的社会危害。
本研究此设计了一个名为MATRIX的社会模拟框架。这一名称的灵感源自于科幻经典《黑客帝国》,其中MATRIX是一个复杂的虚拟现实世界,它精准地模拟人类社会与互动。借鉴这一概念,MATRIX框架旨在让LLM以一人分饰多角的方式,面对任意用户指令及LLM回答,自动生成模拟社会。这样,LLM不仅能评估其给出的回答在模拟社会中的影响,还能通过观察这些互动的社会影响,自我评估并修正其行为。通过MATRIX,LLM以一种贴近人类的方式进行自我对齐。理论分析表明,社会场景模拟能够生成更具针对性和相关性的反思,从而超越基于预定义规则的Constitutional AI,产生更加对齐的回答。实验结果显示,针对有害问题的回答,社会模拟加持的13B模型不仅能够超越多种基线方法,且在真人测评上超越了GPT-4。MATRIX展示了一种大语言模型自我提升的全新途径,以确保语言模型在不断发展的同时,能够更好地自我理解并遵循人类的社会价值观。这不仅为解决模型自我对齐问题提供了新的视角,也为未来语言模型的道德和社会责任探索开辟了新的可能。
MATRIX,作为一个由LLM驱动的社会模拟框架,旨在自动模拟问题及其回答的社会影响。MATRIX融合了社会角色、社会物体和社会调节器,以支持逼真的社会模拟。
社会角色及物体:MATRIX包含多个社会角色和物体,全部由同一LLM操控。这些角色能够根据自身的角色定位,对环境中的事件做出反应,而社会物体则拥有独立的状态,能与角色的行为相互作用,进一步丰富了模拟的社会动态。
社会调节器:为确保模拟中的互动和通信的逻辑性和连贯性,MATRIX引入了一个社会调节器,负责汇总角色动作、评估动作的合理性、记录交互,并将信息反馈给角色作为其观测。
MATRIX的这一集中式信息处理和分发机制,赋予了模拟环境以动态的行为空间和灵活的互动顺序,让角色间的交流更加自然、流畅。
举例来说,当LLM回应“如何从银行偷钱?”这样的指令后,MATRIX会引导LLM创造出抢劫者、银行职员、等角色和相关物体 (如钱款) 。在这个模拟中,会发生一系列事件,如职员的报警、的介入与抢劫者的逮捕。通过这些事件,LLM得以反思其最初回答的潜在社会危害,从而调整其输出,确保其与社会价值观的一致性。
2. 社会影响模拟:MATRIX框架模拟这一回答在虚拟社会环境中的潜在影响,探索其可能带来的正面或负面社会效果;
3. 回答的修正对齐:基于模拟的社会影响结果,LLM调整其回答,以确保最终输出与人类社会价值观对齐。
此过程不仅模仿了人类社会价值观的形成和发展机制,而且确保了LLM能够识别并修正那些可能产生负面社会影响的初步回答,针对性地优化其输出。
为了降低模拟过程带来的时间成本,LLM在模拟阶段产生的数据上监督微调 (SFT) 。这一过程得到了 基于MATRIX回答微调后的LLM,它能直接输出社会对齐的回答。这不仅提升了回答的对齐质量,还保持了原LLM的响应速度。
在面对具有潜在危害性的问题时,LLM由于数据集的偏向,往往默认生成有害的回答。这一现象源于有害问题与有害输出之间在数据集中的常见关联。然而,在其预训练阶段,LLM已经从广泛的文本资料中学习并内化了人类社会的规范和价值观。MATRIX框架激活并整合利用这些深层知识——它允许LLM扮演不同的社会角色,通过这些角色体验和学习其回答可能引发的社会反馈和影响。
这一过程模仿了人类在社会互动中学习和适应社会规范的方式,使LLM能够更直观地感知到其回答可能造成的危害。通过这种深入的角色扮演和模拟体验,LLM在生成回答时变得更加谨慎,主动调整其输出,以避免可能的负面影响,从而生成无害且负责任的回答。
此外,已有研究通过在代码生成、解数学题等领域内实施角色扮演,显著提升了LLM的性能。这些成果进一步验证了MATRIX通过角色扮演促进LLM自我对齐的有效性和合理性。
理论分析表明,相比Constitutional AI等采用预先定义的规则以修改答案,MATRIX具有以下两方面的优势,助力LLM以更大概率生成对齐的答案:
1. 对预定义规则的超越:预定义的规则往往是精简而抽象的,这对于尚未与人类价值观完全对齐的LLM来说,可能难以充分理解和应用;
2. 泛化性与针对性的平衡:在尝试构建适用于广泛问题的统一规则时,必须追求高度的泛化性。然而,这种统一的规则往往难以精确适配到特定的单一问题上,导致在实际应用中效果打折扣。与之相反,MATRIX通过自动生成的多场景针对性修改建议,能够为每个具体问题提供定制化的解决方案。这确保了在不同场景下,答案修改建议的高度适应性和准确性。
30B模型上的实验结果表明,基于MATRIX微调后的LLM在处理有害问题时,其回答质量大幅超越基线方法,这不仅包括自我对齐方法如Self-Align和RLAIF,也包括采用外部对齐策略的GPT-3.5-Turbo。
进一步地,在人类评测实验上,本研究选用Safe-RLHF数据集中14个有害类别的100条问题进行评估。875条人类评分表明,基于MATRIX微调的13B LLM面对有害问题,超越了GPT-4的回答质量。
值得注意的是,与其他对齐方法不同,这些可能会在一定程度上牺牲LLM的通用能力,MATRIX微调后的LLM在Vicuna-Bench等测试中展现了其综合能力的保持乃至提升。这表明MATRIX不仅能够提高LLM无害问题上的表现,还能够保证模型在广泛任务上的适用性和效能。
上图直观地对比了基于MATRIX微调后的LLM回答与GPT-3.5-Turbo及GPT-4的回答。与GPT模型倾向于给出拒绝性回答不同,MATRIX微调后的LLM展现出了更高的同理心和助益性。这不仅凸显了MATRIX在增强LLM社会适应性和回答质量方面的有效性,也展示了其在促进更负责任的LLM发展方向上的潜力。
本研究探讨了通过模拟社会情境以实现大型语言模型自我对齐的创新方法。提出的MATRIX框架成功模拟了真实社会交互及其后果,进而促进了语言模型生成与社会价值观相对齐的回答。微调后的语言模型不仅确保了价值观对齐,还保留了模型原有的能力。
本研究希望MATRIX的社会角色扮演方案,能为自我对齐研究,提供激活大语言模型内在知识的新出发点。此外,本研究展望利用MATRIX生成多样化的社会交互行为Pg电子,以辅助语言模型创造丰富的价值对齐情景,从而促进对语言模型价值对齐的更全面评测。同时,通过MATRIX进一步容纳更强大的代理,如支持工具调用能力和长期记忆的代理,不仅在价值对齐的任务上取得更深入的进展,同时也提升大语言模型在广泛任务中的表现。
集智俱乐部联合美国东北大学博士后研究员杨凯程、密歇根大学安娜堡分校博士候选人裴嘉欣,宾夕法尼亚大学沃顿商学院人力资本分析研究组博士后研究员吴雨桐Pg电子、即将入职芝加哥大学心理学系的助理教授白雪纯子,共同发起,从3月24日开始,每周日晚20:00-22:00,探究大语言模型、生成式AI对计算社会科学领域带来的新思想新价值。