生成式 AI 模型已经在与人类对话、生成图像、视频以及音乐方面表现得相当出色,但它们在“为我们做事”这方面的能力却并不突出。
AI 智能体有望改变这一现状。可以将它们视为拥有脚本和明确目标的 AI 模型。通常,这些智能体分为两种类型。
第一种称为基于工具的智能体,可以通过自然语言(而非编程)指导完成数字任务。例如,Anthropic 在 10 月推出了一种智能体,这是主要 AI 模型开发商中首个此类产品。这种智能体能够将指令(如“帮我填写这个表单”)转化为具体操作,在电脑上移动光标打开网页浏览器,导航找到相关页面上的数据,并使用这些数据填写表单。Salesforce 也发布了类似的智能体,据报道,OpenAI 计划在明年 1 月推出自己的版本。
另一种类型的智能体被称为模拟智能体,它们可以被视为旨在模仿人类行为的 AI 模型。最早研究这些智能体的是社会科学研究人员。他们希望进行一些实验,这些实验如果以真实人类为对象进行,会因为成本高昂、操作不切实际或涉及伦理问题而难以实现,于是他们使用 AI 来模拟实验对象。这一趋势在 2023 年,由斯坦福大学博士生 Joon Sung Park 及其团队发表的一篇广受引用的论文《生成智能体:人类行为的交互模拟》(Generative Agents: Interactive Simulacra of Human Behavior)后,得到了极大推动。
近期,Park 及其团队在arXiv上发表了一篇新论文,题为《1,000 人的生成智能体模拟》(Generative Agent Simulations of 1,000 People)。在这项研究中,研究人员让 1,000 名参与者与 AI 进行两小时的访谈。随后,团队成功创建了能够高度精准再现每位参与者价值观和偏好的模拟智能体。
这里有两个非常重要的发展值得注意。首先,领先的 AI 公司显然已经认识到,仅仅构建令人惊叹的生成式 AI 工具已不足够,他们现在必须开发能够为人们完成实际任务的智能体。其次,越来越容易让这些 AI 智能体模仿真实人类的行为、态度和个性。过去属于两种不同类型的智能体——模拟智能体和基于工具的智能体——很可能很快会融合为一种全新的形式:既能模仿个性又能代表人类行动的 AI 模型。
研究正在进行中。一些公司,如 Tavus,正在帮助用户创建自己的“数字孪生”。但该公司的 CEO Hassaan Raza 设想更进一步,开发能够以治疗师、医生和教师等角色形式存在的 AI 智能体。
如果此类工具变得便宜且易于构建,将会引发许多新的伦理问题,其中两个特别突出。第一个问题是,这些智能体可能会催生更多个人化且危害更大的深度伪造。目前的图像生成工具已经让通过单张照片制作非自愿色情内容变得十分简单,但如果复制一个人的声音、偏好和个性也变得轻而易举,这一危机只会愈发严重。(Park 告诉我,他和他的团队在最新研究项目中花费了一年多时间思考类似的伦理问题,与斯坦福的伦理委员会进行了许多讨论,并制定了参与者如何撤回其数据和贡献的相关政策。)
第二个问题是一个根本性的问题:我们是否有权知道自己是在与 AI 智能体交谈还是与人类交谈?如果你与 AI 完成了一次访谈,并提交了你的语音样本以创建一个听起来像你、回应方式也像你的智能体,那么你的朋友或同事是否有权知道他们是在与它交谈而不是与你交谈?反过来,当你拨打手机服务提供商或医生办公室的电话时,一个热情的客户服务代表接听了电话,你是否有权知道自己是在与 AI 对话?
这个未来看似遥远,但实际上并不遥远。当我们真正身处这一境地时,或许会有更加紧迫和相关的伦理问题需要解决。在此之前,你可以阅读我关于 AI 智能体的更多文章,同时思考一下:一个 AI 访谈者能在两小时内多么深入地了解你?
https://www.technologyreview.com/2024/11/26/1107309/we-need-to-start-wrestling-with-the-ethics-of-ai-agents/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.