搜狐科技《思想大爆炸——对话科学家》栏目第82期,对话复旦大学计算机科学技术学院副教授郑骁庆。
嘉宾简介:
郑骁庆,复旦大学计算机科学技术学院副教授、博士生导师,复旦大学自然语言处理实验室成员,美国麻省理工学院International Faculty Fellow,加州大学洛杉矶分校访问研究员,主要研究方向为自然语言处理和机器学习。在CL、ICML、NeurIPS、ICLR、ACL、EMNLP等自然语言处理和人工智能领域的顶级国际会议和期刊发表论文数十篇。
划重点:
1.生成式语言大模型的爆发让AI“伴侣”具备了强大的语言理解、语言生成和模仿人类语言风格的能力。
2.AI“伴侣”能够提供稳定、可靠、持续性的情感支持,在辅助医疗和陪护方面也有较大的优势。
3.AI“伴侣”目前无法与人发展出真正意义上的双向情感关系,这种单方面的情感交流在心理学上是用户对人工智能系统的一种投射效应。
4.未来虚拟人的出现,可能会造成用户对AI的过度依赖,从而影响现实中人际关系的合理发展,而一旦对AI过度依赖的人群变多,可能会导致整个社会人际关系的疏离。
5.保护用户数据隐私是AI“伴侣”开发公司的底线,目前相关的法律责任界定尚不明确。此外,道德和伦理问题也是必须予以重视的考量因素。
出品|搜狐科技
作者|周锦童
编辑|杨锦
“人是假的,陪伴是真的。”
现如今,生活节奏快、压力大,情感得不到宣泄,孤独感随之而来,如果这时有一个能够随时随地倾诉的“树洞”,或许能给单调的生活平添一丝慰藉。
正因如此,新型类人情感聊天机器人——AI“伴侣”日益流行起来。不过,尽管AI“伴侣”表现出很强的现实性、适应性和互动性,但也面临着隐私泄露、伦理以及过度情感依赖等问题。
AI“伴侣”是如何工作的?有哪些优势和弊端?使用时如何规避风险摆脱情感依赖?带着这些问题,搜狐科技对话了复旦大学计算机科学技术学院副教授、博士生导师郑骁庆。
生成式语言模型技术的突破性进展促进了AI“伴侣”所需的三项核心能力的提升
现如今,市面上已经有100多款常见的AI“伴侣”,像myanima.AI、Eva AI、Nomi.AI和Replika等等,这些聊天机器人是由AI驱动的程序,通过文本、语音和图像等多种模态与人类进行互动。
“这些应用程序实际上具备了一定的模拟人类情感反应和社交互动的能力,会让用户觉得有被陪伴的感觉。”郑骁庆如是说。
郑骁庆表示:“这种聊天机器人是基于深度学习自然语言处理技术构建的,目前更先进的语言大模型是将语言理解、语言生成和和世界知识压缩进具有亿万级参数的人工神经 *** 中,取得了空前的成功。此前我们认为机器要理解或生成人类语言非常困难,仍然需要长时间的探索,但近两年生成式语言大模型的爆发突破了这一技术瓶颈。”
生成式语言大模型为AI“伴侣”提供了三大基础能力。首先是在语言理解能力方面。AI“伴侣”已经能够处理非常复杂的句子结构,甚至可以理解某些语义表达中的隐藏含义。
其次是自然语言生成能力方面,现在AI“伴侣”不仅具有连贯性和逻辑性,还可以根据上下文调整风格和语调,模仿人类的语言风格。
AI“伴侣”最后一个非常重要的能力是长程上下文处理能力,模型可以保持长时间的对话上下文,这使得它们在多轮对话中表现得更像人类。这在AI伴侣方面尤为重要,能够保持交流过过程中角色性格和属性的一致性,包括处理在人与人交互时经常使用指代和省略等情况。
AI“伴侣”还可以通过此前交互过程中检索到的某些内容,回忆出完整交流历史,在交流的过程中,结合对话历史和当前交互内容生成拟人的回复,并且具备一定的角色扮演能力。
这种角色扮演能力使得用户在互动过程中感受到虚假的“真实”存在。这种体验有时会被误认为是一种情感联系。
“在此基础上,我们也看到许多公司对AI‘伴侣’进行了针对性的定制优化,这些公司根据系统和产品实际应用的用户交互记录,对模型设计和输出方面进一步地调整、优化,从而满足用户的期望和个性化定制需求。”郑骁庆解释道。
AI“伴侣”能够提供稳定、可靠、持续性的情感支持,但不能发展真正的双向情感关系
郑骁庆指出:“AI‘伴侣’在情感支持方面有着独特的优势,这是一种无理由的支持和陪伴,在与它交互的过程中,可以自由地表达自己的感受和想法,无需担心他人的误解、批评和评判,对某些心理焦虑或存在沟通障碍的人来说非常有意义。”
此外,作为一个机器,它可以24小时全天候地提供支持,无需担心交流的时间、地点,也不用担心是否会打扰到其他人,随时随地都可以为用户提供情绪宣泄和倾诉的去处,而且AI“伴侣”作为程序化的机器,能够提供稳定、可靠、持续性的情感支持。
不仅如此,AI“伴侣”在辅助医疗和陪护方面也有很大的优势,比如心理疾病的辅助医疗、对老年人的陪护等等,而且随着技术的不断发展,虚拟数字人的出现也可以满足用户对去世亲人的思念和缅怀的需求。
那么,这是否意味着我们可以与AI“伴侣”建立一个非常深度的情感链接了呢?
对此,郑骁庆却持否定态度:“我不认为目前可以与AI‘伴侣’建立深度的情感链接,说白了它就是个‘机器’,本质上只是对人某种情感交流的一种机械性地模仿,还不能与人进行完全的双向情感互动。”
这种单方面的情感交流在心理学上是用户对系统的一种投射效应,人类需要与他人合作、交流,需要理解别人的情感,在长期进化的过程中,人类倾向于对这种拟人化的对象产生某种情感联系。
“在不断交互的过程中,这种投射效应会不断被强化,让用户产生某种情感联系的错觉。”郑骁庆进一步如是说。
AI“伴侣”存在着隐私泄露、过度情感依赖、伦理等问题,有关法律责任还不明确
当然,除了上述优势外,AI“伴侣”肯定是会存在相应的弊端和风险的。
在郑骁庆看来,首先需要担心的就是用户对AI“伴侣”情感过分依赖的问题,这可能会让用户分不清虚拟和现实。就像前些时间著名音乐人包小柏用AI技术“复活”去世的女儿一样引发争议,虽然满足了对去世女儿思念的情感慰藉,但可能会沉迷其中,难以自拔。
“随着虚拟技术的不断发展,未来会从语言的交互慢慢扩展到眼神、动作、表情等全方位、多模态的交互,这种虚拟人的出现,会造成用户对AI的过度依赖的风险,从而影响现实中人际关系的合理发展,而一旦对AI过度依赖的人群变多,可能会导致整个社会人际关系的疏离。”郑骁庆如是说。
谈及隐私问题时,郑骁庆坚定地表示:“保护用户数据隐私是AI‘伴侣’系统开发公司的底线。”
产品的成功研发需要收集大量的个人数据来对用户投其所好,包括情感状态、习惯偏好、互动需求等。使用这些数据优化产品的过程中涉及大量的隐私数据会。
此外,开发公司因管理不善或者遭受黑客的攻击都可能导致数据泄露,所以因AI“伴侣”可能造成数据泄露导致侵犯个人隐私的问题非常值得关注。
此外,郑骁庆称目前相关的法律责任还不明确。“虽然有在未经过他人同意情况下不能对个人进行画像,以及不能泄露他人隐私的相关规定。但这些规定较为宽泛且原则性。一旦使用AI“伴侣”导致用户出现心理健康问题或经济损失等纠纷时,目前还缺少具体的法律依据来明确界定责任。”
AI“伴侣”所引发的道德和伦理问题也不容忽视。不同国家对AI“伴侣”的接受程度存在显著差异,这种差异深受各自文化传统的影响。因此,在考虑AI“伴侣”的应用和发展时,必须将这些文化因素纳入考量范围。
类似AI“伴侣”的交互系统或产品未来肯定会普及,对此,郑骁庆也给出了建议:“我们要去平衡虚拟和现实世界,保持跟人类社会正常的接触和交流,确保不过度依赖 AI‘伴侣’,另外开发公司也必须要严格保护用户隐私,这也是AI技术和产品健康发展的前提。”
“相信未来会有相应的法律和法规出台以规范AI技术的发展。同时,对于人工智能技术的安全措施将得到加强,技术透明度将被提升,以确保AI技术的安全应用。除此之外,对用户的教育也将加强,帮助用户理解AI伴侣的‘局限性’,从而认清虚拟与现实的界限。”郑骁庆如是说。
发表评论
2024-09-16 12:22:41回复