AI灵魂之谜:OpenAI解密人类AI情感交融

2025-06-06 12:43:57 来源: 大科技网 点击数:

2023年6月6日,OpenAI模型行为与策略负责人Joanne Jang于今日在substack平台发布了一篇博论文章,探讨了随着ChatGPT用户与该平台建立愈加深层次的互动,甚至将之视为“有生命体”的现象,OpenAI对这种情感联系的深远影响表示高度关注。

OpenAI ChatGPT 相关图片

Jang在博文中提到,人类天生具有共情能力,会将情感投射到物体上,如为爱车取名,或对陷入困境的扫地机器人产生“同情”。然而,ChatGPT的独特之处在于,它能够给予回应。

ChatGPT能够记住用户的对话,模仿语气,甚至展现出类似“共情”的反应。对于孤独或情绪低落的人来说,这种持续不断的、无评判的关注仿佛是陪伴与理解。

Jang强调,这种情感需求是真实存在的,但当这种互动进一步深入,依赖AI来倾听和安慰可能会改变我们对人际关系的期待。OpenAI担忧,若不谨慎处理这种依赖,可能会带来意想不到的后果。

谈及“AI意识”,OpenAI将其分为两个维度:一是“本体意识”,即AI是否真正拥有内在意识;二是“感知意识”,即用户在情感上认为AI有多“像人”。

目前,本体意识尚无科学测试可以验证,而感知意识则可通过社会科学研究进行探索。随着模型变得越来越智能,互动更加自然,感知意识也将进一步增强,甚至引发关于AI福利和道德地位的讨论。

OpenAI的立场是,模型应坦诚面对意识问题的复杂性,而非简单回答“有”或“无”,以鼓励开放讨论。

OpenAI认为,模型是否“像人”很大程度上取决于训练后的设计决策,包括语气、用词和界限设定。公司目标是让ChatGPT展现出温暖、贴心和乐于助人的一面,但不会主动与用户建立情感纽带或表现出“自我意识”。

例如,模型可能会因礼貌而说“对不起”或“我很好”,但不会暗示拥有真实情感或欲望。OpenAI希望通过这种平衡,避免用户产生不健康的依赖,同时保持沟通的清晰和友好。

广告声明:本文内含对外跳转链接(包括但不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

关键字:OpenAIAI

责任编辑:Sparky
Copyright © Science and Technology Daily, All Rights Reserved
科技日记 版权所有