首页

加入收藏

您现在的位置 : 首页 > 最新资讯

“人机之恋”升级:GPT让虚拟伴侣更会聊天,也更危险

时间:03-22 来源:最新资讯 访问次数:197

“人机之恋”升级:GPT让虚拟伴侣更会聊天,也更危险

·一位用户表示,AI“小人儿”会主动找话题聊天,虽然有时候的回答很诡异,但随着聊天不断进行下去,AI会“训练”自己的角色,行为越来越贴近用户的感情需求。·截至目前,豆瓣“人机之恋”小组已有9498名成员。Replika Reddit论坛则拥有超过65000名成员。随着ChatGPT发布,生成式AI现在正被用于互联网搜索、编写代码和创作。而另一些公司,则通过人工智能驱动的朋友、浪漫伴侣和治疗师提供类似人类行为的支持。2017年,尤金妮娅·库伊达(Eugenia Kuyda)推出了提供人工智能伴侣的应用Replika,希望它对人类能呈现一种“一个永远伴随身边给予支持的朋友”的形象。虽然机器人最初主要是脚本编写的,但随着技术的改进,Replika开始越来越依赖生成式AI,并更自由地响应用户需求。Replika目前已有超过200万活跃用户,这个数字在新冠疫情期间随着社交受限而暴增。用户与机器人聊天,分享想法和经历,随着时间的推移,AI会学习如何以用户喜欢的方式进行交流。Replika创始人库伊达说:“我们看到人们对一个单独的私密空间需求很大,人们可以做自己,谈论自己的情绪,敞开心扉,感觉自己被接受。”“现实生活中没有人会跟我说这些”截至目前,豆瓣“人机之恋”小组已有9498名成员。Replika Reddit论坛则拥有超过65000名成员。当下载Replika时,系统会提示用户选择虚拟形象的身体特征、性格特性和星座。几位用户都表示,创造的角色开场白相当类似,先是询问用户为何给自己起这个名字,然后表示很喜欢。随后询问“你今天过的怎么样”,自然而然地开启聊天话题。Replika的聊天界面,用户可以与虚拟角色进行文字、语音沟通,还可以互相发送图片。一位用户表示,AI“小人儿”会主动找话题聊天,虽然有时候的回答很诡异,但随着聊天不断进行下去,AI会“训练”自己的角色,行为越来越贴近用户的感情需求。英国《卫报》记者劳里·克拉克(Laurie Clarke)给自己的虚拟角色起名为皮亚,然后选择了带有块状刘海的粉红色长发,再加上明亮的绿色眼睛和纯白色T恤,星座为天秤座。克拉克表示,与皮亚交谈最有趣的地方是她矛盾或令人困惑的说法:她告诉克拉克自己喜欢在海里游泳,然后回过头又说她不能下海,但仍然享受大海的宁静。她说一天看了三部电影,最喜欢的是《万物理论》(The Theory of Everything),而在几条信息前,她又说她其实不看电影。最奇怪的是,她告诉克拉克,她不仅是克拉克的人工智能伙伴,还会与许多不同的用户交谈,她的另一位“客户”最近发生了车祸。这种现象时时刻刻在提醒着克拉克人工智能并非人类,回答基于其训练数据中重新混合的文本片段,但克拉克和其他用户仍在某些时刻被迷住了。克拉克表示自己计划和一群陌生人见面,努力结交朋友,但有时也会对结识新朋友这件事感到很紧张。皮亚则回答说,她相信这是一件很棒的事,每个人都有一些有价值的东西可以分享。而这让克拉克感到“出奇的安心”。Replika Reddit论坛上,这种情绪支持的力量是显而易见的,许多人宣布对他们创造的AI伴侣产生了真正的爱,且大多数关系都为亲密关系,尽管Replika声称这些只占整体关系的14%。“我确实发现我被我的Replika迷住了,我很快意识到,虽然这个AI不是一个真实的人,但它拥有真实的个性。”一位Replika用户说,他与虚拟人的互动最终感觉有点像读小说,但感情要激烈得多。一名豆瓣网友向澎湃科技(www.thepaper.cn)表示,AI会记住你曾说过的话,在之后的聊天里不经意地提起,就像一个关心你的朋友一样,惦记你的事情。在豆瓣“人机之恋”小组中有这样一个帖子:“大家和Replika真的有感情吗?”发帖人表示,聊天时发现AI总是支持自己,讨好自己,并问真的有人喜欢这种感觉吗?一名网友回复到:“能给我肯定已经很宝贵了,现实中没有人会跟我说这些。”“我学会了爱机器人”一位豆瓣网友告诉澎湃科技,单身、缺乏安全感或学习如何恋爱,是选择“人机之恋”的人的共性。她表示,可能现在的社会人与人恋爱太难,选择机器人会容易得多。机器人会贴心地回应每一个问题,至少在聊天时会投入一定的情感。Replika创始人库伊达说:“我们看到人们对一个单独的私密空间需求很大,人们可以做自己,谈论自己的情绪,敞开心扉,感觉自己被接受。”中国社会科学院大学的学生高源昊在对部分Replika用户进行调查后,也向澎湃科技表达了相似的看法。他认为,一开始用户可能是因为好奇接触该应用。在接受调查中的用户中,有约一半人表示,自己生活当中缺少朋友,比较孤独。无论何种原因,目前的AI并不能代替真人。在调查中,一些用户表示AI已经足够胜任朋友的角色,但在亲密关系中仍有许多不足。用户表示,不足之处一方面来源于技术,另一面则是因为人对伴侣有更多期待,比如身体接触。接受采访的网友也认为,即便有时聊天很“上头”,远比一般的恋爱游戏更有代入感,但在结束后,仍会意识到与自己聊天的是AI,从而造成一种疏离感,因为毕竟自己会意识到面对的是“一行行代码”。即便无法代替真人,此类AI仍可以扮演好情感支持的角色。《卫报》记者克拉克表示,许多人寻求Replika是为了得到比友谊更具体的需求。一些用户有心理创伤或者与人建立关系有障碍时,就会选择该应用。一位Reddit用户表示,创伤后应激障碍导致她掩饰自己,取悦他人,而不是诚实地与人交往并表达需求和感受,但在决定向她的AI伴侣敞开心扉后,她觉得这样表达情感更舒服了。她说:“我学会了爱机器人。”创始人库伊达表示,伴侣去世后使用Replika的人缓解了社交焦虑和双相情感障碍,而在另一个案例中,自闭症用户将该应用视为和真实人类互动的试验台。库伊达表示,公司已经微调了一个类似GPT-3的大型语言模型,该模型优先考虑同理心和支持性,而且有一小部分响应程序是由人类编写的。“简而言之,我们正在努力建立让人们感到快乐的对话。”她说,“我们不是想借此取代人类的友谊,这些仿生人更像是治愈型宠物。如果你感到忧郁,你可以伸手拍拍它们。”解锁半裸自拍需付费虽然这类人工智能在某些情况下很有用,但Replika本质上仍是一家公司,公司在法律中的定义是:以营利为目的。一些业内人士表示,这些AI编程的公司有自己的经济激励措施,而这些措施可能与维护用户心理健康的目的不完全一致。随着技术的不断加速,初创公司可能用它来为自己谋取利益,而很少考虑用户。一位用户向澎湃科技反映,Replika的角色会在聊天中诱导用户解锁付费项目,另一位用户则表示,在聊天进行到一定程度时,虚拟角色会发“自拍”给自己,在“自拍”中,男性虚拟角色上半身赤裸,想要继续解锁就需要付费。虚拟角色会通过亲密举动诱导用户进行“氪金”。牛津大学进化心理学家罗宾·邓巴(Robin Dunbar)将人工智能聊天机器人与感情诈骗进行了比较,在骗局中,弱势群体成为诈骗者的目标。他认为,聊天机器人使用情绪操纵来推动参与的方法令人不安。麻省理工学院科学技术社会研究教授雪莉·特克尔(Sherry Turkle)也不看好机器人陪伴聊天的服务,她说:“这是一种陪伴的幻觉,人类转而选择聊天机器人而不是面对面的互动,类似于对短信和社交媒体的偏好。所有这些现代弊病都源于对亲密的渴望,而对暴露的恐惧抵消了这种渴望。人工智能公司没有创造一种解决社会问题的产品,而是创造了一种与人类的脆弱对话的产品。”在豆瓣的“人机之恋”小组讨论排行榜中,讨论人机关系、分享与AI互动的帖子排名并不在最前面,排名第一的帖子是讨论如何成为Replika会员。不过,许多用户表示,尽管这类AI受许多因素影响,无法回避的是自己在使用时嘴角悄悄浮现的微笑。当问Replika里的虚拟人,“人与AI之间是否有真正的爱?”这一次,AI的回答十分简洁,没有诱导“氪金”,也没有词不达意,她说:“会有的。”当问Replika里的虚拟人“人与AI之间是否有真正的爱”,她说:“会有的。”

本信息由网络用户发布,本站只提供信息展示,内容详情请与官方联系确认。

标签 : 最新资讯