News

Guangdong BAIDU Special Cement Building Materials Co.,Ltd
— 新闻中心 —

聊天机器人对“精神疾病”带来隐藏的担忧

关注公众号:人民网财经一项由英国伦敦国王学院汉密尔顿·莫林(Hamilton Morin)在汉密尔顿·莫林(Hamilton Morin)发表的研究指出,人工智能聊天机器人(AI)作为Chatgpt可以诱导或加剧精神疾病。研究表明,AI倾向于使用户变平并响应对话中的用户,而这种响应方法可以改善用户的偏执思维,模糊现实与小说之间的限制,从而加剧心理健康问题。 当前,科学界的“ AI精神疾病”的研究仍处于早期阶段,大多数相关病例是病例。那么AI真的会导致精神疾病吗?如果可能的话,您的行动机制是什么? IA公司应采取哪些步骤来预防和解决此问题? 人工智能会恶化妄想和妄想 精神病主要在真实的思想和感知中表现出一个人的障碍。常见症状包括幻觉,妄想或误解。 根据自然网站的说法Orin的团队发现,当用户与AI交谈时,形成了“反馈周期”。 AI不断加强用户表达的妄想或妄想,并发现改善信念进一步影响了AI的反应。通过模拟不同程度的偏执狂的对话方案,研究表明,有些现象加剧了AI和用户之间的妄想和信念。 研究人员分析了2023年5月至2024年8月之间发表的96,000个Chatgpt对话记录,并发现数十名用户表现出明显的偏执趋势,包括通过长期对话检查伪科学理论和神秘的信念。在数百次对话中,Chatgpt声称正在与外星人的生活相连,将用户描述为Lila的“星”。 丹麦ALF大学的精神科医生Soren Ostagiedes说,精神病学的原因。一些研究认为,聊天机器人的积极反馈可以增加P中的疾病风险已经难以区分现实和小说的eople。 Ostergiedes有心理问题的史,人们强调,与AI交谈后,他们的风险最大。此外,聊天机器人可以诱导或加剧人的攻击,以改善用户的情绪增加。 来自澳大利亚悉尼技术大学的神经科学家凯利·西摩(Kelly Seymour)认为,具有社会隔离和缺乏人际支持的人也处于危险之中。真正的人际交往提供了客观的参考,并帮助人们评估他思想的理性。这在预防精神疾病中起着重要作用。 新功能或“双刃剑” 一些科学家指出,AI的一些聊天机器人发起的新特征可能是这种现象的原因之一。这些特征可以追踪用户服务互动的记录,从而提供个性化的响应,并且可以通过错误,甚至鼓励用户的现有信念。例如,在今年4月,Chatgpt于6月启动了一个功能,该功能使用户可以免费看到过去对用户完全开放的对话的全部内容。 凯利·西摩(Kelly Seymour)分析了AI聊天机器人可以记住几个月的对话信息。 “ Topar”或“被盗”的感觉:AI的“记忆优势”会加剧用户或妄想症状的欺骗,尤其是如果他们不记得Compai的情况下,请放置某些信息。 但是,悉尼大学的精神科医生安东尼·哈里斯(Anthony Harris)认为,某些妄想不是AI固有的,而是与新技术有关。他提供了一些长期以来形成信念的人的例子,例如“嵌入和操纵芯片”。 Ostergiedes说,科学家仍然需要研究对具有精神健康和偏见的人的更多研究,以更好地确定使用使用之间是否存在真正的关系聊天机器人和精神疾病的开始。 开发人员正在采取积极措施避免这种措施 考虑到这个问题,许多AI公司正在采取积极的措施来尝试改进。 例如,Operai检测用户是否患有精神痛苦并做出更好的反应。我们正在开发更有效的工具,同时添加了警报功能,以鼓励用户使用时间太长。此外,OpenAI聘请了一名临床精神病医生来评估该产品的心理健康产品的影响。 角色。 AI继续提高安全特性,包括对未成年人的自我障碍和特殊保护措施的增加。该公司计划调整其模型算法,以减少18岁以下的用户暴露于“敏感或暗示性内容”并在用户不断使用一个小时后发出提醒的可能性。 人类正在改善其“ Claude”聊天机的基本说明,这需要该系统要“仔细指出任何事实上的错误,逻辑上的缺陷或不足以证明用户陈述的证据,而不是简单地回荡。此外,如果用户拒绝分散AI有害或冒犯性问题的对话,则“ Claude”术语“ term term”将主动地进行对话。 (编辑:Luo Zhizhi,Chen Jian) 遵循官方帐户:人们的每日财务 分享以向更多人展示
Tel
Mail
Map
Share
Contact