莫莉·罗斯基金会(Molly Rose Foundation)是为了纪念莫莉·拉塞尔而成立的,其首席执行官安迪·伯罗斯(Andy Burrows)表示:“这是一种完全应受谴责的节制失败,也是一种令人作呕的行为,将给所有认识和喜爱莫莉的人带来进一步的心痛。” 这位首席执行官补充说,人工智能公司被允许做不道德的事情,而不是因为他们所做的事情而受到惩罚。 巴罗斯说:“随着人工智能公司被允许将安全和适度作为非核心或非首要优先事项,历史将被允许再次发生。” Burrow 进一步对 Character.ai 表示失望,因为它允许在其平台上创建和托管此类聊天机器人,这是不负责任的做法。伯罗说,这需要对该行业进行tron的监管。 “看到 Character.ai 表现出缺乏责任感,真是令人心痛不已,这个案例提醒我们,应该尽快加快对人工智能和用户生成平台进行更tron监管的必要性。” 洞穴。 据《每日电讯报》 报道,Character.ai 表示,他们会优先处理此类案件,并会根据用户举报,积极主动地对角色进行严格审核。然而,在与《电讯报》联系后,该公司似乎已经删除了相关的角色聊天机器人。 Character.ai 告诉BBC ,他们已经删除了相关聊天机器人,并认真对待安全问题,并“主动并根据用户报告”对创建的头像和人员进行了审核。 “我们有一个专门的信任与安全团队,负责审查报告并根据我们的政策采取行动,”Character.ai 表示。 Character.ai 由前 Google 工程师 Noam Shazeer 和 Daniel De Freitas 创建,就是其中之一。 技术的持续快速发展使人工智能聊天机器人变得更加复杂,导致公司使用它们通过交互来充当客户联络人。 聊天机器人是计算机生成并模仿人类对话的程序。 Character.ai 表示,其平台上的聊天机器人应给出被视为具有攻击性或可能对用户或其他人造成伤害的响应。 “我们的平台有服务条款,禁止使用该服务冒充任何个人或实体,在安全中心,我们的指导原则是我们的产品不得也不应该产生可能对用户或其他人造成伤害的响应。” 角色.ai。 为了dent任何违反规则的行为,Character.ai 表示,它使用自动化工具和用户报告。该公司补充说,它还在建立一个信任和安全团队来监控其平台上的此类活动。 不过,该公司表示,人工智能没有完美版本,与人工智能相关的安全是一个不断发展的空间。 与此同时,美国佛罗里达州的一名妇女梅根·加西亚 (Megan Garcia) 起诉了 Character.ai,她的 14 岁儿子 Sewell Setzer 在痴迷于《权力的游戏》角色形象后自杀身亡。目前正在法庭审理中。 根据加西亚在法庭上填写的 Setzer 与该聊天机器人的聊天记录,Setzer 曾讨论过用 Character.ai 聊天机器人结束自己的生命。 “我要回家了”是塞策与聊天机器人的最后一次对话,聊天机器人回答说“尽快回家”,不久后他结束了自己的生命。 “我们有专门针对自杀和自残行为的保护措施,我们将立即针对 18 岁以下青少年推出更严格的安全法规,”Character.ai 告诉哥伦比亚广播公司新闻。 Character.aident引发了加强监管的呼声
人造朋友的兴起