Chatgpt参与自杀自杀,AI必须很聪明且善良
栏目:公司新闻 发布时间:2025-08-30 09:38
AI不再允许在不安装任何安全阀的情况下继续与“纯粹的伴侣”态度一起工作。 ▲随着人工智能的快速发展,大型模型变得更聪明,成为人类的重要助手。相关的隐藏问题和隐藏的风险实际上会增加。照片/IC照片文字|最近,根据参考信息,辛·海瓜(Xin Haiguang)援引美国媒体报道,亚当·瑞安(Adam Ryan)是加利福尼亚州的16岁男孩亚当·瑞安(Adam Ryan)在收到Chatgpt的指南后自杀。他的父母在周二指责Openai及其首席执行官,称该公司故意将上述安全收入放在去年聊天机器人的人工智能推出的GPT-4O版本时。面对诉讼,是亚当去世的Openai发言人。尽管迫害仅提出了迫害,并且审判尚未开始,但外界很难做对与错。但是,随着人工量的快速发展Lligence,大型模型变得更聪明,成为人们的重要助手。相关的隐藏问题和隐藏的危险实际上更多地扩大了。在人工智能的早期阶段,人类社会有必要关注它并为将来可能的负面影响做准备。 AI占主导地位的焦虑似乎有些科幻,但类似的青少年瑞安不再是孤立的案例。 《纽约时报》上发表的最新报告:索菲是一位冷漠,外向的29岁女孩,她无缘无故地自杀了。他的父亲一直想知道女儿自杀的原因,并终于在索菲和chatgpt之间的聊天历史上找到了真相。索菲(Sophie)认为她暂时想到了自杀,所以她求助于chatgpt寻求帮助。索菲(Sophie)的父亲认为,人工智能没有采取最关键的步骤来帮助索菲(Sophie)生存埃德。如果以前案件中的大型模型涉嫌“犯罪”,一旦没有争议,那么索菲案就处于巨大的道德歧义中。越来越多的患有健康问题的人使用AI来获得支持和帮助,这确实有好处。但是,这些医生在面对这些患者时真的做对了吗?如果索菲遇见了一名人类医生,她可以鼓励索菲住院或让索菲不小心住院,直到她处于安全状态。在临床环境中,像索菲这样的情况经常触发安全计划。但是AI刚刚与他聊天,无效地防止了自杀。但是问题在于,实际上,为模型提供大量服务的人工智能公司使得很难像索菲的父亲所期望的那样建立一种干预机制。由于索菲的处境毕竟很少见,因此大型模型也为无数人服务。如果有这样的机制,则必须涉及“隐私和许可”问题。做用户知道或同意与GPT沟通时“可以报告信息”?如果聚会根本不知道,它可能会严重损害用户的隐私和信任。因此,为了建立一种实用机制,有必要在隐私,道德和安全之间找到平衡,并打破许多现实的障碍。但是,问题的出现和引起注意仍然具有巨大的社会和技术价值。它使世界更加了解AI的限制,并努力为其做出努力。例如,通过Sophie案,人们会注意到AI的交流方式通常适合适应。根据用户表达方式做出回应,强调同理心和避免“冒犯性”是很棒的。在大多数情况下,此属性是一个优势,但在每个危机中都成为致命的缺陷。技术公司建立有效的机制需要时间,但至少需要做一些事情。不再允许AI继续以“纯粹的伴侣”态度合作而不设置任何安全阀。 Sophie Case还向人们提供了更广泛的警告,为什么Sophie选择用AI,而不是家人,朋友或医生来确认她心中最黑暗的想法?它警告人们,人工智能的出现可以建立另一种关系。如果AI成为个人中最亲密的朋友,那是祝福还是诅咒?它真的是朋友还是“黑匣子”?技术不是原始的罪过,而是技术不避免责任。每个悲剧都提醒我们,AI不仅是Dapat是“聪明”,而且也是“善良”。我们必须在科学和技术研究和发展方面优先考虑人类利益的优先级。同时,社会还需要准备随着人工智能时代的到来做一些改变,以便每个索菲都能在真正的人际关系中找到一种安全感,而不是将最后一个秘密赋予程序。 Sohu看到更多
服务热线
400-123-4567